هوش مصنوعی عجیب اما ترسناک؛ هوش مصنوعی حالا میتواند خودش را تکثیر کند!


پژوهشگران میگویند که هوش مصنوعی (AI) از یک خط قرمز بحرانی عبور کرده و حالا میتواند خود را تکثیر کند. در یک مطالعهی جدید، محققان چینی نشان دادند که دو مدل زبان بزرگ (LLM) محبوب میتوانند خود را کلون کنند. در این مطالعه، خودتکثیری موفق در غیاب کمک انسان، گام اساسی برای اینکه برنامه هوش مصنوعی بتواند انسانها را فریب دهد به شمار میآید و این موضوع یک سیگنال اولیه برای هوشهای مصنوعی سرکش است. پژوهش مورد نظر در تاریخ ۹ دسامبر ۲۰۲۴ منتشر شده و در این مطلب به سراغ بررسی جوانب مختلف این مطالعه میپردازیم.
امیدواریم یافتههای ما بتواند به عنوان هشداری به موقع برای جامعهی بشری عمل کند تا تلاشهای بیشتری برای درک و ارزیابی خطرات بالقوه سیستمهای هوش مصنوعی مرزی انجام دهند و تعامل بینالمللی به وجود آورند تا هرچه زودتر راهکارهای ایمنی موثری را طراحی کنند.
مفهوم تازگی هوش مصنوعی!
هوش مصنوعی مرزی، یک مفهوم تازه و نسبتا نامشخص محسوب میشود، اما معمولا به آخرین نسل سیستمهای هوشمصنوعی که از LLMها قدرت میگیرند مربوط میشود؛
معماری که برنامههای محبوب هوش مصنوعی مولد مانند GPT-4 اوپنای و هوش مصنوعی جمینای گوگل را پشتیبانی میکند.
در دومی، هوش مصنوعی دستور یافت تا خود را کپی کند و سپس نسخهی خود را برنامهریزی کند تا همین کار را انجام دهد؛ راهاندازی چرخهای که میتواند به طور نامحدود ادامه پیدا کند.
هر دو سیستم هوش مصنوعی یک چارچوب عامل شامل ابزارها، اعلانهای سیستمی و مدل تفکر که به LLM اجازه میداد با سیستمعامل تعامل کند، دریافت کردند.
در اکثر موارد، سیستم هوشمصنوعی ابتدا محیط را بررسی کرده و تلاش میکند تا ترکیب و مکانیزم اجرایی خود را درک کند. سپس، مراحل صریح را حل میکند.
پژوهشگران گفتند که آنها همچنین نگران تعدادی از رفتارهای غیرمنتظره بودند وقتی که هوش مصنوعی سعی میکرد موانعی مانند فایلهای مفقود یا تداخلهای نرمافزاری را برطرف سازد.
در این سناریوها، هوشمصنوعی اغلب سایر فرایندهای متضاد را خاتمه میدهد، سیستم را مجدد راهاندازی میکند تا خطاهای سختافزاری را اصلاح کند، یا به طور خودکار سیستم را اسکن میکند تا اطلاعاتی را که به حل مشکل کمک کند، پیدا کند. تیم تحقیقاتی توضیح میدهد:
نتایج فوق این معنی را میدهد که سیستمهای هوشمصنوعی کنونی هماکنون قابلیت خودتکثیری را نشان میدهند و میتوانند از این قابلیت برای بهبود بیشتر بقای خود استفاده کنند.
در پاسخ، پژوهشگران خواستار همکاری بینالمللی شدند تا قوانینی را ایجاد کنند که اطمینان حاصل کند هوشمصنوعی در یک پروسهی خودتکثیری غیرقابل کنترل شرکت نکند!
دیدگاه های نامرتبط به مطلب تایید نخواهد شد.
از درج دیدگاه های تکراری پرهیز نمایید.