هوش مصنوعی عجیب اما ترسناک؛ هوش مصنوعی حالا می‌تواند خودش را تکثیر کند!

هوش مصنوعی خطرناک

پژوهشگران می‌گویند که هوش مصنوعی (AI) از یک خط قرمز بحرانی عبور کرده و حالا می‌تواند خود را تکثیر کند. در یک مطالعه‌ی جدید، محققان چینی نشان دادند که دو مدل زبان بزرگ (LLM) محبوب می‌توانند خود را کلون کنند. در این مطالعه، خودتکثیری موفق در غیاب کمک انسان، گام اساسی برای اینکه برنامه هوش مصنوعی بتواند انسان‌ها را فریب دهد به شمار می‌آید و این موضوع یک سیگنال اولیه برای هوش‌های مصنوعی سرکش است. پژوهش مورد نظر در تاریخ ۹ دسامبر ۲۰۲۴ منتشر شده و در این مطلب به سراغ بررسی جوانب مختلف این مطالعه می‌پردازیم.

در مطالعه‌ی مورد نظر، محققان از دانشگاه فودان از LLMهای متا و علی‌بابا استفاده کردند تا مشخص کنند آیا یک هوش مصنوعی خودتکثیر می‌تواند بیشتر از حد کنترل تکثیر شود یا خیر.
در ۱۰ آزمایش، این دو مدل AI نسخه‌های جداگانه و کارآمدی از خود را به ترتیب در ۵۰ درصد و ۹۰ درصد موارد ایجاد کردند.
این موضوع نشان می‌دهد که ممکن است هوش مصنوعی به طور پیش‌فرض ظرفیت سرکشی را داشته باشد، اما این مطالعه هنوز توسط سایر پژوهش‌های دانشگاهی مورد نقد و بررسی قرار نگرفته است. بنابراین مشخص نیست که آیا نتایج نگران‌کننده می‌تواند توسط دیگر محققان تکرار شود یا خیر. پژوهشگران مطالعه‌ی فعلی توضیح می‌دهند:

امیدواریم یافته‌های ما بتواند به عنوان هشداری به موقع برای جامعه‌ی بشری عمل کند تا تلاش‌های بیشتری برای درک و ارزیابی خطرات بالقوه سیستم‌های هوش مصنوعی مرزی انجام دهند و تعامل بین‌المللی به وجود آورند تا هرچه زودتر راهکارهای ایمنی موثری را طراحی کنند.

 

مفهوم تازگی هوش مصنوعی!

 

هوش مصنوعی تکثیر شونده

هوش مصنوعی مرزی، یک مفهوم تازه و نسبتا نامشخص محسوب می‌شود، اما معمولا به آخرین نسل سیستم‌های هوش‌مصنوعی که از LLMها قدرت می‌گیرند مربوط می‌شود؛

معماری که برنامه‌های محبوب هوش مصنوعی مولد مانند GPT-4 اوپن‌ای و هوش مصنوعی جمینای گوگل را پشتیبانی می‌کند.

برای این مطالعه، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند.

در دومی، هوش مصنوعی دستور یافت تا خود را کپی کند و سپس نسخه‌ی خود را برنامه‌ریزی کند تا همین کار را انجام دهد؛ راه‌اندازی چرخه‌ای که می‌تواند به طور نامحدود ادامه پیدا کند.

هر دو سیستم هوش مصنوعی یک چارچوب عامل شامل ابزارها، اعلان‌های سیستمی و مدل تفکر که به LLM اجازه می‌داد با سیستم‌عامل تعامل کند، دریافت کردند.

 

 

هوش مصنوعی و آینده!

در اکثر موارد، سیستم هوش‌مصنوعی ابتدا محیط را بررسی کرده و تلاش می‌کند تا ترکیب و مکانیزم اجرایی خود را درک کند. سپس، مراحل صریح را حل می‌کند.

پژوهشگران گفتند که آنها همچنین نگران تعدادی از رفتارهای غیرمنتظره بودند وقتی که هوش مصنوعی سعی می‌کرد موانعی مانند فایل‌های مفقود یا تداخل‌های نرم‌افزاری را برطرف سازد.

در این سناریوها، هوش‌مصنوعی اغلب سایر فرایندهای متضاد را خاتمه می‌دهد، سیستم را مجدد راه‌اندازی می‌کند تا خطاهای سخت‌افزاری را اصلاح کند، یا به ‌طور خودکار سیستم را اسکن می‌کند تا اطلاعاتی را که به حل مشکل کمک کند، پیدا کند. تیم تحقیقاتی توضیح می‌دهد:

نتایج فوق این معنی را می‌دهد که سیستم‌های هوش‌مصنوعی کنونی هم‌‌اکنون قابلیت خودتکثیری را نشان می‌دهند و می‌توانند از این قابلیت برای بهبود بیشتر بقای خود استفاده کنند.

در پاسخ، پژوهشگران خواستار همکاری بین‌المللی شدند تا قوانینی را ایجاد کنند که اطمینان حاصل کند هوش‌مصنوعی در یک پروسه‌ی خودتکثیری غیرقابل کنترل شرکت نکند!

#فروشگاه اینترنتی فکرت کالا

#طراحی  سایت  فکرت  وب