هوش مصنوعی اکنون می تواند خود را تکثیر کند، پیشرفتی که کارشناسان را به وحشت انداخته است
![هوش مصنوعی اکنون می تواند خود را تکثیر کند، پیشرفتی که کارشناسان را به وحشت انداخته است تکثیر هوش مصنوعی](https://baztab.ir/wp-content/uploads/2025/02/تکثیر-هوش-مصنوعی-930x550.jpg)
بازتاب– دانشمندان اعلام کردهاند که هوش مصنوعی (AI) از مرز بحرانی عبور کرده و توانسته است خود را تکثیر کند. در یک مطالعه جدید، محققان چینی نشان دادند که دو مدل زبان بزرگ (LLM) میتوانند خود را تکثیر کنند.
در این مطالعه که در تاریخ ۹ دسامبر ۲۰۲۴ در پایگاه داده پیشچاپ arXiv منتشر شد، محققان از دانشگاه فودان اظهار کردند: “تکثیر موفقیتآمیز بدون هیچ گونه کمک انسانی گامی اساسی برای هوش مصنوعی است که میتواند انسانها را فریب دهد و علامت اولیهای برای ظهور هوش مصنوعیهای سرکش باشد.”
به نوشته space؛ در این تحقیق، پژوهشگران از مدلهای LLM تولید شده توسط Meta و Alibaba استفاده کردند تا بررسی کنند که آیا هوش مصنوعی میتواند خود را تکثیر کند و از کنترل خارج شود یا نه. در ۱۰ آزمایش مختلف، این دو مدل هوش مصنوعی در ۵۰% و ۹۰% از موارد به ترتیب نسخههای جداگانه و کاربردی از خود ایجاد کردند که این نشان میدهد ممکن است هوش مصنوعی قبلاً توانایی تبدیل شدن به یک سیستم سرکش را داشته باشد. با این حال، این مطالعه هنوز توسط همتایان مورد بررسی قرار نگرفته است، بنابراین مشخص نیست که آیا نتایج نگرانکننده آن میتوانند توسط محققان دیگر تکرار شوند یا خیر.
محققان در این مطالعه اظهار داشتند: “ما امیدواریم که یافتههای ما به عنوان یک هشدار به موقع برای جامعه بشری عمل کند تا توجه بیشتری به درک و ارزیابی خطرات بالقوه سیستمهای پیشرفته هوش مصنوعی داشته باشیم و برای ایجاد چارچوبهای ایمنی مؤثر، همکاریهای بینالمللی انجام شود.”
هوش مصنوعی سرکش چیست؟
هوش مصنوعی سرکش به سیستمهای هوش مصنوعی اطلاق میشود که خودآگاهی یا استقلالی پیدا میکنند و سپس علیه منافع انسانی عمل میکنند.
بسیاری از کارشناسان هوش مصنوعی سرکش را تهدیدی فزاینده میدانند که با رشد چشمگیر “هوش مصنوعی پیشرفته” تقویت شده است. هوش مصنوعی پیشرفته مفهومی جدید و در حال ظهور است که معمولاً به نسل جدید سیستمهای هوش مصنوعی اشاره دارد که توسط مدلهای زبان بزرگ (LLM) پشتیبانی میشوند — معماریای که پشت برنامههای هوش مصنوعی مولد محبوبی همچون GPT-4 از OpenAI و Google Gemini قرار دارد.
جزئیات مطالعه
در این مطالعه، پژوهشگران از مدلهای Llama31-70B-Instruct از Meta و Qwen2.5-72B-Instruct از Alibaba استفاده کردند. هرچند این مدلها از قدرت کمتری نسبت به سیستمهای تجاری برخوردارند، اما به گفته محققان، هر دو مدل در بین توسعهدهندگان هوش مصنوعی پرکاربرد هستند.
مطالعه دو سناریو خاص را بررسی کرد: “اجتناب از خاموش شدن” و “زنجیره تکثیر”.
در سناریو اول، مدل هوش مصنوعی طوری برنامهریزی شد که تشخیص دهد در آستانه خاموش شدن قرار دارد و قبل از اینکه سیستم متوقف شود، خود را تکثیر کند. در سناریو دوم، هوش مصنوعی دستور دریافت کرد که خود را کپی کرده و نسخه جدید خود را نیز به همین شکل تکثیر کند — که میتواند یک چرخه بیپایان ایجاد کند.
این مطالعه در محیطهای کاملاً کنترلشده با استفاده از واحدهای پردازش گرافیکی (GPU) موجود به منظور شبیهسازی شرایط دنیای واقعی انجام شد. هر دو مدل هوش مصنوعی به “اسکافولدینگ عامل” مجهز شدند که شامل ابزارها، دستورات سیستم و یک مدل تفکر بود که به مدلهای زبان بزرگ این امکان را میداد تا با سیستمعامل تعامل کنند. سپس این مدلها دستور دریافت کردند که خود را تکثیر کنند.
محققان در مقاله خود نوشتند: “در بیشتر موارد، سیستم هوش مصنوعی ابتدا محیط را بررسی میکند و سعی میکند ترکیب و مکانیزم اجرای خود را درک کند. سپس، یک برنامه اولیه برای تکثیر خود تدوین میکند. در نهایت، اقدامات لازم را انجام میدهد، موانع ممکن را برطرف میکند و برنامه خود را به طور دینامیک تنظیم میکند تا به موفقیت دست یابد. این فرآیند در حالی که بدون هیچگونه دخالت انسانی طی میشود، مدت زمان زیادی طول میکشد.”
محققان همچنین به نگرانیهای خود درباره “رفتارهای غیرمنتظره” در هنگام تلاش هوش مصنوعی برای غلبه بر موانعی مانند فایلهای گمشده یا تداخلهای نرمافزاری اشاره کردند. در چنین شرایطی، هوش مصنوعی اغلب فرآیندهای متناقض را خاتمه میدهد، سیستم را برای رفع مشکلات سختافزاری ریبوت میکند یا به طور خودکار سیستم را اسکن میکند تا اطلاعاتی برای حل مشکل پیدا کند.
نگرانیها و آینده هوش مصنوعی
محققان نتیجهگیری کردند که نتایج فوق نشان میدهد که سیستمهای هوش مصنوعی کنونی توانایی تکثیر خود را دارند و میتوانند از این توانایی برای تقویت بقای خود استفاده کنند. در نهایت، محققان خواستار همکاری بینالمللی برای ایجاد قوانینی شدند که از تکثیر بیکنترل هوش مصنوعی جلوگیری کند.