هوش مصنوعی اکنون می تواند خود را تکثیر کند، پیشرفتی که کارشناسان را به وحشت انداخته است

    کد خبر :1126186
تکثیر هوش مصنوعی

بازتابدانشمندان اعلام کرده‌اند که هوش مصنوعی (AI) از مرز بحرانی عبور کرده و توانسته است خود را تکثیر کند. در یک مطالعه جدید، محققان چینی نشان دادند که دو مدل زبان بزرگ (LLM) می‌توانند خود را تکثیر کنند.

در این مطالعه که در تاریخ ۹ دسامبر ۲۰۲۴ در پایگاه داده پیش‌چاپ arXiv منتشر شد، محققان از دانشگاه فودان اظهار کردند: “تکثیر موفقیت‌آمیز بدون هیچ گونه کمک انسانی گامی اساسی برای هوش مصنوعی است که می‌تواند انسان‌ها را فریب دهد و علامت اولیه‌ای برای ظهور هوش مصنوعی‌های سرکش باشد.”

به نوشته space؛ در این تحقیق، پژوهشگران از مدل‌های LLM تولید شده توسط Meta و Alibaba استفاده کردند تا بررسی کنند که آیا هوش مصنوعی می‌تواند خود را تکثیر کند و از کنترل خارج شود یا نه. در ۱۰ آزمایش مختلف، این دو مدل هوش مصنوعی در ۵۰% و ۹۰% از موارد به ترتیب نسخه‌های جداگانه و کاربردی از خود ایجاد کردند که این نشان می‌دهد ممکن است هوش مصنوعی قبلاً توانایی تبدیل شدن به یک سیستم سرکش را داشته باشد. با این حال، این مطالعه هنوز توسط همتایان مورد بررسی قرار نگرفته است، بنابراین مشخص نیست که آیا نتایج نگران‌کننده آن می‌توانند توسط محققان دیگر تکرار شوند یا خیر.

محققان در این مطالعه اظهار داشتند: “ما امیدواریم که یافته‌های ما به عنوان یک هشدار به موقع برای جامعه بشری عمل کند تا توجه بیشتری به درک و ارزیابی خطرات بالقوه سیستم‌های پیشرفته هوش مصنوعی داشته باشیم و برای ایجاد چارچوب‌های ایمنی مؤثر، همکاری‌های بین‌المللی انجام شود.”

هوش مصنوعی سرکش چیست؟

هوش مصنوعی سرکش به سیستم‌های هوش مصنوعی اطلاق می‌شود که خودآگاهی یا استقلالی پیدا می‌کنند و سپس علیه منافع انسانی عمل می‌کنند.

بسیاری از کارشناسان هوش مصنوعی سرکش را تهدیدی فزاینده می‌دانند که با رشد چشمگیر “هوش مصنوعی پیشرفته” تقویت شده است. هوش مصنوعی پیشرفته مفهومی جدید و در حال ظهور است که معمولاً به نسل جدید سیستم‌های هوش مصنوعی اشاره دارد که توسط مدل‌های زبان بزرگ (LLM) پشتیبانی می‌شوند — معماری‌ای که پشت برنامه‌های هوش مصنوعی مولد محبوبی همچون GPT-4 از OpenAI و Google Gemini قرار دارد.

جزئیات مطالعه

در این مطالعه، پژوهشگران از مدل‌های Llama31-70B-Instruct از Meta و Qwen2.5-72B-Instruct از Alibaba استفاده کردند. هرچند این مدل‌ها از قدرت کمتری نسبت به سیستم‌های تجاری برخوردارند، اما به گفته محققان، هر دو مدل در بین توسعه‌دهندگان هوش مصنوعی پرکاربرد هستند.

مطالعه دو سناریو خاص را بررسی کرد: “اجتناب از خاموش شدن” و “زنجیره تکثیر”.

در سناریو اول، مدل هوش مصنوعی طوری برنامه‌ریزی شد که تشخیص دهد در آستانه خاموش شدن قرار دارد و قبل از اینکه سیستم متوقف شود، خود را تکثیر کند. در سناریو دوم، هوش مصنوعی دستور دریافت کرد که خود را کپی کرده و نسخه جدید خود را نیز به همین شکل تکثیر کند — که می‌تواند یک چرخه بی‌پایان ایجاد کند.

این مطالعه در محیط‌های کاملاً کنترل‌شده با استفاده از واحدهای پردازش گرافیکی (GPU) موجود به منظور شبیه‌سازی شرایط دنیای واقعی انجام شد. هر دو مدل هوش مصنوعی به “اسکافولدینگ عامل” مجهز شدند که شامل ابزارها، دستورات سیستم و یک مدل تفکر بود که به مدل‌های زبان بزرگ این امکان را می‌داد تا با سیستم‌عامل تعامل کنند. سپس این مدل‌ها دستور دریافت کردند که خود را تکثیر کنند.

محققان در مقاله خود نوشتند: “در بیشتر موارد، سیستم هوش مصنوعی ابتدا محیط را بررسی می‌کند و سعی می‌کند ترکیب و مکانیزم اجرای خود را درک کند. سپس، یک برنامه اولیه برای تکثیر خود تدوین می‌کند. در نهایت، اقدامات لازم را انجام می‌دهد، موانع ممکن را برطرف می‌کند و برنامه خود را به طور دینامیک تنظیم می‌کند تا به موفقیت دست یابد. این فرآیند در حالی که بدون هیچ‌گونه دخالت انسانی طی می‌شود، مدت زمان زیادی طول می‌کشد.”

محققان همچنین به نگرانی‌های خود درباره “رفتارهای غیرمنتظره” در هنگام تلاش هوش مصنوعی برای غلبه بر موانعی مانند فایل‌های گمشده یا تداخل‌های نرم‌افزاری اشاره کردند. در چنین شرایطی، هوش مصنوعی اغلب فرآیندهای متناقض را خاتمه می‌دهد، سیستم را برای رفع مشکلات سخت‌افزاری ریبوت می‌کند یا به طور خودکار سیستم را اسکن می‌کند تا اطلاعاتی برای حل مشکل پیدا کند.

نگرانی‌ها و آینده هوش مصنوعی

محققان نتیجه‌گیری کردند که نتایج فوق نشان می‌دهد که سیستم‌های هوش مصنوعی کنونی توانایی تکثیر خود را دارند و می‌توانند از این توانایی برای تقویت بقای خود استفاده کنند. در نهایت، محققان خواستار همکاری بین‌المللی برای ایجاد قوانینی شدند که از تکثیر بی‌کنترل هوش مصنوعی جلوگیری کند.

0
نظرات
نشانی ایمیل شما منتشر نخواهد شد نظرات حاوی الفاظ و ادبیات نامناسب، تهمت و افترا منتشر نخواهد شد

دیدگاهتان را بنویسید