هشدار ایلان ماسک و سایر بزرگان فناوری درمورد کاربردهای نظامی هوش مصنوعی
پایهگذاران تسلا، اسکایپ و دیپمایند بههمراه صدها فرد سرشناس دیگر در نامهای سرگشاده درمورد کاربردهای نظامی هوش مصنوعی هشدار دادند.
در نامهای که توسط موسسهی Future of Life Institute منتشر شده است، ۲۴۰۰ پژوهشگر و بیش از ۱۰۰ سازمان فناوری از سراسر جهان خواستار ممنوعیت جهانی سلاحهای خودکار یا خودران (اشاره به تانکها و هواپیماها و سایر تجهیزات بدون سرنشین) مرگبار شدهاند. آنها متعهد شدهاند که هیچگاه چنین سلاحها و تجهیزاتی را تولید نکنند. در این نامه میخوانیم:
ما، امضاکنندگان این درخواست، از رهبران دولتها و سیاستمداران میخواهیم برای ایجاد آیندهای با استانداردهای بینالمللی، مقررات و قوانین روشن علیه سلاحهای خودکار تلاش کنند. چنین سازوکارهایی در حال حاضر وجود ندارند. ما تصمیم داریم خود را به یک استاندارد جامع برسانیم: ما در تولید، تجارت یا در استفاده از سلاحهای خودکار مرگبار، نه مشارکت میکنیم و نه از روندهای مربوط به آن پشتیبانی خواهیم کرد. ما از شرکتها و سازمانهای فناوری و همچنین رهبران، سیاستگذاران و دیگر افراد میخواهیم که در این تعهد شرکت کنند.
امضا کنندگان نامهی فوق، شامل افرادی همچون ایلان ماسک، سه بنیانگذار دیپمایند بهنامهای شین لگ، مصطفی سلیمان و دمیس هسابیس، معاون اسکایپ جائه تالین و برخی از پژوهشگران پیشرو در عرصهی هوش مصنوعی در جهان مانند استوارت راسل، یوشو بنگیو و یورگن شیمیدوبر هستند. دیپمایند گوگل، بنیاد XPRIZE و Clearpath Robotics نیز برخی از شرکتهای فناوری بودند که نامشان در لیست امضاکنندگان بیانیهی فوق آمده است.
این وبسایت همچنین اشاره کرده است که که ۲۶ کشور عضو سازمان ملل متحد نیز، ممنوعیت سلاحهای کشنده خودکار را مورد تایید قرار دادهاند. این کشورها عبارتند از: الجزایر، آرژانتین، اتریش، بولیوی، برزیل، شیلی، چین، کلمبیا، کاستاریکا، کوبا، جیبوتی، اکوادور، مصر، غنا ، گواتمالا، سریر مقدس، عراق، مکزیک، نیکاراگوئه، پاکستان، پاناما، پرو، فلسطین، اوگاندا، ونزوئلا و زیمبابوه.
این نامه در کنفرانس مشترک بینالمللی هوش مصنوعی IJCAI 2018 که توسط مؤسسهی Future of Life برگزار شده بود، منتشر شد. اگر چه این موسسه پیش از این هم به تهیه و امضا شدن نامههای اینچنینی کمک کرده است؛ اما این اولین باری است که افراد متعهد در بیانیه، بهطور جداگانه اعلام کردهاند که برای توسعه و ساخت سلاحهای خودکار مرگبار اقدام نخواهند کرد.
این حرکت در زمانی رخ میدهد که شرکتهای پیشرو در زمینهی فناوری هوش مصنوعی، در معرض یک معضل داخلی پیرامون توسعهی هوش مصنوعی و گسترش آن برای استفادهی نظامی هستند.
در ماه مه سال جاری میلادی، ۱۲ کارمند گوگل، این شرکت را بهدلیل مشارکت در پروژهی Maven ارتش آمریکا ترک کردند. گفتنی است که پروژهی Maven به برنامهی هواپیماهای مبتنی بر هوش مصنوعی پنتاگون اطلاق میشود. تقریبا ۴ هزار کارمند دیگر گوگل نیز در آن مقطع درخواستنامهای را امضا کرده و از کمپانی گوگل خواستند که همکاری با این پروژه را متوقف سازد.
نامهی فعلی منتشرشده در استکهلم، اولین نامهای نیست که در زمینهی استفادهی تسلیحاتی از هوش مصنوعی و پیامدهای ناگوار آن منتشر شده باشد. در ماه سپتامبر سال گذشتهی میلادی، بیش از ۱۰۰ مدیر عامل شرکتهای هوش مصنوعی و رباتیک در سراسر جهان، یک نامهی سرگشاده خطاب به سازمان ملل متحد تنظیم کردند. آنها در نامهی خود هشدار داده بودند که از فناوری موجود در زمینهی کاریشان، میتوان برای ساخت رباتهای قاتل هم استفاده کرد و باید برای این مسئله، چارهای اندیشیده شود.
با وجود هشدارهای فراوان اینچنینی، هنوز روند روبهرشد عملیاتهای نظامی با استفاده از سلاحهای خودکار (و خودران) وجود دارد. در ماه ژانویهی سال ۲۰۱۸ میلادی، واشنگتن پست گزارش داد که حدود ۱۳ فروند هواپیماهای بدون سرنشین مسلح از یک مکان ناشناخته به پرواز درآمده و به ستاد عملیات نظامی روسیه در سوریه حمله کردند.
هند همچنین علاقهی خود را به توسعهی یک برنامهی نظامی متمرکز بر هوش مصنوعی در طی DefExpo 2018 در ماه آوریل نشان داد. بهگزارش نشریهی Times of India، آجی کومار، وزیر تولیدات دفاعی این کشور، اظهار کرده که دولت هندوستان آژانسی برای پیگیری این طرحها تاسیس کرده و نقشهی راهی را برای ساخت سلاحهای مبتنی بر هوش مصنوعی تدارک دیدهاند.
حتی اگر برخی شرکتها هم خواستار ممنوعیت استفاده از هوش مصنوعی برای کاربردهای تسلیحاتی باشند، هوش مصنوعی باز هم به پیشرفتهای خود در همهی ابعاد ادامه میدهد. این را هم میدانیم که تحت هر شرایطی همیشه چند سیب گندیده میتواند در یک جعبهی سیب سالم وجود داشته باشد. با استناد به همین گفتهی مشهور، میتوانیم مطمئن باشیم که افرادی هم وجود خواهند داشت که با استفاده از هوش مصنوعی به گسترش جنگافزارها کمک کنند. این وضعیت تا حدودی با جو موجود پیرامون سلاحهای شیمیایی متفاوت است.
با در نظر گرفتن همهی مواردی که اشاره کردیم، ممنوعیت ساخت و کاربرد سلاحهای پیشرفته در مراحل اولیهی توسعه و در زمانی که تنها چند کشور قادر به ساخت آنها هستند، آسانتر مینماید. امیدواریم که ابتکاراتی مانند نامهی اخیر، به دولتها و سازمانهای جهانی کمک کند تا به مسائل مربوط به سلاحهای کشتار جمعی بهطور جدیتر و بهتری بپردازند. زیرا نیاز به نظارت و قانونگذاریهای جدید در سراسر جهان روزبهروز بیشتر میشود.