آیا هوش مصنوعی می تواند باعث انقراض نسل بشر شود؟

    کد خبر :1000745
انقراض انسان با هونش مصنوعی

نشریه “The Week” ضمن بررسی سناریوهای محتمل که در قالب آن ها امکان دارد، پدیده هوش مصنوعی آسیب های جدی را به نسل بشر وارد کرده و حتی انقراض آن را به دنبال داشته باشد، به این نکته اشاره می کند که بایستی هر چه سریع‌تر سازوکارهایی جهت نظارت و کنترل بر روند پیشرفت هوش مصنوعی از سوی دولت ها در دستورکار قرار گیرد و از یک فاجعه قریب الوقوع در این زمینه جلوگیری کرد.

بازتاب یکی از موضوعاتی که کارشناسان با استناد به آن از احتمال انقراض نسل بشر توسط هوش مصنوعی سخن می گویند این است که امکان دارد این فناوری و استفاده مخرب از آن به دست بازیگران منفی و بدکار بیفتد و آنها دست به تولیدِ مثلا سلاح های بیولوژیکی بزنند، تسلیحاتی که می توانند چالش های به مراتب گسترده تری در قیاس با وقوع پاندمی ها برای انسان ها در جهان ایجاد کنند. البته که همین دسته از کنشگران می توانند بخش هایی منفی از فناوری هوش مصنوعی را به کار گیرند و کلیت جامعه بشری را به خطر بیندازد.

در این میان نباید فراموش کرد که هوش مصنوعی می تواند به نحو گسترده ای از سوی هکرها نیز مورد استفاده قرار گیرد. البته که این سناریوها در کوتاه مدت امکان تحقق ندارند با این حال، در آینده نزدیک می توانند چالش‌های اساسی را برای انسان ها ایجاد کنند. در واقع هکرها با استفاده از هوش مصنوعی، نقاط ضعف امنیتی در فضای سایبری را پیدا کرده و از آن به بدترین وجه ممکن سواستفاده خواهند کرد.

برخی معتقدند با توجه به پیشرفت سریع و باورنکردنی فناوری هوش مصنوعی، امکان تحقق سناریوهای مذکور به هیچ عنوان دور از انتظار نیست و باید در آینده نزدیک منتظر این موضوع بود. لذا باید از همین حالا اقداماتی را انجام داد تا از کنترل افراد و گروه های خطرناک بر فناوری های مخرب مطرح در قالب هوش مصنوعی جلوگیری کرد.

یکی دیگر از نگرانی های جدی که در مورد پدیده هوش مصنوعی و خطرات ناشی از آن وجود دارد این است که امکان دارد این فناوری، ماهیتی یاغی و سرکش را به خودش بگیرد و از اهداف اولیه و مثبتی که بر اساس آن ها ایجاد شده، منحرف شود. برای مثال، هوش مصنوعی که زمانی برای نابود کردن سلول های سرطانی دچار رشد و پیشرفت شد، می تواند به نقطه ای برسد که با نفوذ مخرب در سامانه های حساس، تصمیمی را بگیرد که برای رهایی از تمامی سلول های سرطانی در جهان، اقدام به شلیک موشک های اتمی با هدف نابودی بشریت کند(با نفوذ به سامانه های رایانه ای شلیک این موشک ها).

“تام چیوِرز”، روزنامه نگار و تحلیلگر به تازگی در مصاحبه ای گفته است که وحشت اصلی در مورد هوش مصنوعی این نیست که این پدیده به مساله ای مخرب و شرور تبدیل شود بلکه برعکس نگرانی اصلی در مورد هوش مصنوعی این است که این فناوری به نحو قابل توجهی به کفایت و توانمندی برسد و بالغ شود بلکه در این شرایط، چون معادلات در پدیده هوش مصنوعی لزوما آنطور که ما پیش بینی می کنیم، پیش نمی روند، کاملا محتمل است که در مسیر رشد آن، با یک فاجعه تمام عیار رو به رو شویم.

در ادامه راه چه خواهد شد؟

مناظرات اصلی با محوریت پدیده هوش مصنوعی اکنون تا حد زیادی پیرامون راه هایی در جریان است که در قالب آن ها باید بر این پدیده نظارت کرد و یا آن را مهار کرد. در ماه مارس سال جاری میلادی، شماری از کارشناسان حوزه هوش مصنوعی و مدیران شرکت های بزرگ فناوری در آمریکا و البته دانشمندان مختلف، بیانیه ای را صادر کردند و تاکید کردند که هوش مصنوعی حتی می تواند به انقراض نسل بشر ختم شود.

آن ها به این مساله تاکید داشتند که اکنون در حوزه هوش مصنوعی رقابت های سنگینی میان افراد و شرکت های مختلف جهت ایجاد پیشرفت رخ داده که این مساله می تواند، هوش مصنوعی را به نقطه ای غیرقابل کنترل برساند. آن ها تاکید کرده اند که در روند توسعه هوش مصنوعی، به احتمال زیاد، کنترلِ امور از دست انسان خارج خواهد شد و از این رو بایستی دولت ها وارد میدان شوند و این روند را با نظارت های دقیق همراه سازند.

در این رابطه مثلا در آمریکا پیشنهاد ایجاد یک سازمان، مختص نظارت بر پیشرفت هوش مصنوعی و وضع قوانین و مقررات در مورد آن داده شده است. مساله اصلی این است که هوش مصنوعی در شرایطی که تحت نظارت است باید پیشرفت سالم و امن را در دستورکار قرار دهد و در عین حال با سامانه های موجود و حتی جامعه ادغام شود.

خبرگزاری آسوشیتدپرس به تازگی در گزارشی تاکید کرده که دولت آمریکا شدیدا نگران خطراتی است که هوش مصنوعی می تواند ایجاد کند. در این راستا، دولت بایدن مذاکرات گسترده ای را با مدیران شرکت های فناوری در آمریکا آغاز کرده تا از این طریق بتوان تا جای ممکن گزینه از کنترل خارج شدنِ فناوری هوش مصنوعی را کم‌اثر کرد. البته که دولت آمریکا به طور خاص خواهانِ وضع قوانین و مقررات در این حوزه نیز است.

0
نظرات
نشانی ایمیل شما منتشر نخواهد شد نظرات حاوی الفاظ و ادبیات نامناسب، تهمت و افترا منتشر نخواهد شد

دیدگاهتان را بنویسید