چگونه هوش مصنوعی ما را به خودمان باز می گرداند؟!
به نظر می رسد روبات ها می توانند نقشی موثر در بهتر با بدتر شدن روابط انسان ها ایفا کنند و حتی فراتر از آن روبات ها ظرفیت انسان برای دوست داشتن، عشق و دوستی را تغییر خواهند داد.
ترس در مورد اینکه چگونه ممکن است روبات ها زندگی ما را تبدیل به یک عنصر علمی تخیلی برای چندین دهه آینده کنند، از دهه 1940 وجود داشته است. درست همان زمانی که ایزاک آسیموف داستان نویس مشهور سه قانون رباتیک را قرار داد که هدف آنها حفظ روبات ها از آسیب رساندن به ما بود: “یک روبات ممکن است یک انسان را از آسیب ها حفظ کند، از عملی اشتباه نجات دهد یا برای یک انسان بجنگد. تصورات کلاسیک علمی تخیلی در مورد روبات ها بعدها در فیلم های جنگ ستارگان و اودیسه فضایی استنلی کوبریک نیز دیده شد. اما این تصورات بر اثرات اجتماعی و بالقوه قابل هوش مصنوعی متمرکز نبودند، درواقع توجهی به شیوه هایی که هوش مصنوعی می تواند روی نحوه ارتباط انسان با یکدیگر تاثیر بگذارد نداشتند.
به گزارش انتخاب،اگرچه بسیاری از افراد معتقدند که هوش مصنوعی می تواند برای ما مفید باشد اما برخی دیگر نیز معتقدند اضافه کردن هوش مصنوعی به جمع ما انسان ها می تواند بسیار مخرب باشد. به ویژه به این دلیل که روبات ها به دنبال ما هستند و مانند ما عمل می کنند و البته عمیقا به زندگی ما نفوذ می کنند. درست است که ممکن است این نفوذ با تغییراتی مثبت همراه باشد، اما همزمان می تواند مخرب و آسیب زا باشد.
جالب است بدانید که روبات ها در تعامل با انسان ها تاثیر پذیر هستند. برای مثال در جریان یک آزمایش روباتیک خط آهن روبات ها با الهام از انسان ها با اشتباهات خود می گفتند: “با عرض پوزش، بچه ها، من این دور را اشتباه گرفتم”، یا “من می دانم ممکن است دشوار باشد که اعلام کنم، اما روبات ها هم اشتباه می کنند.”
همانطور که مشخص است این نوع اظهارات روبات ها در گروه های مختلط انسان و روبات نشان از تلاش روبات برای بهبود ارتباطات در میان انسان ها است . آنها تبدیل به اعضایی آرام تر، اهل چالش تر و مشتاق تر برای حضور در گروه هستند. درواقع این نوع مطالعات نشان می دهد که آن چه به عنوان “سیستم های هیبریدی” نامیده می شود( جایی که افراد و روبات ها به طور اجتماعی در تعامل هستند) هوش مصنوعی می تواند به راحتی انسان ها را به یکدیگر متصل کند.
یافته های دیگر این تعامل و اشتیاق به حضور در جمع را تقویت می کند. به عنوان مثال، کوین مندر، دانشمند علوم سیاسی، انواع خاصی از روباتها را برای مداخلات سیاسی به کار گرفت اما پیش از این که روباتها را وارد گفتگو کند، آنها را با افرادی که نژادپرست بودند به چالش کشید و در نهایت مشخص شد که یک ربات به سادگی با عواملی که جرم شناخته شده بود تعامل یافته و حتی از نژادپرستان تقلید می کند.
اما اضافه کردن هوش مصنوعی به محیط اجتماعی ما می تواند ما را به رفتارهای غیرخلاقانه و غیراخلاقی تشویق کند. برای مثال در یک آزمایش که با هدف کشف اینکه چگونه هوش مصنوعی ممکن است بر «تراژدی های عادی» تأثیر بگذارد، نیز نتایجی قابل توجه حاصل شد. مفهوم این نوع تراژدی ها این است که چگونه اقدامات خود محورانه افراد می تواند به طور مشترک به منافع مشترک جمعی موثر باشد. برای مثال روباتها در برخی بازی های رقابتی با تقلید از انسان ها اقداماتی مثل تقلب را انجام می دهند. به این ترتیب روبات ها رفتارهایی مخرب را در کل جمع رواج می دهند.
بیایید مکث کنیم تا مفاهیم این یافته ها را مد نظر قرار دهیم. همکاری یک ویژگی کلیدی از گونه های انسانی است که برای زندگی اجتماعی ضروری است و اعتماد و سخاوت در جداسازی گروه های موفق از ناکامی ها بسیار مهم است. اما هنگامی که این رفتار خراب می شود، تنها مفهوم یک مزیت عمومی ناپدید می شود و همه اعضای گروه رنج می برد. بر این اساس این واقعیت که هوش مصنوعی در برخی موارد به طور قابل توجهی توانایی ما برای کار با یکدیگر را کاهش می دهد، بسیار مورد توجه است.
در حال حاضر ما با مثالهای دنیای واقعی روبرو هستیم که چگونه هوش مصنوعی می تواند روابط انسانی را در خارج از آزمایشگاه فاسد کند. مطالعه ای که 5.7 میلیون کاربر توییتر در جریان انتخابات ریاست جمهوری آمریکا در سال 2016 را بررسی کرد نشان داد که حسابهای مخرب روسیه، از جمله آنهایی که توسط روبات ها اداره می شوند، به طور مرتب با سایر حساب های غیرمجاز بازتوییت می شوند و به ویژه روی کاربران جمهوریخواه تأثیر می گذارند . با بهره گیری از ماهیت تعاونی انسان و علاقه ما به تعامل با یکدیگر، روبات ها حتی انسان ها را نیز تحت تاثیر قرار می دهد و در نهایت روی انتخابات تاثیر می گذارد.
برخی دیگر از اثرات اجتماعی هوش مصنوعی را می توان در زندگی روزانه به سادگی مشاهده کرد. برای والدین، تعامل فرزندان خود را با دستیارهای صوتی نظیر الکسا یا سیری، می بینند و نگرانی خود را مبنی بر اینکه این دستیارها چه تاثیری روی فرزندانشان دارد اعلام می کنند. از دیگر حوزه های نگرانی والدین می توان به اسباب بازی های روباتیک اشاره کرد.
همانطور که دستیارهای دیجیتالی همه جا حضور دارند، ما نیز در حال عادت به صحبت کردن با آنها هستیم به طور ی که دستیارهای صوتی را موجوداتی زنده می پنداریم. برخی از مراجعان به رواندرمانگران می گویند آنها در طول روز ساعت ها با دستیارهای صوتی مثل دستیار صوتی گوگل و آمازون صحبت می کنند و چیزهایی را به این دستیارهای صوتی می گویند که حتی به همسر و فرزندان خود نمی گویند.
همه اینها می تواند جامعه ی انسانی را به شیوه های ناخواسته تحت تاثیر بگذارد و این ما هستیم که باید تصمیم بگیریم که آیا ما می خواهیم ماشین ها ما را تحت تأثیر بگذارد یا خیر. با همه این ها انسان ها تمایلی بسیار برای آزاد کردن قدرت های پنهان هوش مصنوعی دارند. اغلب این تلاش ها نیز بدون در نظر گرفتن ظرفیت های پنهان و پیدای هوش مصنوعی انجام می شود.
در حال حاضر گروهی از محققان و دانشمندان علوم کامپیوتر، مهندسان، متخصصان زیست شناسی و دانشمندان علوم اجتماعی و …در حال همکاری با یکدیگر برای توسعه زمینه «رفتار ماشین» با امید افزایش درک ما از هوش مصنوعی هستند. آن ها در تلاشند ثابت کنندروبات ها صرفا ایده های روباتیک نیستند بلکه بازیگران جدیدی در جامعه هستند.
اصلا بعید به نظر نمی رسد که روبات ها به زودی به آموزش انسان بپردازند و در جنبه های مختلف جنبه های هوش مصنوعی که بیشتر به ما مربوط هستند، از خود ما قدرتمند تر باشند. توماس هابز؛ فیلسوف سرشناس معتقد بود که انسان ها باید یک توافق جمعی پیدا کنند تا از بدبختی و بی رحمی نجات یابند. اما به نظر می رسد او اشتباه می کرده و این روزها ما باید تمرین کنیم تا با روبات ها روابطی مسالمت آمیز تر داشته باشیم.
متأسفانه، انسانها زمان کافی را برای تکامل ظرفیت های ذاتی قابل مقایسه با زندگی روبات ها ندارند. بنابراین ما باید اقدامات لازم را انجام دهیم تا اطمینان حاصل کنیم آنها بتوانند با ما زندگی مسالمت آمیز اما غیرمستقیمی داشته باشند.