جدیدترین اخبار
۵ فروردین ۱۳۹۸ ساعت ۱۲:۴۸ دانش و فناوری کد خبر :512083

چگونه هوش مصنوعی ما را به خودمان باز می گرداند؟!

هوش مصنوعی

به نظر می رسد روبات ها می توانند نقشی موثر در بهتر با بدتر شدن روابط انسان ها ایفا کنند و حتی فراتر از آن روبات ها ظرفیت انسان برای دوست داشتن، عشق و دوستی را تغییر خواهند داد.

ترس در مورد اینکه چگونه ممکن است روبات ها زندگی ما را تبدیل به یک عنصر علمی تخیلی برای چندین دهه آینده کنند، از دهه ۱۹۴۰ وجود داشته است. درست همان زمانی که ایزاک آسیموف داستان نویس مشهور سه قانون رباتیک را قرار داد که هدف آنها حفظ روبات ها از آسیب رساندن به ما بود: “یک روبات ممکن است یک انسان را از آسیب ها حفظ کند، از عملی اشتباه نجات دهد یا برای یک انسان بجنگد. تصورات کلاسیک علمی تخیلی در مورد روبات ها بعدها در فیلم های جنگ ستارگان و اودیسه فضایی استنلی کوبریک نیز دیده شد. اما این تصورات بر اثرات اجتماعی و بالقوه قابل هوش مصنوعی متمرکز نبودند، درواقع توجهی به شیوه هایی که هوش مصنوعی می تواند روی نحوه ارتباط انسان با یکدیگر تاثیر بگذارد نداشتند.

به گزارش انتخاب،اگرچه بسیاری از افراد معتقدند که هوش مصنوعی می تواند برای ما مفید باشد اما برخی دیگر نیز معتقدند اضافه کردن هوش مصنوعی به جمع ما انسان ها می تواند بسیار مخرب باشد. به ویژه به این دلیل که روبات ها به دنبال ما هستند و مانند ما عمل می کنند و البته عمیقا به زندگی ما نفوذ می کنند. درست است که ممکن است این نفوذ با تغییراتی مثبت همراه باشد، اما همزمان می تواند مخرب و آسیب زا باشد.

جالب است بدانید که روبات ها در تعامل با انسان ها تاثیر پذیر هستند. برای مثال در جریان یک آزمایش روباتیک خط آهن روبات ها با الهام از انسان ها با اشتباهات خود می گفتند: “با عرض پوزش، بچه ها، من این دور را اشتباه گرفتم”، یا “من می دانم ممکن است دشوار باشد که اعلام کنم، اما روبات ها هم اشتباه می کنند.”

همانطور که مشخص است این نوع اظهارات روبات ها در گروه های مختلط انسان و روبات نشان از تلاش روبات برای بهبود ارتباطات در میان انسان ها است . آنها تبدیل به اعضایی آرام تر، اهل چالش تر و مشتاق تر برای حضور در گروه هستند. درواقع این نوع مطالعات نشان می دهد که آن چه به عنوان “سیستم های هیبریدی” نامیده می شود( جایی که افراد و روبات ها به طور اجتماعی در تعامل هستند) هوش مصنوعی می تواند به راحتی انسان ها را به یکدیگر متصل کند.

یافته های دیگر این تعامل و اشتیاق به حضور در جمع را تقویت می کند. به عنوان مثال، کوین مندر، دانشمند علوم سیاسی، انواع خاصی از روباتها را برای مداخلات سیاسی به کار گرفت اما پیش از این که روباتها را وارد گفتگو کند، آنها را با افرادی که نژادپرست بودند به چالش کشید و در نهایت مشخص شد که یک ربات به سادگی با عواملی که جرم شناخته شده بود تعامل یافته و حتی از نژادپرستان تقلید می کند.

اما اضافه کردن هوش مصنوعی به محیط اجتماعی ما می تواند ما را به رفتارهای غیرخلاقانه و غیراخلاقی تشویق کند. برای مثال در یک آزمایش که با هدف کشف اینکه چگونه هوش مصنوعی ممکن است بر «تراژدی های عادی» تأثیر بگذارد، نیز نتایجی قابل توجه حاصل شد. مفهوم این نوع تراژدی ها این است که چگونه اقدامات خود محورانه افراد می تواند به طور مشترک به منافع مشترک جمعی موثر باشد. برای مثال روباتها در برخی بازی های رقابتی با تقلید از انسان ها اقداماتی مثل تقلب را انجام می دهند. به این ترتیب روبات ها رفتارهایی مخرب را در کل جمع رواج می دهند.

بیایید مکث کنیم تا مفاهیم این یافته ها را مد نظر قرار دهیم. همکاری یک ویژگی کلیدی از گونه های انسانی است که برای زندگی اجتماعی ضروری است و اعتماد و سخاوت در جداسازی گروه های موفق از ناکامی ها بسیار مهم است. اما هنگامی که این رفتار خراب می شود، تنها مفهوم یک مزیت عمومی ناپدید می شود و همه اعضای گروه رنج می برد. بر این اساس این واقعیت که هوش مصنوعی در برخی موارد به طور قابل توجهی توانایی ما برای کار با یکدیگر را کاهش می دهد، بسیار مورد توجه است.

در حال حاضر ما با مثالهای دنیای واقعی روبرو هستیم که چگونه هوش مصنوعی می تواند روابط انسانی را در خارج از آزمایشگاه فاسد کند. مطالعه ای که ۵٫۷ میلیون کاربر توییتر در جریان انتخابات ریاست جمهوری آمریکا در سال ۲۰۱۶ را بررسی کرد نشان داد که حسابهای مخرب روسیه، از جمله آنهایی که توسط روبات ها اداره می شوند، به طور مرتب با سایر حساب های غیرمجاز بازتوییت می شوند و به ویژه روی کاربران جمهوریخواه تأثیر می گذارند . با بهره گیری از ماهیت تعاونی انسان و علاقه ما به تعامل با یکدیگر، روبات ها حتی انسان ها را نیز تحت تاثیر قرار می دهد و در نهایت روی انتخابات تاثیر می گذارد.

برخی دیگر از اثرات اجتماعی هوش مصنوعی را می توان در زندگی روزانه به سادگی مشاهده کرد. برای والدین، تعامل فرزندان خود را با دستیارهای صوتی نظیر الکسا یا سیری، می بینند و نگرانی خود را مبنی بر اینکه این دستیارها چه تاثیری روی فرزندانشان دارد اعلام می کنند. از دیگر حوزه های نگرانی والدین می توان به اسباب بازی های روباتیک اشاره کرد.

همانطور که دستیارهای دیجیتالی همه جا حضور دارند، ما نیز در حال عادت به صحبت کردن با آنها هستیم به طور ی که دستیارهای صوتی را موجوداتی زنده می پنداریم. برخی از مراجعان به رواندرمانگران می گویند آنها در طول روز ساعت ها با دستیارهای صوتی مثل دستیار صوتی گوگل و آمازون صحبت می کنند و چیزهایی را به این دستیارهای صوتی می گویند که حتی به همسر و فرزندان خود نمی گویند.

همه اینها می تواند جامعه ی انسانی را به شیوه های ناخواسته تحت تاثیر بگذارد و این ما هستیم که باید تصمیم بگیریم که آیا ما می خواهیم ماشین ها ما را تحت تأثیر بگذارد یا خیر. با همه این ها انسان ها تمایلی بسیار برای آزاد کردن قدرت های پنهان هوش مصنوعی دارند. اغلب این تلاش ها نیز بدون در نظر گرفتن ظرفیت های پنهان و پیدای هوش مصنوعی انجام می شود.

در حال حاضر گروهی از محققان و دانشمندان علوم کامپیوتر، مهندسان، متخصصان زیست شناسی و دانشمندان علوم اجتماعی و …در حال همکاری با یکدیگر برای توسعه زمینه «رفتار ماشین» با امید افزایش درک ما از هوش مصنوعی هستند. آن ها در تلاشند ثابت کنندروبات ها صرفا ایده های روباتیک نیستند بلکه بازیگران جدیدی در جامعه هستند.

اصلا بعید به نظر نمی رسد که روبات ها به زودی به آموزش انسان بپردازند و در جنبه های مختلف جنبه های هوش مصنوعی که بیشتر به ما مربوط هستند، از خود ما قدرتمند تر باشند. توماس هابز؛ فیلسوف سرشناس معتقد بود که انسان ها باید یک توافق جمعی پیدا کنند تا از بدبختی و بی رحمی نجات یابند. اما به نظر می رسد او اشتباه می کرده و این روزها ما باید تمرین کنیم تا با روبات ها روابطی مسالمت آمیز تر داشته باشیم.

متأسفانه، انسانها زمان کافی را برای تکامل ظرفیت های ذاتی قابل مقایسه با زندگی روبات ها ندارند. بنابراین ما باید اقدامات لازم را انجام دهیم تا اطمینان حاصل کنیم آنها بتوانند با ما زندگی مسالمت آمیز اما غیرمستقیمی داشته باشند.

روی خط خبر

  • «قصر شیرین» توقیفی مجوز نمایش گرفت!
  • سند محرمانه امارات، اختلاف سلمان و بن‌سلمان را تأیید کرد؛ برخی اختیارات ولی‌عهد سلب شد
  • «کیم جونگ اون» به مسکو می‌رود
  • هشدار درباره قحطی؛ عدم کنترل ملخ‌های صحرایی، امنیت غذایی ایران را تهدید می‌کند
  • بطحائی: بدنبال رفع مشکلات معیشتی فرهنگیانم
  • محسن تنابنده، فیلمنامه خشایار الوند را کامل می‌کند
  • شهرداری تهران در اربعین امسال پرشورتر از گذشته خدمت می‌کند
  • مدارس در روز شنبه ۳۱ فروردین دایر است
  • بهره برداری از چند فاز پروژه بزرگراه نجفی رستگار تا پایان سال
  • راهبردهای بازسازی وتعمیر منازل مددجویان آسیب‌دیده از سیل اعلام شد
  • تربیت صرفاً وظیفه آموزش‌وپرورش نیست
  • افزایش تعداد دانش آموزان، ازعوامل کمبود نیروی انسانی در ۳ سال آینده
  • نیکلاس کیج در قبرس جلوی دوربین می‌رود/ تلاش برای حفظ زمین
  • مریض بدحال هواپیمای روسی را در مهرآباد به زمین نشاند
  • برنامه اکران فیلم‌های کلاسیک مرمت شده در جشنواره جهانی فیلم فجر
  • کره شمالی «پمپئو» را پس زد
  • میزبانی برج آزادی از جشنواره «تئاتر کلاسی خلاق»
  • هند: مادر بمب‌ها پیش من است!
  • افت سهام آسیایی از بالاترین سطح ۹ ماهه
  • اعتراض به نامگذاری معابر تهران به اسم هنرمندان
  • به کارگیری ۸ هزار سرباز جوان در حوادث سیل های اخیر
  • ۴ زخمی در پی برخورد رعد و برق به “آکروپولیس” آتن
  • ورود دومین کشتی لاینر کانتینری به بزرگترین بندر اقیانوسی کشور
  • کشف ۲۶ کیلو حشیش در پایانه غرب پایتخت
  • ارتقای امنیت پایتخت و ایجاد فضایی مناسب برای رونق اقتصادی
  • پایتخت خنک‌تر می‌شود
  • جزییات نحوه انتخاب سربازان برگزیده در «جشنواره جوان سرباز»
  • تاکید وزیر کشور بر شفافیت و توزیع عادلانه کمک‌ها در مناطق سیل زده
  • سناریوی احتمالی برای قیمت بنزین سهمیه
  • ظریف: سازوکار مشابه اینستکس با ترکیه ایجاد می‌کنیم
  • Ad