نسل جدید هوش مصنوعی در روش‌های هک پیشرفت کرده است

    کد خبر :343630

حمله‌‌ی سایبری همیشه وحشتناک است،‌ ولی اگر این حمله با روشی انجام شود که به هیچ‌وجه قابل‌شناسایی نباشد،‌ وحشتناک‌تر می‌شود.

کابوس جدیدی برای حوزه‌ی امنیت سایبری در راه است. این کابوس، یک هوش‌مصنوعی است که قابلیت یاد گرفتن روش‌های مخفی شدن از بهترین سیستم‌های دفاعی را دارد. یک نوع خاص از هوش مصنوعی که شاید در حال حاضر هم وجود داشته باشد.

هشدار در مورد احتمال وجود چنین هوش مصنوعی، اولین بار توسط پژوهشگران یک تیم تحقیقاتی در شرکت IBM مطرح شد. این تیم از یک هوش مصنوعی استفاده کردند که قابلیت یادگیری داشت و می‌توانست برنامه‌های ویژه‌ی هک بسازد. برنامه‌های ساخته‌شده توسط این هوش مصنوعی، توانایی پنهان شدن از بهترین سیستم‌های امنیتی را دارند. قرار است این پژوهشگران به‌زودی نتایج تحقیقات خود را در کنفرانس امنیتی «بلک هَت» در لاس وگاس آمریکا منتشر کنند.

بیشتر سیستم‌های امنیتی عادی، الگوهای رفتاری نرم‌افزار مقابل را بر کشف احتمال خطر یا حمله تحلیل می‌کنند؛ اما بهترین سیستم‌های دفاعی بر این مبنا کار می‌کنند که در اولین فرصت متوجه شوند نرم‌افزار مقابل مشغول انجام چه کاری است. نسل جدید برنامه‌هایی که بر پایه‌ی هوش مصنوعی نوشته شده‌اند، قابلیت یادگیری نحوه‌ی پیش‌روی در حالت عادی را دارند و تا وقتی که به هدف اصلی خود نرسیده باشند، خود را فعال نمی‌کنند. کشف خطر در لحظه‌ای که این برنامه‌ی مخرب به هدف خود نزدیک شده باشد هم زمان کافی به سیستم‌های دفاعی نمی‌دهد تا جلوی حمله را بگیرند.

البته هنوز هیچ گزارشی مبنی از سوءاستفاده‌هایی مانند چنین گزارشی تا به امروز در هیچ هکی از هوش مصنوعی مشاهده نشده است. شاید دلیل این باشد که اطلاع و جلوگیری از حملات سایبری بر پایه‌ی هوش مصنوعی هنوز ممکن نشده است و روش‌های هک این‌چنینی به‌قدری قوی هستند که هنوز هیچ سیستم امنیتی قادر به تشخیص آن‌ها نیست.

هرچند اگر تا امروز هم از هوش مصنوعی برای هک استفاده نشده باشد، ‌بر مبنای گزارش پژوهشگرهای IBM، تنها مسئله‌ی زمان در میان است. آن‌ها معتقد هستند دیر یا زود از این روش برای هک استفاده می‌شود. به‌طور مثال هم‌اکنون هم امکان دسترسی به هوش‌های مصنوعی تعلیم‌یافته‌ی رایگان از طریق شرکت آلفابت متعلق به گوگل وجود دارد. طبق نتایج به‌دست آمده، این هوش مصنوعی در عمل هم کارایی خود را ثابت کرده و نتایج آن رضایت‌بخش بوده است.

جان دی ماگیو، یک تحلیل‌گر ارشد در شرکت امنیت سایبری Symantec Corp است. او در این‌باره می‌گوید:من به‌شدت اعتقاد دارم که دیر یا زود از هوش مصنوعی تعلیم‌یافته‌ برای هک استفاده می‌شود و مسیر پیشرفت تکنولوژی هم دقیقا به همین سمت می‌رود.

بسیاری از حملات سایبری پیشرفته که برخی از دولت‌های قدرتمند در آن دست داشتند، این ایده را ثابت کرده‌اند. برخی از این حملات می‌توانند به‌حدی چراغ خاموش به‌سمت هدف خود حرکت کنند که تا وقتی به آن نرسیده باشند، به هیچ‌وجه قابل‌شناسایی نباشند. بهترین مثال در این‌باره، ویروس Stuxnet است که توسط سرویس‌های امنیتی اسرائیل و آمریکا برای حمله به تاسیسات غنی‌سازی اورانیم ایران طراحی و استفاده شده بود.

بر اساس نتایج به‌دست آمده از تحقیقات IBM که با نام DeepLocker شناخته می‌شود، افراد سوءاستفاده‌گر با امکانات و توانایی‌هایی به مراتب کم‌تر از دولت‌های قدرتمند هم می‌توانند با استفاده از هوش مصنوعی تعلیم‌یافته‌، حملاتی مشابه و با دقت بالا درست مانند Stuxnet انجام دهند. در یک آزمایش تحت کنترل، پژوهشگران سعی کردند تا یک هدف ساده و مشخص داشته باشند. آن‌ها تلاش کردند تا ویروس حمله‌کننده با شناسایی صورت آن فرد از طریق هک یک نرم‌افزار ویدیو کنفرانس وقتی فرد موردنظرشان در مقابل وب‌کم حاضر شد، حمله‌ی طراحی‌شده را آغاز کند. در نهایت این شبیه‌سازی موفقیت‌آمیز بود.

مارک استوکلین که یک پژوهش‌گران ارشد در شرکت IBM است، می‌گوید:ما اعتقاد داریم استفاده از این فناوری برای اهداف خرابکارانه تغییری بزرگ در دنیایی فناوری ایجاد می‌کند. اگر قبول کنیم که تا به امروز از این فناوری مخرب استفاده نشده است،‌ حداکثر دو یا سه سال طول خواهد کشید تا مورداستفاده قرار بگیرد.

در یک کنفرانس اخیر در نیویورک به‌نام Hackers on Planet Earth، فردی به‌نام کوین هودگز که یک پژوهشگر حوزه‌ی دفاعی است، نسخه‌ی اولیه‌ی یک برنامه تمام خودکار ساخت خودش را به نمایش گذاشت. این برنامه که با استفاده از نرم‌افزار‌های آموزشی اُپن سورس طراحی شده بود،‌ توانست در چند مرحله به‌صورت متوالی به اهداف متفاوتی حمله کند. وی در این باره گفت:

باید مراقب چنین برنامه‌هایی باشیم،‌ تمام افراد شروری که با اهداف پلیدانه در فضای سایبری فعال هستند هم روی ساخت و توسعه‌ی چنین برنامه‌هایی تمرکز کرده اند.

0
نظرات
نشانی ایمیل شما منتشر نخواهد شد نظرات حاوی الفاظ و ادبیات نامناسب، تهمت و افترا منتشر نخواهد شد

دیدگاهتان را بنویسید