جدیدترین اخبارجهان

مایکروسافت: کره شمالی و جمهوری اسلامی از هوش مصنوعی برای هک استفاده می کنند

غول فناوری ایالات متحده می‌گوید تهدیدات کشورهای خارجی را شناسایی کرده که از هوش مصنوعی مولد خود استفاده یا تلاش کرده‌اند از آن بهره برداری کنند

مایکروسافت: کره شمالی و جمهوری اسلامی از هوش مصنوعی برای هک استفاده می کنند

مایکروسافت روز چهارشنبه گفت، دشمنان ایالات متحده عمدتاً جمهوری اسلامی و کره شمالی، و تا حدی روسیه و چین شروع به استفاده از هوش مصنوعی مولد برای نصب یا سازماندهی عملیات سایبری تهاجمی کرده‌اند.

مایکروسافت: کره شمالی و جمهوری اسلامی از هوش مصنوعی برای هک استفاده می کنند
مایکروسافت: کره شمالی و جمهوری اسلامی از هوش مصنوعی برای هک استفاده می کنند

مایکروسافت اعلام کرد که با همکاری شریک تجاری OpenAI، بسیاری از تهدیدهایی را که با فناوری هوش مصنوعی برای سوء استفاده از آنها توسعه داده شده، شناسایی و مختل کرده است.

در یک پست وبلاگی، این شرکت گفت که این تکنیک‌ها که در مراحل اولیه هستند بدیع یا منحصربه‌فرد نیستند، اما مهم است که آنها را به‌عنوان رقبای آمریکایی که از مدل‌های زبان بزرگ برای گسترش توانایی‌شان برای نفوذ به شبکه‌ها و عملیات اعمال نفوذ استفاده می‌کنند، در معرض عموم قرار دهیم. 

شرکت‌های امنیت سایبری مدت‌هاست که از یادگیری ماشینی در دفاع، عمدتاً برای شناسایی رفتارهای غیرعادی در شبکه‌ها استفاده می‌کنند. اما مجرمان و هکرهای تهاجمی نیز از آن استفاده می‌کنند، و معرفی مدل‌های زبان بزرگ به رهبری ChatGPT OpenAI، این بازی موش و گربه را ارتقا داد.

مایکروسافت میلیاردها دلار در OpenAI سرمایه‌گذاری کرده است و اعلامیه روز چهارشنبه مصادف با انتشار گزارشی بود که در آن اشاره می‌شد که انتظار می‌رود هوش مصنوعی مولد مهندسی اجتماعی مخرب را تقویت کند و منجر به دیپ‌فیک‌های پیچیده‌تر و شبیه‌سازی صدا شود. تهدیدی برای دموکراسی در سالی که در آن بیش از ۵۰ کشور انتخابات برگزار می‌کنند، اطلاعات نادرست را بزرگ‌نمایی می‌کنند و در حال حاضر رخ داده است.

مایکروسافت چند نمونه ارائه کرد. در هر مورد، تمام حساب‌های هوش مصنوعی و دارایی‌های گروه‌های نام‌برده غیرفعال شدند.

مایکروسافت: کره شمالی و جمهوری اسلامی از هوش مصنوعی برای هک استفاده می کنند
مایکروسافت: کره شمالی و جمهوری اسلامی از هوش مصنوعی برای هک استفاده می کنند

گروه جاسوسی سایبری کره شمالی معروف به کیمسوکی از این مدل‌ها برای تحقیق در اندیشکده‌های خارجی که کشور را بررسی می‌کنند و تولید محتوایی که احتمالاً در کمپین‌های هک فیشینگ نیزه استفاده می‌شود، استفاده کرده است.

سپاه پاسداران از مدل‌های زبان بزرگ برای کمک به مهندسی اجتماعی، عیب‌یابی خطاهای نرم‌افزاری و حتی مطالعه چگونگی فرار نفوذگران از شناسایی در یک شبکه در معرض خطر استفاده کرده است. این شامل ایجاد ایمیل‌های فیشینگ می‌شود که از جمله یکی که وانمود می‌کند از یک آژانس توسعه بین‌المللی آمده است و دیگری تلاش برای فریب دادن فمینیست‌های برجسته به وب‌سایتی که توسط مهاجمان درباره فمینیسم ساخته شده است. هوش مصنوعی به تسریع و افزایش تولید ایمیل کمک می کند.

واحد اطلاعات نظامی روسیه به نام Fancy Bear از این مدل ها برای تحقیق در مورد فناوری های ماهواره ای و راداری که ممکن است مربوط به جنگ در اوکراین باشد، استفاده کرده است.

گروه جاسوسی سایبری چینی معروف به پانداهای آبی که طیف وسیعی از صنایع، آموزش عالی و دولت‌ها از فرانسه تا مالزی را هدف قرار می‌دهد با مدل‌ها به شیوه‌هایی تعامل کرده است که نشان می‌دهد کاوش محدودی در مورد اینکه چگونه LLM‌ها می‌توانند عملیات فنی خود را تقویت کنند.

گروه چینی Maverick Panda که بیش از یک دهه است پیمانکاران دفاعی ایالات متحده را در میان سایر بخش‌ها هدف قرار داده است، تعاملاتی با مدل‌های زبان بزرگ داشت که نشان می‌دهد کارآیی آنها را به عنوان منبع اطلاعات در مورد موضوعات بالقوه حساس، افراد با سابقه و منطقه‌ای ارزیابی می‌کند.

مایکروسافت: کره شمالی و جمهوری اسلامی از هوش مصنوعی برای هک استفاده می کنند
مایکروسافت: کره شمالی و جمهوری اسلامی از هوش مصنوعی برای هک استفاده می کنند

در وبلاگ جداگانه‌ای که روز چهارشنبه منتشر شد، OpenAI گفت ربات چت مدل GPT-4 فعلی آن تنها قابلیت‌های محدود و افزایشی برای وظایف مخرب امنیت سایبری فراتر از آنچه در حال حاضر با ابزارهای در دسترس عمومی و غیر هوش مصنوعی قابل دستیابی است ارائه می‌کند.

محققان امنیت سایبری انتظار دارند که این تغییر کند. در آوریل گذشته، جن ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده، به کنگره گفت دو تهدید و چالش وجود دارد که این زمان را تعریف می‌کند. یکی چین است و دیگری هوش مصنوعی. ایسترلی در آن زمان گفت که ایالات متحده باید اطمینان حاصل کند که هوش مصنوعی با در نظر گرفتن امنیت ساخته شده است.

منتقدان انتشار عمومی ChatGPT در نوامبر ۲۰۲۲ و انتشارات بعدی توسط رقبا از جمله گوگل و متا ادعا می کنند که به طور غیرمسئولانه ای عجولانه بود، زیرا امنیت تا حد زیادی در توسعه آن ها فکر می کرد.

آمیت یوران، مدیر اجرایی شرکت امنیت سایبری تنبل، گفت البته بازیگران بد از مدل‌های زبان بزرگ استفاده می‌کنند این تصمیم زمانی گرفته شد که جعبه پاندورا باز شد.

برخی از متخصصان امنیت سایبری از ایجاد و استفاده از ابزارهای مایکروسافت برای رفع آسیب‌پذیری‌ها در مدل‌های بزرگ زبان شکایت دارند، در حالی که ممکن است مسئولانه‌تر بر روی ایمن‌تر کردن آنها تمرکز کند.

گری مک گرو، کهنه کار امنیت رایانه و یکی از بنیانگذاران مؤسسه یادگیری ماشینی بریویل، پرسید چرا به جای فروش ابزارهای دفاعی برای مشکلی که به ایجاد آن کمک می کنند، مدل های پایه جعبه سیاه LLM ایمن تر ایجاد نکنید؟ 

ادوارد آموروسو، استاد دانشگاه نیویورک و افسر ارشد سابق AT&T، گفت که اگرچه استفاده از هوش مصنوعی و مدل‌های زبان بزرگ ممکن است یک تهدید فوری آشکار نباشد، اما در نهایت به یکی از قوی‌ترین سلاح‌ها در تهاجم نظامی هر کشور دولتی تبدیل خواهند شد.

مشاهده بیشتر
دکمه بازگشت به بالا