فناوری

مایکروسافت: دشمنان آمریکا استفاده از هوش مصنوعی مولد در حملات سایبری را آغاز کرده‌اند

پایگاه خبری تحلیلی ایران تحلیل (irtahlil.com):

مایکروسافت اعلام کرد که کشورهای دشمن آمریکا به ویژه ایران و کره شمالی و تا حدی روسیه و چین استفاده از هوش مصنوعی را برای سازماندهی یا اجرای حملات سایبری آغاز کرده‌اند.

این شرکت بزرگ فناوری دیجیتال در روز چهارشنبه ۲۵ بهمن وی افزود: شرکت “Open AI” با همکاری شریک تجاری خود، تهدیداتی را که از فناوری هوش مصنوعی این دو شرکت برای حملات سایبری استفاده می کرد، خنثی کرده است.

در بیانیه ای، مایکروسافت خاطرنشان کرد که ابزارهای مورد استفاده در این تهدیدها “در مراحل ابتدایی خود هستند و نوآورانه یا منحصر به فرد نیستند.” اما با توجه به تمرکز دشمنان آمریکا بر استفاده از این نوع فناوری برای گسترش دامنه عملیات و نفوذ خود، افشای عمومی آنها حائز اهمیت است. »

شرکت‌های امنیت سایبری سال‌هاست که از فناوری هوش مصنوعی برای محافظت از شبکه‌های کامپیوتری و شناسایی عوامل مخرب استفاده می‌کنند، اما مجرمان و هکرها نیز از همین ابزار استفاده می‌کنند و ورود “GPT Chat” به بازار باعث شده این بازی گربه و ماوس پیچیده تر است

مایکروسافت میلیاردها دلار در OpenAI، یکی از پیشگامان فناوری هوش مصنوعی، سرمایه گذاری کرده است.

این شرکت در گزارش جداگانه‌ای در روز چهارشنبه خاطرنشان کرد که رواج ابزارهای هوش مصنوعی به مهندسی اجتماعی مضر و روش‌های پیچیده‌تر برای تولید تصاویر «دیپ جعلی» و فایل‌های صوتی شبیه‌سازی شده دامن می‌زند.

افزایش تولید اخبار جعلی و گمراه کننده در شرایطی که امسال در بیش از ۵۰ کشور ایران تحلیلات برگزار می شود، نگرانی در مورد به خطر انداختن دموکراسی را افزایش داده است.

مایکروسافت در گزارش خود به چند نمونه از استفاده عوامل مخرب در کشورهای مختلف از هوش مصنوعی اشاره کرده است. این شرکت افزود که تمام حساب های کاربری این عوامل و ابزارهای هوش مصنوعی را که به کار گرفته شده بودند، خنثی و مختل کرده است.

– یک گروه جاسوسی سایبری کره شمالی به نام “کیمسوکی” از هوش مصنوعی برای اطلاع از کار موسسات تحقیقاتی خارجی که در آن کشور تحقیق می کنند و مضامینی تولید می کنند که معمولا برای به دام انداختن محققان و در نتیجه هک وب سایت ها استفاده می شود، استفاده می کند. انجام داده است.

– یک گروه جاسوسی سایبری چینی به نام «پاندای آبزی» که تاکنون به تعداد زیادی از اهداف از جمله کارخانه ها، مراکز آموزشی و موسسات دولتی از فرانسه تا مالزی حمله کرده است، تا حدودی از ابزارهای هوش مصنوعی استفاده کرده است. که نشان می دهد او از تأثیر آنها در گسترش دامنه فعالیت خود آگاهی محدودی دارد.

– گروه چینی دیگری به نام موریک پاندا که به اهداف مختلفی از جمله شرکت‌های مرتبط با وزارت دفاع آمریکا حمله کرده است، بیش از یک دهه است که از ابزارهای هوش مصنوعی به صورت آزمایشی استفاده می‌کند و این نشان می‌دهد که در حال حاضر در حال بررسی اثربخشی آن‌ها به عنوان ابزاری است. منبع اطلاعات در مورد افراد مشهور، ژئوپلیتیک منطقه ای، و همچنین نفوذ جهانی و سیاست داخلی ایالات متحده.

– یک واحد سایبری سازمان اطلاعات نظامی روسیه به نام «خرس ناز» از این ابزارها برای تحقیق در مورد فناوری ماهواره ای و راداری که ممکن است مربوط به جنگ اوکراین باشد، استفاده کرد.

روز چهارشنبه، OpenAI در بیانیه‌ای جداگانه گفت که مدل جدید ربات چت این شرکت، “Chat GPT-4” در مقایسه با فناوری‌های موجود در بازار و ابزارهایی که از هوش مصنوعی استفاده نمی‌کنند، “قابلیت بسیار محدودی را در اختیار عوامل مخرب قرار می‌دهد. ” “

اما کارشناسان امنیت سایبری معتقدند این وضعیت به زودی تغییر خواهد کرد.

رئیس آژانس امنیت سایبری و امنیت زیرساخت آمریکا در آوریل گذشته در گزارشی به کنگره گفت: ما با دو تهدید عصری روبرو هستیم یکی چین و دیگری فناوری هوش مصنوعی.

وی افزود که دولت آمریکا باید اطمینان حاصل کند که فناوری هوش مصنوعی با در نظر گرفتن حساسیت های امنیتی تولید می شود.

گروهی از کارشناسان و مبتکران فناوری دیجیتال از راه اندازی “ChatGPT” در نوامبر ۲۰۲۲ و محصولات مشابه توسط شرکت های رقیب مانند گوگل و متا انتقاد کرده و آن را اقدامی غیرمسئولانه توصیف کرده اند که پیامدهای امنیتی را نادیده می گیرد.

کارشناسان امنیت سایبری معتقدند در صورت تداوم این روند مقابله با تهدیدات سایبری دشمنان آمریکا و مبارزه با جنایتکاران سازمان یافته دشوارتر خواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا