حملات به دستیارهای هوش مصنوعی ادامه دارد و این بار هدف OpenAI و دستیار «Deep Research» قرار گرفته است. محققان نشان دادهاند یک حمله ساده میتواند اطلاعات محرمانه کاربران را از صندوق جیمیل استخراج کرده و به سرور مهاجمان منتقل کند، بدون اینکه قربانی متوجه شود.
OpenAI اوایل سال جاری دستیار هوش مصنوعی «Deep Research» را معرفی کرد. این ابزار به کاربران امکان میدهد پژوهشهای پیچیده چندمرحلهای را با دسترسی به منابع مختلف انجام دهند، از جمله ایمیل، اسناد و منابع آنلاین. این دستیار حتی میتواند خودکار وبسایتها را مرور و روی لینکها کلیک کند.
کاربران میتوانند از Deep Research بخواهند ایمیلهای یک ماه گذشته را بررسی کند، آنها را با اطلاعات موجود در وب تطبیق دهد و گزارشی جامع درباره یک موضوع تهیه کند. OpenAI میگوید این ابزار «در عرض چند دقیقه کاری را انجام میدهد که انسان ساعتها طول میکشد».
اما این قابلیتها ریسک امنیتی دارند. شرکت امنیتی Radware روز پنجشنبه گزارشی منتشر کرد که نشان میدهد یک حمله موسوم به «Prompt Injection» کافی است تا محققان بتوانند اطلاعات محرمانه را هنگام دسترسی Deep Research به صندوق جیمیل قربانی استخراج کنند.
Radware نام این حمله را «Shadow Leak» گذاشته و توضیح داده است: «Shadow Leak از همان قابلیتهایی استفاده میکند که دستیارهای هوش مصنوعی را مفید میکنند: دسترسی به ایمیل، استفاده از ابزارها و تماسهای خودکار وب. این حمله باعث از دست رفتن بیصدا دادهها و انجام اقدامات بدون ثبت میشود و کنترلهای امنیتی سنتی را دور میزند.»