حملات به دستیارهای هوش مصنوعی ادامه دارد و این بار هدف OpenAI و دستیار «Deep Research» قرار گرفته است. محققان نشان داده‌اند یک حمله ساده می‌تواند اطلاعات محرمانه کاربران را از صندوق جیمیل استخراج کرده و به سرور مهاجمان منتقل کند، بدون اینکه قربانی متوجه شود.

OpenAI اوایل سال جاری دستیار هوش مصنوعی «Deep Research» را معرفی کرد. این ابزار به کاربران امکان می‌دهد پژوهش‌های پیچیده چندمرحله‌ای را با دسترسی به منابع مختلف انجام دهند، از جمله ایمیل، اسناد و منابع آنلاین. این دستیار حتی می‌تواند خودکار وب‌سایت‌ها را مرور و روی لینک‌ها کلیک کند.

کاربران می‌توانند از Deep Research بخواهند ایمیل‌های یک ماه گذشته را بررسی کند، آن‌ها را با اطلاعات موجود در وب تطبیق دهد و گزارشی جامع درباره یک موضوع تهیه کند. OpenAI می‌گوید این ابزار «در عرض چند دقیقه کاری را انجام می‌دهد که انسان ساعت‌ها طول می‌کشد».

اما این قابلیت‌ها ریسک امنیتی دارند. شرکت امنیتی Radware روز پنجشنبه گزارشی منتشر کرد که نشان می‌دهد یک حمله موسوم به «Prompt Injection» کافی است تا محققان بتوانند اطلاعات محرمانه را هنگام دسترسی Deep Research به صندوق جیمیل قربانی استخراج کنند.

Radware نام این حمله را «Shadow Leak» گذاشته و توضیح داده است: «Shadow Leak از همان قابلیت‌هایی استفاده می‌کند که دستیارهای هوش مصنوعی را مفید می‌کنند: دسترسی به ایمیل، استفاده از ابزارها و تماس‌های خودکار وب. این حمله باعث از دست رفتن بی‌صدا داده‌ها و انجام اقدامات بدون ثبت می‌شود و کنترل‌های امنیتی سنتی را دور می‌زند.»

به اشتراک بگذارید:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *