شرکت متا یک باگ امنیتی را برطرف کرد. این باگ به کاربران چت‌بات هوش مصنوعی متا اجازه می‌داد به درخواست‌ها و پاسخ‌های تولیدشده کاربران دیگر دسترسی پیدا کنند.

ساندیپ هودکاسیا، بنیان‌گذار AppSecure، به TechCrunch گفت که این باگ را در ۲۶ دسامبر ۲۰۲۴ گزارش کرده است. متا در ازای این گزارش، ۱۰ هزار دلار به او پاداش داده است.

هودکاسیا گفت متا در ۲۴ ژانویه ۲۰۲۵ باگ را رفع کرده و شواهدی از سوءاستفاده مخرب نیافته است.

او توضیح داد که باگ را هنگام بررسی عملکرد متا AI در ویرایش درخواست‌ها کشف کرده است. وقتی کاربر درخواست خود را ویرایش می‌کند، سرورهای متا یک شماره منحصربه‌فرد به آن و پاسخ تولیدشده اختصاص می‌دهند. او هنگام بررسی ترافیک مرورگر دریافت که می‌تواند این شماره را تغییر دهد و محتوای کاربر دیگری را دریافت کند.

سرورهای متا بررسی نمی‌کردند که آیا کاربر مجاز به دیدن آن محتوا هست یا نه. به گفته هودکاسیا، شماره‌های تولیدشده به‌راحتی قابل حدس بودند. این موضوع می‌توانست به مهاجمان اجازه دهد با ابزارهای خودکار، محتوای کاربران دیگر را دریافت کنند.

TechCrunch با متا تماس گرفت. متا تأیید کرد که باگ را رفع کرده، مورد سوءاستفاده‌ای نیافته و به گزارشگر پاداش داده است.

این افشاگری در شرایطی منتشر شده که شرکت‌های بزرگ فناوری با وجود چالش‌های امنیتی و حریم خصوصی، به‌شدت در حال توسعه محصولات هوش مصنوعی خود هستند.

اپلیکیشن مستقل متا AI که اوایل امسال برای رقابت با ChatGPT عرضه شد، در شروع کار با مشکل مواجه شد. برخی کاربران به‌اشتباه مکالمات خصوصی خود را به‌صورت عمومی منتشر کردند.

منبع: TechCrunch

به اشتراک بگذارید:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *