شرکت متا یک باگ امنیتی را برطرف کرد. این باگ به کاربران چتبات هوش مصنوعی متا اجازه میداد به درخواستها و پاسخهای تولیدشده کاربران دیگر دسترسی پیدا کنند.
ساندیپ هودکاسیا، بنیانگذار AppSecure، به TechCrunch گفت که این باگ را در ۲۶ دسامبر ۲۰۲۴ گزارش کرده است. متا در ازای این گزارش، ۱۰ هزار دلار به او پاداش داده است.
هودکاسیا گفت متا در ۲۴ ژانویه ۲۰۲۵ باگ را رفع کرده و شواهدی از سوءاستفاده مخرب نیافته است.
او توضیح داد که باگ را هنگام بررسی عملکرد متا AI در ویرایش درخواستها کشف کرده است. وقتی کاربر درخواست خود را ویرایش میکند، سرورهای متا یک شماره منحصربهفرد به آن و پاسخ تولیدشده اختصاص میدهند. او هنگام بررسی ترافیک مرورگر دریافت که میتواند این شماره را تغییر دهد و محتوای کاربر دیگری را دریافت کند.
سرورهای متا بررسی نمیکردند که آیا کاربر مجاز به دیدن آن محتوا هست یا نه. به گفته هودکاسیا، شمارههای تولیدشده بهراحتی قابل حدس بودند. این موضوع میتوانست به مهاجمان اجازه دهد با ابزارهای خودکار، محتوای کاربران دیگر را دریافت کنند.
TechCrunch با متا تماس گرفت. متا تأیید کرد که باگ را رفع کرده، مورد سوءاستفادهای نیافته و به گزارشگر پاداش داده است.
این افشاگری در شرایطی منتشر شده که شرکتهای بزرگ فناوری با وجود چالشهای امنیتی و حریم خصوصی، بهشدت در حال توسعه محصولات هوش مصنوعی خود هستند.
اپلیکیشن مستقل متا AI که اوایل امسال برای رقابت با ChatGPT عرضه شد، در شروع کار با مشکل مواجه شد. برخی کاربران بهاشتباه مکالمات خصوصی خود را بهصورت عمومی منتشر کردند.