شرکت متا (مالک اینستاگرام و واتساپ) در حال طراحی سیستمی است که میتواند ارزیابی خطرات حریم خصوصی و آسیبهای احتمالی محصولات خود را تا ۹۰ درصد بهصورت خودکار انجام دهد.
برای سالها، هر زمان که شرکت متا ویژگیهای جدیدی برای اینستاگرام، واتساپ یا فیسبوک معرفی میکرد، تیمی از کارشناسان انسانی موظف بود تا خطرات احتمالی آنها را بررسی کند؛ خطراتی از قبیل نقض حریم خصوصی کاربران، آسیب به کودکان یا گسترش محتوای نادرست و سمی.
این اقدام در راستای توافقنامه سال ۲۰۱۲ بین فیسبوک (متا فعلی) و کمیسیون تجارت فدرال آمریکا (FTC) انجام میشود؛ توافقی که متا را ملزم میکند تا پیش از انتشار هر بهروزرسانی، ریسکهای آن را ارزیابی کند.
طبق این گزارش، متا از تیمهای محصول خواهد خواست پرسشنامهای درباره تغییرات خود تکمیل کنند و سپس بهصورت آنی، تصمیمگیری و الزامات لازم را دریافت نمایند.در عمل، این بدان معناست که تغییرات اساسی در الگوریتمهای متا، ویژگیهای جدید ایمنی و تغییرات در نحوه اشتراکگذاری محتوا در این پلتفرمها، عمدتاً بهوسیله سیستمی مبتنی بر هوش مصنوعی بررسی و تأیید خواهد شد؛ بدون آنکه مانند گذشته ارزیابی دقیق و کامل کارشناسان انسانی را پشت سر بگذارد.
منتقدان هشدار دادهاند که این تغییر میتواند منجر به «ریسکهای بالاتر» شود؛ چرا که اثرات منفی تغییرات محصول ممکن است پیش از بروز مشکلات، شناسایی نشوند.
متا در بیانیهای اعلام کرده است که میلیاردها دلار در برنامههای حفظ حریم خصوصی سرمایهگذاری کرده و همچنان متعهد به رعایت الزامات قانونی و حفاظت از اطلاعات کاربران است. این شرکت افزود: «ما همچنان برای مسائل جدید و پیچیده، از ارزیابیهای انسانی استفاده میکنیم و فقط تصمیمات کمریسک را بهصورت خودکار اتخاذ میکنیم.»