شرکت متا (مالک اینستاگرام و واتساپ) در حال طراحی سیستمی است که می‌تواند ارزیابی خطرات حریم خصوصی و آسیب‌های احتمالی محصولات خود را تا ۹۰ درصد به‌صورت خودکار انجام دهد.

برای سال‌ها، هر زمان که شرکت متا ویژگی‌های جدیدی برای اینستاگرام، واتساپ یا فیسبوک معرفی می‌کرد، تیمی از کارشناسان انسانی موظف بود تا خطرات احتمالی آن‌ها را بررسی کند؛ خطراتی از قبیل نقض حریم خصوصی کاربران، آسیب به کودکان یا گسترش محتوای نادرست و سمی.

این اقدام در راستای توافق‌نامه سال ۲۰۱۲ بین فیسبوک (متا فعلی) و کمیسیون تجارت فدرال آمریکا (FTC) انجام می‌شود؛ توافقی که متا را ملزم می‌کند تا پیش از انتشار هر به‌روزرسانی، ریسک‌های آن را ارزیابی کند.
طبق این گزارش، متا از تیم‌های محصول خواهد خواست پرسشنامه‌ای درباره تغییرات خود تکمیل کنند و سپس به‌صورت آنی، تصمیم‌گیری و الزامات لازم را دریافت نمایند.در عمل، این بدان معناست که تغییرات اساسی در الگوریتم‌های متا، ویژگی‌های جدید ایمنی و تغییرات در نحوه اشتراک‌گذاری محتوا در این پلتفرم‌ها، عمدتاً به‌وسیله سیستمی مبتنی بر هوش مصنوعی بررسی و تأیید خواهد شد؛ بدون آنکه مانند گذشته ارزیابی دقیق و کامل کارشناسان انسانی را پشت سر بگذارد.
منتقدان هشدار داده‌اند که این تغییر می‌تواند منجر به «ریسک‌های بالاتر» شود؛ چرا که اثرات منفی تغییرات محصول ممکن است پیش از بروز مشکلات، شناسایی نشوند.
متا در بیانیه‌ای اعلام کرده است که میلیاردها دلار در برنامه‌های حفظ حریم خصوصی سرمایه‌گذاری کرده و همچنان متعهد به رعایت الزامات قانونی و حفاظت از اطلاعات کاربران است. این شرکت افزود: «ما همچنان برای مسائل جدید و پیچیده، از ارزیابی‌های انسانی استفاده می‌کنیم و فقط تصمیمات کم‌ریسک را به‌صورت خودکار اتخاذ می‌کنیم.»

به اشتراک بگذارید:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *