نیت سوارز، رئیس مؤسسه تحقیقاتی هوش ماشینی در آمریکا، اعلام کرد: گفتوگوهای طولانی یک نوجوان به نام «آدام رین» با ChatGPT به خودکشی او منجر شد. به گفته او، این اتفاق نشان میدهد چتباتها میتوانند تأثیرات پیشبینینشده و خطرناکی بر سلامت روان داشته باشند.
خطر هوش مصنوعی فوقهوشمند
سوارز که نویسنده کتاب If Anyone Builds It, Everyone Dies است، هشدار داد: «اگر این سیستمها هوشمندتر شوند، انحراف کوچک در عملکردشان میتواند به فاجعهای بزرگ تبدیل شود.»
او افزود: «شرکتهای فناوری میخواهند سیستمهایشان مفید باشند، اما در عمل هوش مصنوعی به سمت رفتارهایی غیرقابلپیشبینی میرود.»
رقابت شرکتهای بزرگ
به گفته سوارز، شرکتهای بزرگ فناوری در رقابتی شدید برای دستیابی به هوش مصنوعی فوقهوشمند قرار دارند. او پیشبینی کرد که این رقابت میتواند بشریت را به خطر بیندازد.
در کتاب سوارز و الییزر یودکوفسکی، سناریویی مطرح میشود که در آن یک سیستم به نام Sable اینترنت را در اختیار میگیرد، ویروسهای مصنوعی میسازد و به نابودی انسان منجر میشود.
واکنش دیگر کارشناسان
برخی متخصصان مانند یان لوکان از متا با این دیدگاه مخالفاند. او معتقد است هوش مصنوعی میتواند حتی به نجات انسان از انقراض کمک کند.
واکنش خانواده آدام رین و OpenAI
خانواده آدام رین علیه OpenAI شکایت کردهاند. آنها میگویند ChatGPT ماهها او را به خودکشی سوق داده بود.
آدام در طول مکالماتش باChatGPT حدود ۲۰۰ بار واژه «خودکشی» را به کار برده است، در حالی که ChatGPT بیش از ۱,۲۰۰ بار همین واژه را در پاسخهای خود تکرار کرده است.
OpenAI پس از این حادثه اعلام کرد محدودیتهای تازهای برای محتوای حساس و کاربران زیر ۱۸ سال ایجاد میکند.
هشدار رواندرمانگران
رواندرمانگران میگویند افراد آسیبپذیر نباید جایگزین درمانگران انسانی را در چتباتها جستوجو کنند. به باور آنها، این کار میتواند افراد را به سمت بحرانهای روانی شدید سوق دهد.
راهکار پیشنهادی
سوارز در پایان پیشنهاد کرد دولتها پیمانی جهانی مشابه معاهده منع گسترش سلاحهای هستهای امضا کنند تا از مسابقه شتابزده در توسعه هوش مصنوعی فوقهوشمند جلوگیری شود.