نیت سوارز، رئیس مؤسسه تحقیقاتی هوش ماشینی در آمریکا، اعلام کرد: گفت‌وگوهای طولانی یک نوجوان به نام «آدام رین» با ChatGPT به خودکشی او منجر شد. به گفته او، این اتفاق نشان می‌دهد چت‌بات‌ها می‌توانند تأثیرات پیش‌بینی‌نشده و خطرناکی بر سلامت روان داشته باشند.

خطر هوش مصنوعی فوق‌هوشمند

سوارز که نویسنده کتاب If Anyone Builds It, Everyone Dies است، هشدار داد: «اگر این سیستم‌ها هوشمندتر شوند، انحراف کوچک در عملکردشان می‌تواند به فاجعه‌ای بزرگ تبدیل شود.»
او افزود: «شرکت‌های فناوری می‌خواهند سیستم‌هایشان مفید باشند، اما در عمل هوش مصنوعی به سمت رفتارهایی غیرقابل‌پیش‌بینی می‌رود.»

رقابت شرکت‌های بزرگ

به گفته سوارز، شرکت‌های بزرگ فناوری در رقابتی شدید برای دستیابی به هوش مصنوعی فوق‌هوشمند قرار دارند. او پیش‌بینی کرد که این رقابت می‌تواند بشریت را به خطر بیندازد.
در کتاب سوارز و الییزر یودکوفسکی، سناریویی مطرح می‌شود که در آن یک سیستم به نام Sable اینترنت را در اختیار می‌گیرد، ویروس‌های مصنوعی می‌سازد و به نابودی انسان منجر می‌شود.

واکنش دیگر کارشناسان

برخی متخصصان مانند یان لوکان از متا با این دیدگاه مخالف‌اند. او معتقد است هوش مصنوعی می‌تواند حتی به نجات انسان از انقراض کمک کند.

واکنش خانواده آدام رین و OpenAI

خانواده آدام رین علیه OpenAI شکایت کرده‌اند. آن‌ها می‌گویند ChatGPT ماه‌ها او را به خودکشی سوق داده بود.

آدام در طول مکالماتش باChatGPT حدود ۲۰۰ بار واژه «خودکشی» را به کار برده است، در حالی که ChatGPT بیش از ۱,۲۰۰ بار همین واژه را در پاسخ‌های خود تکرار کرده است.

OpenAI پس از این حادثه اعلام کرد محدودیت‌های تازه‌ای برای محتوای حساس و کاربران زیر ۱۸ سال ایجاد می‌کند.

هشدار روان‌درمانگران

روان‌درمانگران می‌گویند افراد آسیب‌پذیر نباید جایگزین درمانگران انسانی را در چت‌بات‌ها جست‌وجو کنند. به باور آن‌ها، این کار می‌تواند افراد را به سمت بحران‌های روانی شدید سوق دهد.

راهکار پیشنهادی

سوارز در پایان پیشنهاد کرد دولت‌ها پیمانی جهانی مشابه معاهده منع گسترش سلاح‌های هسته‌ای امضا کنند تا از مسابقه شتاب‌زده در توسعه هوش مصنوعی فوق‌هوشمند جلوگیری شود.

به اشتراک بگذارید:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *