مدلهای استدلالی جدیدی که در چتباتها استفاده میشوند، به دلیل نرخ بالاتر توهمات، نتایج دقیقتری ارائه نمیدهند.
این پدیده، که به «توهمات هوش مصنوعی» معروف است، به تولید اطلاعات نادرست یا گمراهکننده توسط مدلهای زبانی بزرگ اطلاق میشود که بهصورت قاطعانه و بهظاهر معتبر ارائه میشوند.
بر اساس تحقیقات اخیر، این توهمات بهویژه در زمینههایی مانند پزشکی، حقوق و روزنامهنگاری که دقت اطلاعات حیاتی است، نگرانیهایی ایجاد کرده است. برای مقابله با این مشکل، روشهایی مانند «تولید تقویتشده با بازیابی اطلاعات» (RAG) و «استدلال خودکار» بهکار گرفته شدهاند. بهعنوان مثال، آمازون از استدلال خودکار برای کاهش توهمات در زمینههایی مانند امنیت سایبری و صنایع دارویی استفاده میکند.
با این حال، برخی پژوهشگران معتقدند که توهمات در مدلهای زبانی بزرگ اجتنابناپذیر هستند. مطالعهای در سال ۲۰۲۴ نشان داد که بهدلیل محدودیتهای ذاتی این مدلها، نمیتوان بهطور کامل از بروز توهمات جلوگیری کرد.
در نتیجه، در حالی که تلاشها برای کاهش توهمات ادامه دارد، به نظر میرسد که این پدیده بهعنوان یکی از چالشهای اساسی در توسعه و استفاده از هوش مصنوعی باقی خواهد ماند.