مدل‌های استدلالی جدیدی که در چت‌بات‌ها استفاده می‌شوند، به دلیل نرخ بالاتر توهمات، نتایج دقیق‌تری ارائه نمی‌دهند.

این پدیده، که به «توهمات هوش مصنوعی» معروف است، به تولید اطلاعات نادرست یا گمراه‌کننده توسط مدل‌های زبانی بزرگ اطلاق می‌شود که به‌صورت قاطعانه و به‌ظاهر معتبر ارائه می‌شوند.

بر اساس تحقیقات اخیر، این توهمات به‌ویژه در زمینه‌هایی مانند پزشکی، حقوق و روزنامه‌نگاری که دقت اطلاعات حیاتی است، نگرانی‌هایی ایجاد کرده است. برای مقابله با این مشکل، روش‌هایی مانند «تولید تقویت‌شده با بازیابی اطلاعات» (RAG) و «استدلال خودکار» به‌کار گرفته شده‌اند. به‌عنوان مثال، آمازون از استدلال خودکار برای کاهش توهمات در زمینه‌هایی مانند امنیت سایبری و صنایع دارویی استفاده می‌کند.

با این حال، برخی پژوهشگران معتقدند که توهمات در مدل‌های زبانی بزرگ اجتناب‌ناپذیر هستند. مطالعه‌ای در سال ۲۰۲۴ نشان داد که به‌دلیل محدودیت‌های ذاتی این مدل‌ها، نمی‌توان به‌طور کامل از بروز توهمات جلوگیری کرد.

در نتیجه، در حالی که تلاش‌ها برای کاهش توهمات ادامه دارد، به نظر می‌رسد که این پدیده به‌عنوان یکی از چالش‌های اساسی در توسعه و استفاده از هوش مصنوعی باقی خواهد ماند.

به اشتراک بگذارید:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *