مطالعهای جدید نشان میدهد که چتباتهای هوش مصنوعی مانند ChatGPT، Copilot، Gemini و Perplexity در پاسخ به سؤالات مرتبط با اخبار و رویدادهای جاری، اغلب دچار خطاهای فاحش و تحریف اطلاعات میشوند.
مطالعهای که اخیراً توسط بیبیسی منتشر شده است، نشان میدهد که دستیارهای هوش مصنوعی در پاسخ به سؤالات مرتبط با اخبار، اغلب دچار خطاهای فاحش و تحریف اطلاعات میشوند. این تحقیق که بر روی چتباتهایی مانند ChatGPT، Perplexity، Microsoft Copilot و Google Gemini انجام شده، نشان میدهد که بیش از نیمی از پاسخهای تولیدشده توسط این هوشهای مصنوعی دارای مشکلات جدی هستند.
یافتههای کلیدی این مطالعه عبارتند از:
-
۵۱٪ از پاسخها دارای مشکلات اساسی: بیش از نیمی از پاسخهای تولیدشده توسط هوشهای مصنوعی دارای مشکلات جدی بودند.
-
۱۹٪ از پاسخها حاوی اطلاعات نادرست: ۱۹٪ از پاسخها که به محتوای بیبیسی استناد کرده بودند، حاوی اظهارات، اعداد و تاریخهای نادرست بودند.
-
۱۳٪ از نقلقولها تحریفشده یا جعلی: ۱۳٪ از نقلقولهای ارائهشده از مقالات بیبیسی یا تغییر یافته بودند یا اصلاً در مقاله مورد استناد وجود نداشتند.
نمونههایی از خطاهای گزارششده:
-
اشتباه در نقلقولها: برخی از چتباتها نقلقولهایی ارائه دادند که یا تحریفشده بودند یا اصلاً در مقاله مورد استناد وجود نداشتند.
-
اطلاعات نادرست دربارهٔ مشاغل عمومی: برخی از چتباتها بهاشتباه اعلام کردند که ریشی سوناک هنوز نخستوزیر بریتانیا است یا نیکولا استرجن هنوز نخستوزیر اسکاتلند است.
-
مشاوره نادرست دربارهٔ ویپینگ: برخی از چتباتها مشاوره نادرستی دربارهٔ ویپینگ ارائه دادند که با توصیههای سازمانهای بهداشتی مغایرت داشت.
این یافتهها نگرانیهایی را دربارهٔ دقت و صحت اطلاعات تولیدشده توسط هوشهای مصنوعی در زمینه اخبار و رویدادهای جاری ایجاد کرده است. مدیرعامل بیبیسی، دبورا ترنِس، بر لزوم همکاری بین صنعت اخبار، شرکتهای فناوری و دولتها برای رسیدگی به این مشکلات تأکید کرده است.
این یافتهها برای فعالان حوزه بازاریابی اهمیت ویژهای دارد؛ زیرا استفاده نادرست از هوش مصنوعی در تولید محتوا میتواند به کاهش اعتماد مخاطبان و آسیب به اعتبار برند منجر شود. اطمینان از دقت و صحت اطلاعات ارائهشده توسط ابزارهای هوش مصنوعی، برای حفظ ارتباط مؤثر با مشتریان و ارتقاء تجربه آنها ضروری است.