مطالعه‌ای جدید نشان می‌دهد که چت‌بات‌های هوش مصنوعی مانند ChatGPT، Copilot، Gemini و Perplexity در پاسخ به سؤالات مرتبط با اخبار و رویدادهای جاری، اغلب دچار خطاهای فاحش و تحریف اطلاعات می‌شوند.

مطالعه‌ای که اخیراً توسط بی‌بی‌سی منتشر شده است، نشان می‌دهد که دستیارهای هوش مصنوعی در پاسخ به سؤالات مرتبط با اخبار، اغلب دچار خطاهای فاحش و تحریف اطلاعات می‌شوند. این تحقیق که بر روی چت‌بات‌هایی مانند ChatGPT، Perplexity، Microsoft Copilot و Google Gemini انجام شده، نشان می‌دهد که بیش از نیمی از پاسخ‌های تولیدشده توسط این هوش‌های مصنوعی دارای مشکلات جدی هستند.

یافته‌های کلیدی این مطالعه عبارتند از:

  • ۵۱٪ از پاسخ‌ها دارای مشکلات اساسی: بیش از نیمی از پاسخ‌های تولیدشده توسط هوش‌های مصنوعی دارای مشکلات جدی بودند.

  • ۱۹٪ از پاسخ‌ها حاوی اطلاعات نادرست: ۱۹٪ از پاسخ‌ها که به محتوای بی‌بی‌سی استناد کرده بودند، حاوی اظهارات، اعداد و تاریخ‌های نادرست بودند.

  • ۱۳٪ از نقل‌قول‌ها تحریف‌شده یا جعلی: ۱۳٪ از نقل‌قول‌های ارائه‌شده از مقالات بی‌بی‌سی یا تغییر یافته بودند یا اصلاً در مقاله مورد استناد وجود نداشتند.

نمونه‌هایی از خطاهای گزارش‌شده:

  • اشتباه در نقل‌قول‌ها: برخی از چت‌بات‌ها نقل‌قول‌هایی ارائه دادند که یا تحریف‌شده بودند یا اصلاً در مقاله مورد استناد وجود نداشتند.

  • اطلاعات نادرست دربارهٔ مشاغل عمومی: برخی از چت‌بات‌ها به‌اشتباه اعلام کردند که ریشی سوناک هنوز نخست‌وزیر بریتانیا است یا نیکولا استرجن هنوز نخست‌وزیر اسکاتلند است.

  • مشاوره نادرست دربارهٔ ویپینگ: برخی از چت‌بات‌ها مشاوره نادرستی دربارهٔ ویپینگ ارائه دادند که با توصیه‌های سازمان‌های بهداشتی مغایرت داشت.

این یافته‌ها نگرانی‌هایی را دربارهٔ دقت و صحت اطلاعات تولیدشده توسط هوش‌های مصنوعی در زمینه اخبار و رویدادهای جاری ایجاد کرده است. مدیرعامل بی‌بی‌سی، دبورا ترنِس، بر لزوم همکاری بین صنعت اخبار، شرکت‌های فناوری و دولت‌ها برای رسیدگی به این مشکلات تأکید کرده است.

این یافته‌ها برای فعالان حوزه بازاریابی اهمیت ویژه‌ای دارد؛ زیرا استفاده نادرست از هوش مصنوعی در تولید محتوا می‌تواند به کاهش اعتماد مخاطبان و آسیب به اعتبار برند منجر شود. اطمینان از دقت و صحت اطلاعات ارائه‌شده توسط ابزارهای هوش مصنوعی، برای حفظ ارتباط مؤثر با مشتریان و ارتقاء تجربه آن‌ها ضروری است.

به اشتراک بگذارید:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *