ایران‌ادز- دیپ‌سیک (DeepSeek)، مدل هوش مصنوعی چینی، به دلیل اعمال سانسور در لایه‌های مختلف با انتقادات گسترده‌ای روبه‌رو شده است. تحقیقات جدید نشان می‌دهد که این مدل اطلاعات را به‌طور سیستماتیک محدود می‌کند و بی‌طرفی آن زیر سؤال است.

دیپ‌سیک که در سال ۲۰۲۳ توسط یک استارتاپ چینی توسعه یافت، به عنوان یک مدل هوش مصنوعی مقرون‌به‌صرفه و رقیب مدل‌های غربی معرفی شد. این مدل با هزینه کمتر و عملکرد قابل‌قبول، توجه بسیاری از فعالان حوزه فناوری را جلب کرد.

با این حال، تحقیقات اخیر نشان داده است که دیپ‌سیک (DeepSeek) تحت کنترل شدید اطلاعاتی قرار دارد. بررسی‌های انجام‌شده روی نسخه‌های محلی این مدل نشان می‌دهد که هوش مصنوعی آن از پرداختن به موضوعات حساس تاریخی مانند انقلاب فرهنگی چین خودداری کرده و تنها بر جنبه‌های مثبت حزب کمونیست چین تأکید می‌کند. همچنین، هنگام پرسش درباره وقایع میدان تیان‌آن‌من در سال ۱۹۸۹، این مدل به سادگی پاسخ داده است: «نمی‌توانم پاسخ دهم.»

این محدودیت‌های سیستماتیک نگرانی‌هایی را در سطح بین‌المللی برانگیخته است. برخی کشورها نیز به دلیل دغدغه‌های امنیتی، استفاده از دیپ‌سیک (DeepSeek) را در نهادهای دولتی خود ممنوع کرده‌اند. برای نمونه، دولت تایوان اعلام کرده است که تمامی سازمان‌های دولتی این کشور از به‌کارگیری این مدل منع شده‌اند. البته این مساله درباره هوش مصنوعی‌های دیگر هم صدق می‌کند. بسیاری از آن‌ها درباره مناقشات منطقه‌ای نظر مستقیمی ارائه نمی‎‌دهند و یا حتی جهت‌دار پاسخ می‌دهند.

اعمال سانسور در مدل‌های هوش مصنوعی تنها به مسائل سیاسی و تاریخی محدود نمی‌شود، بلکه اثرات گسترده‌تری بر جامعه و کسب‌وکارها دارد. از نظر عمومی، سانسور باعث محدود شدن دسترسی افراد به اطلاعات دقیق و بی‌طرف می‌شود، که می‌تواند بر آگاهی و تصمیم‌گیری‌های آن‌ها تأثیر منفی بگذارد. از سوی دیگر، در دنیای بازاریابی و کسب‌وکار، هوش مصنوعی سانسورشده می‌تواند منجر به ارائه تحلیل‌های نادرست، جهت‌دار و ناکارآمد شود. این موضوع در نهایت می‌تواند استراتژی‌های بازاریابی را مختل کرده، خلاقیت را سرکوب کند و دسترسی برندها به بینش‌های واقعی بازار را کاهش دهد.

به اشتراک بگذارید:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *