ایرانادز- دیپسیک (DeepSeek)، مدل هوش مصنوعی چینی، به دلیل اعمال سانسور در لایههای مختلف با انتقادات گستردهای روبهرو شده است. تحقیقات جدید نشان میدهد که این مدل اطلاعات را بهطور سیستماتیک محدود میکند و بیطرفی آن زیر سؤال است.
دیپسیک که در سال ۲۰۲۳ توسط یک استارتاپ چینی توسعه یافت، به عنوان یک مدل هوش مصنوعی مقرونبهصرفه و رقیب مدلهای غربی معرفی شد. این مدل با هزینه کمتر و عملکرد قابلقبول، توجه بسیاری از فعالان حوزه فناوری را جلب کرد.
با این حال، تحقیقات اخیر نشان داده است که دیپسیک (DeepSeek) تحت کنترل شدید اطلاعاتی قرار دارد. بررسیهای انجامشده روی نسخههای محلی این مدل نشان میدهد که هوش مصنوعی آن از پرداختن به موضوعات حساس تاریخی مانند انقلاب فرهنگی چین خودداری کرده و تنها بر جنبههای مثبت حزب کمونیست چین تأکید میکند. همچنین، هنگام پرسش درباره وقایع میدان تیانآنمن در سال ۱۹۸۹، این مدل به سادگی پاسخ داده است: «نمیتوانم پاسخ دهم.»
این محدودیتهای سیستماتیک نگرانیهایی را در سطح بینالمللی برانگیخته است. برخی کشورها نیز به دلیل دغدغههای امنیتی، استفاده از دیپسیک (DeepSeek) را در نهادهای دولتی خود ممنوع کردهاند. برای نمونه، دولت تایوان اعلام کرده است که تمامی سازمانهای دولتی این کشور از بهکارگیری این مدل منع شدهاند. البته این مساله درباره هوش مصنوعیهای دیگر هم صدق میکند. بسیاری از آنها درباره مناقشات منطقهای نظر مستقیمی ارائه نمیدهند و یا حتی جهتدار پاسخ میدهند.
اعمال سانسور در مدلهای هوش مصنوعی تنها به مسائل سیاسی و تاریخی محدود نمیشود، بلکه اثرات گستردهتری بر جامعه و کسبوکارها دارد. از نظر عمومی، سانسور باعث محدود شدن دسترسی افراد به اطلاعات دقیق و بیطرف میشود، که میتواند بر آگاهی و تصمیمگیریهای آنها تأثیر منفی بگذارد. از سوی دیگر، در دنیای بازاریابی و کسبوکار، هوش مصنوعی سانسورشده میتواند منجر به ارائه تحلیلهای نادرست، جهتدار و ناکارآمد شود. این موضوع در نهایت میتواند استراتژیهای بازاریابی را مختل کرده، خلاقیت را سرکوب کند و دسترسی برندها به بینشهای واقعی بازار را کاهش دهد.