تیم Qwen از علیبابا مدل جدید Qwen QwQ-32B را با ۳۲ میلیارد پارامتر معرفی کرده است که عملکردی نزدیک به مدل DeepSeek-R1 با ۶۷۱ میلیارد پارامتر (۳۷ میلیارد پارامتر فعال) دارد. این دستاورد نشاندهندهی ظرفیت بالای یادگیری تقویتی (RL) در بهبود عملکرد مدلهای پایه قدرتمند است.
علیبابا با معرفی مدل QwQ-32B با ۳۲ میلیارد پارامتر، توانایی رقابت با مدلهای بزرگتر را نشان داده است. این مدل با یادگیری تقویتی (RL)، مهارت تفکر انتقادی، حل مسئله و استدلال را تقویت کرده است.
مدل QwQ-32B در AIME24 امتیاز ۷۹.۵ گرفته و به امتیاز ۷۹.۸ مدل DeepSeek-R1 نزدیک شده است. این مدل از OpenAI-o1-mini با ۶۳.۶ جلو زده است.
در LiveCodeBench، با امتیاز ۶۳.۴ به امتیاز ۶۵.۹ مدل DeepSeek-R1 نزدیک شده و از OpenAI-o1-mini با ۵۳.۸ بهتر عمل کرده است.
در LiveBench با امتیاز ۷۳.۱، مدل DeepSeek-R1 با ۷۱.۶ و OpenAI-o1-mini با ۵۷.۵ را پشت سر گذاشته است. در IFEval با امتیاز ۸۳.۹ به امتیاز ۸۳.۳ مدل DeepSeek-R1 نزدیک شده و از OpenAI-o1-mini با ۵۹.۱ پیش افتاده است. در BFCL هم با امتیاز ۶۶.۴، مدل DeepSeek-R1 با ۶۲.۸ و OpenAI-o1-mini با ۴۹.۳ را شکست داده است.
علیبابا با این مدل کوچک، به عملکردی در سطح مدلهای بزرگ رسیده است. تیم Qwen اعلام کرده که مقیاسگذاری RL باعث این پیشرفت شده است. این موفقیت، مسیر دستیابی به هوش عمومی مصنوعی (AGI) را هموار کرده است.
علیبابا مدل QwQ-32B را بهصورت منبع باز تحت مجوز Apache 2.0 در Hugging Face و ModelScope منتشر کرده است. کاربران میتوانند از این مدل در Qwen Chat هم استفاده کنند. علیبابا با این دستاورد، جایگاه خود را بهعنوان بازیگری قدرتمند در رقابت جهانی هوش مصنوعی تثبیت کرده است.
شرکت فناوری تبلیغات نکسِن (Nexxen) در تاریخ ۲۴ آوریل ۲۰۲۵ از راهاندازی پلتفرم هوش مصنوعی…
لینکدین برنامه BrandLink خود را توسعه داده است تا به برندها امکان دهد تبلیغات ویدیویی…
یک گزارش تحلیلی از شرکت جهانی WARC نشان میدهد که پایداری اجتماعی و زیستمحیطی به…
نرخنامه طراحان گرافیک ۱۴۰۴ توسط انجمن صنفی طراحان گرافیک ایران برای نیمه اول سال منتشر…
مدل پیشرفته هوش مصنوعی Gemini 2.5 Pro شرکت گوگل موفق شد بازی ویدئویی کلاسیک «Pokémon…
در تازهترین دوره رقابت بینالمللی و معتبر A’ Design Award که در سال ۲۰۲۵ در…