رقیب جدید DeepSeek؛ علی‌بابا از هوش مصنوعی خود رونمایی کرد

شرکت علی‌بابا مدل هوش مصنوعی جدید خود به نام QwQ-32B را معرفی کرده است. این مدل با ۳۲ میلیارد پارامتر طراحی شده و تمرکز آن روی حل مسائل پیچیده با استفاده از یادگیری تقویتی (RL) است. نکته مهم اینجاست که این مدل در عین داشتن کارایی بالا، به منابع پردازشی کمتری نسبت به رقبایی مثل …

۱۷ اسفند , ۱۴۰۳ - 14:00
 0  7
رقیب جدید DeepSeek؛ علی‌بابا از هوش مصنوعی خود رونمایی کرد

شرکت علی‌بابا مدل هوش مصنوعی جدید خود به نام QwQ-32B را معرفی کرده است. این مدل با ۳۲ میلیارد پارامتر طراحی شده و تمرکز آن روی حل مسائل پیچیده با استفاده از یادگیری تقویتی (RL) است. نکته مهم اینجاست که این مدل در عین داشتن کارایی بالا، به منابع پردازشی کمتری نسبت به رقبایی مثل  DeepSeek-R1  نیاز دارد.

این مدل اپن‌سورس است و تحت مجوز Apache 2.0 منتشر شده، به این معنی که شرکت‌ها و توسعه‌دهندگان می‌توانند به راحتی از آن برای مقاصد تجاری و تحقیقاتی استفاده کنند.

رقیب جدید اوپن ای آی و DeepSeek

مدل QwQ  مخفف (Qwen-with-Questions  ) اولین بار در نوامبر ۲۰۲۴ معرفی شد. این مدل برای استدلال منطقی، حل مسائل ریاضی و برنامه‌نویسی بهینه شده است. در آزمایش‌های اولیه، این مدل توانست از مدل o1-preview شرکت اوپن ای آی در زمینه‌های ریاضیات و استدلال علمی بهتر عمل کند، اما در برخی تست‌های برنامه‌نویسی مثل LiveCodeBench هنوز نسبت به اوپن ای آی ضعیف‌تر بود.

با پیشرفت سریع مدل‌های هوش مصنوعی، نیاز به مدل‌هایی که می‌توانند در حین استدلال پاسخ‌های خود را بررسی و بهبود دهند افزایش یافته است. QwQ-32B نیز بر همین اساس توسعه یافته و از روش‌های جدیدی برای بهبود دقت و عملکرد خود بهره می‌برد.

کارایی بالاتر با منابع کمتر

یکی از نکات کلیدی این مدل این است که با مصرف منابع پردازشی کمتر، عملکردی نزدیک به مدل‌های بسیار بزرگ‌تر ارائه می‌دهد. به عنوان مثال، مدل DeepSeek-R1  دارای ۶۷۱ میلیارد پارامتر است، اما QwQ-32B  توانسته با ۳۲ میلیارد پارامتر به سطح عملکردی مشابهی برسد. این یعنی مدل جدید علی‌بابا برای اجرا به کارت‌های گرافیکی با ۲۴ گیگابایت حافظه نیاز دارد، در حالی که DeepSeek-R1 برای اجرا به ۱۶ کارت گرافیک A100 با بیش از ۱۵۰۰ گیگابایت حافظه نیازمند است.

بهبود عملکرد با یادگیری تقویتی

برای افزایش دقت، مدل در دو مرحله یادگیری تقویتی آموزش دیده است:

  1. تمرکز بر ریاضیات و کدنویسی: مدل با یک سیستم بررسی دقت ریاضی و سرور اجرای کد آموزش دیده تا پاسخ‌های درست را تقویت کند.
  2. بهبود کلی توانایی‌های مدل: در این مرحله، مدل با روش‌های مبتنی بر پاداش، دقت در پیروی از دستورالعمل‌ها و استدلال انسانی را بهبود بخشیده است.

کاربردهای تجاری و مزایای مدل

QwQ-32B  می‌تواند برای تحلیل داده، برنامه‌ریزی استراتژیک، توسعه نرم‌افزار و خودکارسازی فرآیندهای هوشمند مورد استفاده قرار گیرد. همچنین، اپن‌سورس بودن آن به شرکت‌ها امکان می‌دهد تا آن را برای نیازهای خاص خود شخصی‌سازی کنند.

برخی کاربران ممکن است به دلیل اینکه این مدل توسط یک شرکت چینی توسعه داده شده، نگران امنیت داده‌ها و بی‌طرفی هنگان استفاده از آنها باشند، اما چون می‌توان آن را از پلتفرم Hugging Face  دانلود و به‌صورت آفلاین اجرا کرد، این نگرانی‌ها تا حدی برطرف می‌شود.

واکنش جامعه هوش مصنوعی

بعد از انتشار QwQ-32B، بسیاری از محققان و توسعه‌دهندگان هوش مصنوعی در شبکه‌های اجتماعی نظرات خود را درباره آن منتشر کردند:

  • یکی از کارمندان Hugging Face اعلام کرده که این مدل در پردازش سریع است و حتی از مدل‌های اوپن ای آیو DeepSeek-R1 بهتر عمل می‌کند.
  • یک تحلیل‌گر فناوری و هوش مصنوعی تحت تأثیر عملکرد مدل قرار گرفته و گفته: “Qwen غوغا کرده است!”
  • Yuchen Jin ، هم‌بنیان‌گذار Hyperbolic Labs) ) نیز تأکید کرده که مدل‌های کوچک‌تر به شدت قدرتمند شده‌اند.

برنامه‌های آینده علی‌بابا

تیم Qwen  قصد دارد در آینده روی بهبود مدل‌های مبتنی بر یادگیری تقویتی، توسعه مدل‌های پایه قوی‌تر و حرکت به سمت هوش مصنوعی عمومی (AGI) کار کند.

مدل QwQ-32B  نشان‌دهنده تغییر بزرگی در رویکرد توسعه هوش مصنوعی است و احتمالاً در آینده، مدل‌های کوچک‌تر اما قدرتمندتر، جایگزین مدل‌های عظیم و پرهزینه خواهند شد

واکنش شما چیست؟

like

dislike

love

funny

angry

sad

wow