DeepSeek زمینه را برای "معماری نسل بعدی" فراهم می‌کند - آخرین به‌روزرسانی مدل، DSA را می‌پذیرد

Saritha Rai

30 سپتامبر 2025

قیمت ابزارهای نرم‌افزاری را نصف می‌کند و وارد رقابت جذب کاربر می‌شود

آخرین به‌روزرسانی DeepSeek را، محصولات هواوی پشتیبانی می کنند.

استارتاپ هوش مصنوعی چینی DeepSeek مدل آزمایشی هوش مصنوعی خود را در 29ام به‌روزرسانی کرد و آن را گامی به سوی هوش مصنوعی نسل بعدی نامید.

این شرکت از پلتفرم DeepSeek-V3.1-Exp رونمایی کرد و توضیح داد که از تکنیک جدیدی به نام "DeepSeek Sparse Attention (DSA) "  در پلتفرم Hugging Face خود استفاده می‌کند که به کاربران امکان انتشار و اشتراک‌گذاری مدل‌های هوش مصنوعی را می‌دهد. این شرکت مستقر در هانگژو، آخرین نسخه را "گامی میانی به سوی معماری نسل بعدی ما" توصیف کرد و اعلام کرد که با چندین تولیدکننده نیمه‌هادی چینی در این مدل همکاری می‌کند.

مدل پیشگامانه R1 DeepSeek در بهار امسال در سیلیکون ولی سر و صدا به پا کرد. این شرکت در حال تلاش برای تولید محصول جدیدی است تا تسلط چین را در حوزه هوش مصنوعی تقویت کند. بر اساس نسخه قبلی ۳.۱، آخرین نسخه، مکانیزمی را برای کاوش و بهینه‌سازی آموزش و عملکرد هوش مصنوعی معرفی می‌کند. به گفته این شرکت، این نشان‌دهنده نتایج تحقیقات در مورد روش‌های بهبود کارایی هنگام پردازش توالی‌های متنی طولانی است.

DeepSeek همچنین اعلام کرد که قیمت ابزارهای نرم‌افزاری خود را به نصف کاهش خواهد داد و در رقابت کاهش قیمت برای جذب کاربران قرار خواهد گرفت.

در همان روز، شرکت فناوری‌های هوآوی چین اعلام کرد که محصولاتش از آخرین به‌روزرسانی DeepSeek پشتیبانی خواهند کرد. منابع همچنین فاش کردند که هوآوی در حال آماده‌سازی برای گسترش قابل توجه تولید نیمه‌هادی‌های هوش مصنوعی پیشرفته خود است.

طبق گفته DeepSeek، آخرین نسخه مدل‌های آن از معماری FP8 (Floating Point 8) پشتیبانی می‌کند و این شرکت همچنین در حال کار بر روی پشتیبانی از BF16 است. هر دو اصطلاح فنی برای ذخیره مقادیر عددی در رایانه‌ها در هوش مصنوعی/یادگیری ماشین هستند. در تئوری، استفاده از FP8 مصرف حافظه را کاهش داده و محاسبات را سرعت می‌بخشد.

از آنجا که مدل‌های هوش مصنوعی تعداد زیادی از مقادیر عددی را مدیریت می‌کنند، استفاده از فرمت‌های کوچکتر مانند FP8 یا BF16 در ایجاد تعادل بین سرعت و دقت مؤثر است و اجرای مدل‌های بزرگ را بر روی سخت‌افزار محدود آسان‌تر می‌کند. اگرچه FP8 دقت بسیار بالایی ارائه نمی‌دهد، اما برای بسیاری از وظایف هوش مصنوعی مفید تلقی می‌شود. گفته می‌شود BF16 (Brain Floating Point 16) دقت بالاتری را برای آموزش مدل‌های هوش مصنوعی به ارمغان می‌آورد.