DeepSeek زمینه را برای "معماری نسل بعدی" فراهم میکند - آخرین بهروزرسانی مدل، DSA را میپذیرد
Saritha Rai
30 سپتامبر 2025
قیمت ابزارهای نرمافزاری را نصف میکند و وارد رقابت جذب کاربر میشود
آخرین بهروزرسانی DeepSeek را، محصولات هواوی پشتیبانی می کنند.
استارتاپ هوش مصنوعی چینی DeepSeek مدل آزمایشی هوش مصنوعی خود را در 29ام بهروزرسانی کرد و آن را گامی به سوی هوش مصنوعی نسل بعدی نامید.
این شرکت از پلتفرم DeepSeek-V3.1-Exp رونمایی کرد و توضیح داد که از تکنیک جدیدی به نام "DeepSeek Sparse Attention (DSA) " در پلتفرم Hugging Face خود استفاده میکند که به کاربران امکان انتشار و اشتراکگذاری مدلهای هوش مصنوعی را میدهد. این شرکت مستقر در هانگژو، آخرین نسخه را "گامی میانی به سوی معماری نسل بعدی ما" توصیف کرد و اعلام کرد که با چندین تولیدکننده نیمههادی چینی در این مدل همکاری میکند.
مدل پیشگامانه R1 DeepSeek در بهار امسال در سیلیکون ولی سر و صدا به پا کرد. این شرکت در حال تلاش برای تولید محصول جدیدی است تا تسلط چین را در حوزه هوش مصنوعی تقویت کند. بر اساس نسخه قبلی ۳.۱، آخرین نسخه، مکانیزمی را برای کاوش و بهینهسازی آموزش و عملکرد هوش مصنوعی معرفی میکند. به گفته این شرکت، این نشاندهنده نتایج تحقیقات در مورد روشهای بهبود کارایی هنگام پردازش توالیهای متنی طولانی است.
DeepSeek همچنین اعلام کرد که قیمت ابزارهای نرمافزاری خود را به نصف کاهش خواهد داد و در رقابت کاهش قیمت برای جذب کاربران قرار خواهد گرفت.
در همان روز، شرکت فناوریهای هوآوی چین اعلام کرد که محصولاتش از آخرین بهروزرسانی DeepSeek پشتیبانی خواهند کرد. منابع همچنین فاش کردند که هوآوی در حال آمادهسازی برای گسترش قابل توجه تولید نیمههادیهای هوش مصنوعی پیشرفته خود است.
طبق گفته DeepSeek، آخرین نسخه مدلهای آن از معماری FP8 (Floating Point 8) پشتیبانی میکند و این شرکت همچنین در حال کار بر روی پشتیبانی از BF16 است. هر دو اصطلاح فنی برای ذخیره مقادیر عددی در رایانهها در هوش مصنوعی/یادگیری ماشین هستند. در تئوری، استفاده از FP8 مصرف حافظه را کاهش داده و محاسبات را سرعت میبخشد.
از آنجا که مدلهای هوش مصنوعی تعداد زیادی از مقادیر عددی را مدیریت میکنند، استفاده از فرمتهای کوچکتر مانند FP8 یا BF16 در ایجاد تعادل بین سرعت و دقت مؤثر است و اجرای مدلهای بزرگ را بر روی سختافزار محدود آسانتر میکند. اگرچه FP8 دقت بسیار بالایی ارائه نمیدهد، اما برای بسیاری از وظایف هوش مصنوعی مفید تلقی میشود. گفته میشود BF16 (Brain Floating Point 16) دقت بالاتری را برای آموزش مدلهای هوش مصنوعی به ارمغان میآورد.