افتتحت شركة ديب سيك الصينية عام 2026 بنشر ورقة بحثية تقنية جديدة، شارك في تأليفها مؤسس الشركة ليانغ وينفنغ، توضح توجه الشركة لإعادة تصميم البنية التحتية لتدريب نماذج الذكاء الاصطناعي الضخمة، بهدف خفض التكاليف مع الحفاظ على الأداء التنافسي.
الورقة، المنشورة على منصة “arXiv”، تقدّم منهجية جديدة باسم Manifold-Constrained Hyper-Connections (mHC)، التي تسمح بتدريب نماذج تضم 3 مليارات و9 مليارات و27 مليار معامل بشكل مستقر وواسع النطاق، مع زيادة ضئيلة جدًا في العبء الحوسبي.
وتتيح mHC تدريبًا أكثر كفاءة ومرونة مقارنة بالحلول التقليدية المستندة إلى الترابطات الفائقة، من خلال إدخال قيود رياضية (Manifold Constraints) تساعد على تحسين استهلاك الموارد، وهي خطوة تعتبر تطويرًا على أفكار بايت دانس وتحسينًا على بنية ResNet الشهيرة.
ويشير خبراء إلى أن أوراق ديب سيك البحثية غالبًا ما تسبق الإعلان عن نماذج جديدة للشركة، ومن المتوقع أن تطلق الشركة نموذجها التالي قبل عطلة رأس السنة الصينية في منتصف فبراير، بعد نجاح نموذجها البارز R1 العام الماضي.
كما تعكس الورقة البحثية استمرار ليانغ وينفنغ في المشاركة المباشرة بالأبحاث الجوهرية للشركة، رغم حفاظه على ظهور إعلامي محدود، وهو ما يظهر التزامه بالتوجهات التقنية العميقة.
وتؤكد خطوة ديب سيك أن سباق الذكاء الاصطناعي في 2026 لن يكون حول حجم الحوسبة فقط، بل حول القدرة على بناء نماذج أذكى وأكثر كفاءة بتكلفة أقل.

- المصدر :
- العربية

