DeepSeek تكشف عن طريقة جديدة للاستدلال بالذكاء الاصطناعي

شارك هذه المقالة مع أصدقائك!

أعلنت شركة DeepSeek الصينية الناشئة عن ابتكار تقنية جديدة تهدف إلى تحسين قدرات النماذج اللغوية الكبيرة (LLMs) في الاستدلال السريع والدقيق، وذلك بالتعاون مع باحثين من جامعة “تسينجهوا”  إحدى أرقى الجامعات الصينية.

وبحسب ورقة بحثية نشرت يوم الجمعة على منصة arXiv للأبحاث العلمية، تعتمد التقنية الجديدة على دمج أسلوبين متقدمين يعرفان باسم “نمذجة المكافآت التوليدية” (Generative Reward Modeling – GRM) و”الضبط الذاتي القائم على النقد المبدئي” (Self-principled Critique Tuning)، وهي منهجية مزدوجة تهدف إلى تمكين النماذج من تقديم إجابات أكثر دقة وفاعلية على مختلف أنواع الأسئلة.

أداء متفوق على النماذج المنافسة

وأوضح الباحثون أن النماذج المطورة تحت اسم DeepSeek-GRM أظهرت أداءً تنافسيًا قويًا، متجاوزة العديد من الأساليب المستخدمة حاليًا في توجيه النماذج اللغوية لتتوافق مع تفضيلات المستخدمين. ورغم نية الشركة إتاحة النماذج الجديدة كمصدر مفتوح (Open Source)، لم يتم الإعلان عن موعد رسمي لذلك حتى الآن.

ترقب واسع لإصدار الجيل الجديد من DeepSeek

يأتي هذا الإعلان في وقت يترقب فيه المهتمون بالتكنولوجيا حول العالم إطلاق الجيل الثاني من نموذج الاستدلال الشهير DeepSeek-R1، وسط تكهنات تشير إلى أن الإصدار الجديد، المعروف باسم DeepSeek-R2، قد يُطرح قريبًا. 

وكانت وكالة رويترز قد أفادت بأن الإصدار الجديد قد يظهر هذا الشهر، في ظل سعي الشركة لتعزيز مكانتها المتصاعدة عالميًا، خصوصًا بعد النجاح اللافت لـ R1 الذي أثار اهتمام الأوساط التقنية بسبب كفاءته العالية وتكلفته المنخفضة.

ورغم الصمت الرسمي الذي تلتزمه الشركة حيال هذه التكهنات، فإن تقارير إعلامية صينية نقلت عن حساب لخدمة العملاء في دردشة مع عملاء تجاريين نفيًا لهذه الشائعات، بينما لم تصدر DeepSeek أي توضيحات رسمية حتى لحظة كتابة هذا التقرير.

تركيز على البحث والتطوير وابتعاد عن الأضواء

تأسست DeepSeek في مدينة هانغتشو الصينية عام 2023 على يد رجل الأعمال ليانج وينفنج، الذي يشغل أيضًا منصب رئيس الشركة الأم High-Flyer Quant – صندوق التحوط الذي يمول نشاطات DeepSeek البحثية. وعلى الرغم من شهرتها المتزايدة، تفضل الشركة الابتعاد عن المشهد الإعلامي، مركّزة جهودها على تطوير تقنياتها.

وفي مارس الماضي، أطلقت الشركة تحديثًا جديدًا لنموذجها الأساسي DeepSeek-V3-0324، مؤكدة أنه يتمتع بقدرات استدلال محسنة، وكفاءة أفضل في تطوير واجهات الويب، فضلًا عن أداء متطور في الكتابة باللغة الصينية.

كما قامت في فبراير بإتاحة خمسة مستودعات برمجية كمصدر مفتوح، في خطوة تهدف إلى تعزيز الشفافية وتمكين المطورين من الإسهام في تطوير البرمجيات.

وفي نفس الشهر، نشر مؤسس الشركة دراسة تقنية متقدمة حول مفهوم “التركيز المتناثر الطبيعي” (Native Sparse Attention)، وهي تقنية تهدف إلى زيادة كفاءة النماذج اللغوية في معالجة البيانات الضخمة.

دعم حكومي وظهور سياسي لافت

اللافت أن اسم DeepSeek برز أيضًا في السياق السياسي، حيث شارك مؤسسها ليانغ في ندوة جمعت كبار رواد التقنية الصينيين مع الرئيس شي جين بينغ في بكين، ضمن دعم حكومي واضح للشركات التقنية المحلية في مواجهة القيود الأمريكية المفروضة على قطاع الذكاء الاصطناعي الصيني.

‫0 تعليق

اترك تعليقاً