«ثورة في عالم البرمجة»: “ديب سيك” تُطلق نموذجًا مبتكرًا يخفض تكاليف واجهات البرمجة للمطورين بنسبة 50%

أطلقت شركة ديب سيك (DeepSeek) الصينية نموذجًا تجريبيًا جديدًا للذكاء الاصطناعي، أطلق عليه اسم V3.2-exp، ويتميز هذا النموذج بتقنية “الاهتمام المتناثر” (Sparse Attention) المبتكرة، والتي تهدف إلى تقليل تكاليف الاستدلال إلى النصف عند معالجة النصوص الطويلة.

نظام “الاهتمام المتناثر” المبتكر

كشفت ديب سيك عن هذا النموذج الجديد على منصة Hugging Face، مصحوبًا بورقة بحثية مفصلة منشورة على GitHub، ويستخدم النموذج نظامًا متطورًا يعتمد على وحدة “مُفهرس البرق” لتحديد أولويات المقاطع الأكثر أهمية في النص، ثم يقوم نظام “اختيار الرموز الدقيقة” بانتقاء الكلمات الرئيسية لمعالجتها ضمن نافذة الانتباه.

خفض استهلاك الموارد مع الحفاظ على الكفاءة

تتيح هذه التقنية معالجة كميات هائلة من البيانات بكفاءة عالية واستهلاك أقل للموارد، وذلك بحسب تقرير نشره موقع “تك كرانش” واطلعت عليه “العربية Business”.

تخفيض تكاليف واجهات برمجة التطبيقات

أظهرت الاختبارات الأولية أن النموذج الجديد قادر على تخفيض تكلفة استدعاء واجهات برمجة التطبيقات (API) بنسبة تصل إلى 50%، ومع ذلك، أكدت الشركة على ضرورة إجراء المزيد من التجارب المستقلة للتحقق من هذه النتائج.

جهود ديب سيك في تطوير الذكاء الاصطناعي

يأتي هذا الابتكار في إطار جهود ديب سيك المستمرة لتطوير طرق أكثر كفاءة لتشغيل بنية المحول (Transformer)، وهي البنية الأساسية المستخدمة في معظم نماذج الذكاء الاصطناعي الحديثة، وكانت الشركة قد أثارت اهتمامًا واسعًا في وقت سابق من هذا العام بإطلاق نموذج R1، الذي تم تدريبه بتكلفة أقل بكثير مقارنة بمنافسيها الأمريكيين.

تقليل تكاليف تشغيل الذكاء الاصطناعي

يرى المحللون أن نهج “الاهتمام المتناثر” قد لا يثير نفس القدر من الضجة التي أحدثها نموذج R1، لكنه يمثل خطوة عملية هامة تساعد شركات التقنية الكبرى، خاصة في الولايات المتحدة، على تقليل تكاليف تشغيل الذكاء الاصطناعي مع الحفاظ على مستوى عالٍ من الكفاءة.

جدول مقارنة بين نموذج V3.2-exp والنماذج الأخرى

الميزة نموذج V3.2-exp النماذج الأخرى
آلية الاهتمام الاهتمام المتناثر (Sparse Attention) قد تختلف (مثل الاهتمام الكامل)
تكلفة الاستدلال أقل بنسبة تصل إلى 50% للنصوص الطويلة. أعلى
كفاءة معالجة النصوص الطويلة أعلى أقل