أطلقت شركة جوجل ، قبل نحو شهر نموذج الذكاء الاصطناعي المتقدم Gemini 2.5 Pro، واصفة إياه بأنه “أذكى نموذج ذكاء اصطناعي حتى الآن”.
وخلال الإعلان، أكدت جوجل أن النموذج يتفوق على أبرز المنافسين، مثل OpenAI o3 وDeepSeek R1 وClaude، مستندة إلى نتائج اختبارات معيارية أجرتها بنفسها، إلا أن إنجازا جديدا ساهم في تعزيز هذه المزاعم، حيث تمكن نموذج الذكاء الاصطناعي من إنهاء لعبة “بوكيمون بلو” Pokémon Blue الشهيرة التي صدرت عام 1996.
لماذا تعد هذه اللعبة معيارا مهما؟
تعرف “بوكيمون بلو” Pokémon Blue بتعقيداتها في أسلوب اللعب، والمعارك الاستراتيجية، واستكشاف العالم المفتوح، وهي عناصر تمثل تحديات كبيرة لأي نظام ذكاء اصطناعي.
ويتطلب التفوق في هذه اللعبة قدرات على التخطيط طويل المدى، وإدارة الأهداف، والتنقل البصري وهي كفاءات أساسية على طريق الوصول إلى ما يعرف بـ”الذكاء الاصطناعي العام”.
ووفقا لما أعلنته جوجل، تمكن Gemini 2.5 Pro من إتمام اللعبة، ما دفع الرئيس التنفيذي ساندار بيتشاي إلى الاحتفال بالإنجاز عبر منصة إكس (تويتر سابقا)، قائلا: “يا له من إنجاز! أنهى Gemini 2.5 Pro لعبة بوكيمون بلو”.
اللافت أن هذا التحدي لم يطلق رسميا من قبل جوجل، بل نظمه مهندس برمجيات يبلغ من العمر 30 عاما يدعى Joel Z، وهو غير تابع للشركة.
ومع ذلك، أبدى مسؤولو جوجل دعمهم الكبير للمشروع، إذ أشار لوجان كيلباتريك، مدير منتج Google AI Studio، إلى أن Gemini كان “يحرز تقدما رائعا” وقد حصل على شارة النصر الخامسة، بينما لم يتجاوز النموذج المنافس ثلاث شارات.
أداء قوي في البرمجة وتطوير البرمجيات
من بين أبرز مزايا Gemini 2.5 Pro، بحسب جوجل، قدراته المتقدمة في البرمجة، وقد وصفت التحديثات في هذا المجال بأنها “قفزة نوعية مقارنة بإصدار 2.0″، مع وعد بالمزيد من التحسينات لاحقا.
يتميز النموذج بإمكانيات في تطوير تطبيقات الويب التفاعلية، والتحكم في الكود، وتحويله وتحريره، إضافة إلى بناء تطبيقات تعتمد على الوكلاء البرمجيين Agentic Apps.
وفي اختبارات معيارية مخصصة للبرمجة، حقق النموذج نسبة نجاح بلغت 63.8٪ في اختبار SWE-Bench Verified باستخدام إعداد مخصص للوكلاء، ما يعكس كفاءته في المهام البرمجية المعقدة.
في المقابل، لا تزال شركة “أنثروبيك” تسعى إلى تحقيق إنجاز مماثل من خلال نموذج Claude، الذي يخوض تحدي لعبة Pokémon Red، ورغم التقدم الملحوظ، لم يتمكن Claude بعد من إنهاء اللعبة.
ورغم الإنجاز المثير، لا يزال من المبكر اعتبار أن Gemini 2.5 Pro يمثل ذكاء عاما حقيقيا، إذ يتدخل المطور أحيانا لتصحيح بعض الأخطاء أو تقييد تصرفات النموذج مثل الإفراط في استخدام أدوات الهروب داخل اللعبة، وقد أكد أن النموذج لم يتلق أي إرشادات مباشرة أو خطوات توجيهية، باستثناء مرة واحدة لحل خلل معروف.
مع ذلك، تعد قدرة Gemini على التعامل مع لعبة معقدة مثل Pokémon Blue، حتى مع بعض التدخلات، دليلا قويا على الإمكانيات المتنامية للنماذج اللغوية الضخمة عند توظيفها ضمن بيئة مدروسة.