خبراء يحذرون من افتقاد أحدث نماذج جوجل للذكاء الاصطناعي تفاصيل أساسية حول عوامل الأمان

بعد أسابيع قليلة من إطلاق شركة التكنولوجيا الأمريكية جوجل لأقوى نموذج ذكاء اصطناعي لديها حتى الآن، Gemini 2.5 Pro، نشرت الشركة تقريرًا فنيًا يوضح نتائج تقييماتها الداخلية لميزات الأمان في النموذج. ومع ذلك، يشير الخبراء إلى أن التقرير ليس مفصلاً بما فيه الكفاية، مما يجعل من الصعب تحديد المخاطر التي قد يشكلها النموذج.
ووجد موقع TechCrunch، المتخصص في التكنولوجيا، أن التقارير الفنية للشركات حول نماذج الذكاء الاصطناعي الخاصة بها تقدم معلومات مفيدة – حتى لو كانت غير مرضية في بعض الأحيان ولا يتم نشرها على نطاق واسع دائمًا – في حين ينظر مجتمع الذكاء الاصطناعي إلى هذه التقارير على أنها جهود صادقة لدعم الأبحاث المستقلة وتقييمات السلامة.
ومع ذلك، أعرب العديد من الخبراء الذين تحدث إليهم موقع TechCrunch عن خيبة أملهم لأن التقرير الخاص بنموذج Gemini 5.2 Pro AI كان يفتقر إلى العديد من التفاصيل المهمة. على سبيل المثال، لم يكن هناك أي ذكر لإطار عمل جوجل الأمني، الذي قدمته الشركة العام الماضي لتحديد ميزات الذكاء الاصطناعي المستقبلية التي يمكن أن تسبب “ضررًا خطيرًا”.
وقال بيتر وايلدفورد، المؤسس المشارك لمعهد سياسة واستراتيجية الذكاء الاصطناعي: “هذا التقرير متشعب، ويحتوي فقط على معلومات متفرقة، ويأتي بعد أسابيع من إتاحة النموذج للجمهور”. “من المستحيل التحقق مما إذا كانت جوجل تمتثل لالتزاماتها العامة، وبالتالي من المستحيل تقييم أمان نماذجها.”
وقال توماس وودسايد، المؤسس المشارك لشركة Source AI، إنه في حين أنه مسرور بإصدار جوجل لتقرير Gemini 2.5 Pro، إلا أنه لم يقتنع بالتزام الشركة بتوفير المزيد من تقييمات الأمان في الوقت المناسب. وأشار وودسايد إلى أن جوجل أصدرت آخر نتائج اختبار قدرات جاد في يونيو/حزيران الماضي، لنموذج الذكاء الاصطناعي الذي تم الإعلان عنه في فبراير/شباط من ذلك العام.