خبراء يحذرون: هل تخفي غوغل مخاطر ذكائها الاصطناعي؟

أثار تقرير السلامة الذي نشرته “غوغل” يوم الخميس حول نموذج الذكاء الاصطناعي الأحدث “Gemini 2.5 Pro” مخاوف عدد من الخبراء، بسبب قلة التفاصيل المتعلقة بالمخاطر المحتملة لهذا النموذج، بحسب موقع “TechCrunch”.
ورغم أن التقرير يُعد خطوة إيجابية نحو الشفافية، إلا أن خبراء اعتبروا أن المعلومات الواردة فيه محدودة، ما يصعّب تقييم مدى التزام “غوغل” بمعايير السلامة التي أعلنتها سابقًا. ومن أبرز الانتقادات غياب أي إشارة إلى إطار السلامة “Frontier Safety Framework” الذي كانت الشركة قد كشفت عنه العام الماضي لتحديد القدرات “عالية الخطورة” للذكاء الاصطناعي.
اتهامات بعدم الالتزام
قال بيتر وايلدفورد، المؤسس المشارك لمعهد سياسات واستراتيجيات الذكاء الاصطناعي: “من المستحيل التحقق مما إذا كانت غوغل تفي بالتزاماتها العامة، وبالتالي من الصعب تقييم سلامة نماذجها”. وأضاف توماس وودسايد، الشريك المؤسس لمشروع “Secure AI”، أن توقيت نشر التقرير جاء متأخراً، ولا يعكس التزامًا واضحًا من الشركة بتقييمات السلامة المنتظمة.
غياب تقارير لنماذج أخرى
لم تنشر “غوغل” حتى الآن تقارير عن نموذج “Gemini 2.5 Flash” الذي أُطلق الأسبوع الماضي، فيما أكد متحدث باسم الشركة أن التقرير “سيصدر قريبًا”. يذكر أن آخر مرة نشرت فيها “غوغل” نتائج تقييمات لـ”القدرات الخطيرة” كانت في حزيران 2024.
واقع عام من ضعف الشفافية
تواجه شركات أخرى اتهامات مشابهة، حيث نشرت “ميتا” تقارير سلامة محدودة بشأن نموذج “Llama 4″، بينما لم تنشر “OpenAI” أي تقييم علني لنموذج “GPT-4.1”.
تحذير من “سباق نحو القاع”
ووصف كيفن بانكستون، كبير مستشاري شؤون حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، هذا التوجه بأنه “سباق نحو القاع”، في ظل تسرّع الشركات لإطلاق نماذجها على حساب الشفافية والسلامة.
وكانت “غوغل” قد تعهّدت للحكومة الأميركية، ودول أخرى، بنشر تقارير علنية عن نماذج الذكاء الاصطناعي “العامة والمهمة”، ما يزيد من حدة التساؤلات حول التزامها الحقيقي بهذه الوعود.