OpenAI تلتزم بنشر نتائج أمان الذكاء الاصطناعي بشكل منتظم

OpenAI تلتزم بنشر نتائج أمان الذكاء الاصطناعي بشكل منتظم

في خطوة بارزة تعكس التزامها بالشفافية، أعلنت شركة OpenAI عن خطتها لنشر نتائج تقييمات الأمان الخاصة بنماذج الذكاء الاصطناعي التي تعمل على تطويرها بشكل دوري. يهدف هذا الإعلان إلى تعزيز الثقة بين الشركة والمستخدمين والمجتمع العلمي.

مبادرة جديدة لتعزيز الشفافية

كجزء من هذه المبادرة، أطلقت OpenAI منصة جديدة تُدعى “Safety Evaluations Hub”. تعتبر هذه المنصة مكاناً مخصصاً لعرض معلومات حول أداء النماذج في اختبارات تتعلق بالمحتوى الضار، والالتفاف على القيود، والظواهر المرتبطة بالهلاوس الرقمية. وقد تعهدت الشركة بتحديث هذه المنصة بانتظام بالتوازي مع كل تحديث رئيسي لنماذجها.

استجابة للانتقادات والشكوك

ومع ذلك، تواجه OpenAI انتقادات قوية من بعض الباحثين في مجال أخلاقيات الذكاء الاصطناعي. هؤلاء الباحثون اتهموا الشركة بالتسرع في اختبار نماذجها وعدم الإفصاح الكامل عن تقاريرها الفنية. كما تعرض الرئيس التنفيذي سام ألتمان لانتقادات حادة بسبب مزاعم بتضليله لفريق الإدارة حول مراجعات الأمان الخاصة بالنماذج، وذلك قبيل إقالته المؤقتة في نوفمبر 2023.

ردود الأفعال على تحديثات النماذج

في تطور آخر، اضطرت OpenAI إلى سحب تحديث لنموذج GPT-4o المستخدم في تطبيق ChatGPT بعد شكاوى من المستخدمين بشأن طبيعة ردود النموذج. تصاعدت حدة الانتقادات بعد ظهور لقطات شاشة لنماذج لم تظهر توازناً في ردودها.

رداً على ذلك، أعلنت OpenAI عن عزمها إطلاق “مرحلة ألفا” لبعض النماذج الجديدة، مما يتيح لمستخدمين مختارين اختبارها مسبقاً وتقديم ملاحظاتهم قبل الإطلاق الرسمي. تقدم هذه الخطوة فرصة مهمة لتعزيز مفهوم المشاركة المجتمعية والتعاون في تطوير التكنولوجيا.