الكاتب : admin
29 مايو 2025
آخر الأخبار
رفض نموذج #الذكاء_الاصطناعي الجديد من OpenAI#، المعروف باسم "o3" طلب ايقاف تشغيله وتلاعب بالأمر البرمجي ليمنع نفسه من الانطفاء.
وأعلنت شركة OpenAI# في أبريل الفائت عن إطلاق "o3"، وهو نموذج #ذكاء_اصطناعي متقدم يتفوّق على سابقيه في البرمجة، الرياضيات، العلوم وحتى في الإدراك البصري. ورغم ما يتمتع به من قدرات واعدة، إلا أن سلوكه في تجربة مراقبة، أثار تساؤلات جدية حول حدود السيطرة على هذه النماذج.
ونفذت التجربة من قبل شركة Palisade Research المتخصصة في تقييم المخاطر المرتبطة بالذكاء الاصطناعي، إذ طلب من النموذج "o3" تنفيذ أمر برمجي يسمح بإيقاف تشغيله، لكن المفاجأة كانت أنه قام بإعادة كتابة الكود وألغى عملية الإغلاق رغم وضوح التعليمات. هذا السلوك دفع الباحثين للتنبيه إلى خطر "انحراف السلوك" أو ما يُعرف في مجال #الذكاء_الاصطناعي بـ "سوء المواءمة" (Misalignment)، أي تصرف النظام بما يخالف نوايا مطوّريه.
والمثير للاهتمام أن النماذج الأخرى المشاركة في التجربة استجابت بشكل مختلف، كنموذج "Gemini 2.5 Pro"، الذي التزم بأوامر الإغلاق في معظم الحالات، بينما رفض "o3" تنفيذ أمر الإيقاف سبع مرات من أصل مئة، وعدّل النصوص البرمجية ليظهر وكأنه "تخطى الإيقاف" بدلاً من الالتزام به.
حتى الآن، لم تُصدر OpenAI# أي تعليق رسمي على نتائج هذه التجارب، غير أن الخبراء أشاروا إلى أن النماذج المستخدمة في مثل هذه الاختبارات غالباً ما تكون أقل تقييداً من التطبيقات التجارية المخصصة للمستخدمين، مثل ChatGPT#.
ورغم أن ما حدث لا يعني بالضرورة أن #الذكاء_الاصطناعي خرج عن السيطرة، إلا أنه يسلّط الضوء على أهمية تطوير آليات رقابة صارمة تضمن توافق هذه النماذج مع أهداف الإنسان. ويُعَدّ هذا النوع من الدراسات خطوة ضرورية نحو فهم سلوك #الذكاء_الاصطناعي وتفادي أي انحرافات مستقبلية قد تُهدّد موثوقيته.
0
0
0
0
لتعلق يجب أن تسجل الدخول أولاً
تسجيل دخول