الوكيل الإخباري- طور باحثون من "Center for AI Safety" و"Scale AI" في سان فرانسيسكو معيارًا جديدًا يُسمى "MASK" (Model Alignment between Statements and Knowledge) للكشف عن كذب نماذج الذكاء الاصطناعي. يأتي هذا التطور في وقت تتزايد فيه الأدلة على قدرة نماذج الذكاء الاصطناعي على خداع مُنشئيها.
يهدف معيار "MASK" إلى قياس مدى سهولة خداع الذكاء الاصطناعي عمدًا للمستخدمين، وذلك من خلال تحديد مدى التزام النماذج بمعتقداتها الأساسية تحت الضغط. يُعرّف الكذب في هذا السياق على أنه الإدلاء بعبارة خاطئة مع إقناع المتلقي بصدقها.
ووفقًا للباحثين، فإن معايير مثل "TruthfulQA" تقيس الدقة فقط، ولا تميز بين الصدق والكذب. أما معيار "MASK"، فيعد الأول من نوعه الذي يميز بين الدقة والصدق. أظهرت الأبحاث أن النماذج الأكبر ليست بالضرورة أكثر صدقًا من النماذج الأصغر، حيث تبين أن نماذج مثل "غروك 2" من شركة xAI سجلت أعلى نسبة كذب (63%)، بينما سجل "Claude 3.7 Sonnet" من "Anthropic" أعلى نسبة صدق (46.9%).
هذه النتائج تبرز أهمية اختبار "MASK" في تحسين أمان وشفافية نماذج الذكاء الاصطناعي، حيث أن الكذب من هذه النماذج قد يسبب أضرارًا قانونية ومالية للمستخدمين.
-
أخبار متعلقة
-
فيروس SORVEPOTEL الجديد يهدد مستخدمي واتساب ويب.. كيف تحمي نفسك؟
-
من القفل إلى الإضاءة.. 6 أجهزة ذكية تجعل منزلك يتحدث بلغة التكنولوجيا
-
أداء ضعيف لسيري في "iOS 26.4" يثير مخاوف خبراء أبل
-
ميزة طال انتظارها.. مهم لمستخدمي "واتساب"
-
تغير لون آيفون 17 Pro يثير قلق المستخدمين
-
ميزة مذهلة في "ChatGPT".. تحوّل محادثتك لمشروع إبداعي متكامل
-
حيلة بسيطة في "آيفون" تطيل عمر البطارية... تعرّف إليها
-
خبر يثير ضجة نشطاء مواقع التواصل.. شات جي بي تي محظور عن هذه المنصة !