الوكيل الإخباري - اعتذرت شركة فيسبوك عن حادثة قامت فيها أنظمتها للذكاء الاصطناعي بتسمية مقطع فيديو لرجال سود بأنه مقطع فيديو لقرود، واصفة إياه بأنه خطأ غير مقبول وإنها تبحث في ميزة التوصية لمنع حدوث ذلك مرة أخرى.
وكما ذكرت صحيفة نيويورك تايمز، فإن المستخدمين الذين شاهدوا مقطع الفيديو يوم 27 يونيو الذي نشرته صحيفة البريطانية ديلي ميل تلقوا مطالبة تلقائية تسأل عما إذا كانوا يريدون الاستمرار في مشاهدة مقاطع فيديو عن القرود.
وقال متحدث باسم الشركة: إن فيسبوك عطلت ميزة توصية الموضوع بالكامل بمجرد أن أدركت ما كان يحدث. ونعتذر لأي شخص قد يكون قد رأى هذه التوصيات المسيئة.
أضاف المتحدث: من الواضح أن هذا خطأ غير مقبول. وتحقق الشركة في السبب لمنع حدوث السلوك مرة أخرى. وكما قلنا، بينما أجرينا تحسينات على الذكاء الاصطناعي لدينا، نعلم أنه ليس مثاليًا. ولدينا المزيد من التقدم الذي يتعين علينا تحقيقه.
وخضعت جوجل وأمازون وشركات تقنية أخرى للتدقيق لسنوات بسبب التحيز داخل أنظمة الذكاء الاصطناعي، لا سيما فيما يتعلق بقضايا العرق.
وأظهرت الدراسات أن تقنية التعرف على الوجه متحيزة ضد الأشخاص الملونين ولديها مشكلة أكبر في التعرف عليهم. مما يؤدي إلى حوادث تعرض فيها السود للتمييز أو الاعتقال بسبب خطأ في الحاسب.
وفي عام 2015، اعتذرت جوجل بعد أن قام تطبيقها للصور بوضع علامة على صور الأشخاص السود على أنهم غوريلا.
المصدر - البوابة العربية للأخبار التقنية
اظهار أخبار متعلقة اظهار أخبار متعلقة اظهار أخبار متعلقة
-
أخبار متعلقة
-
"مارك" يعلن الحرب التكنولوجية: "ذكاء اصطناعي فائق" في مواجهة أبل
-
شركة صينية تكشف أصغر وألطف روبوت شبيه بالإنسان حتى الآن - فيديو
-
عبر برامج الغش والتعديل.. برمجيات خبيثة تستهدف هواة الألعاب
-
دعوى قضائية تنهي احتكار غوغل لسوق متاجر التطبيقات
-
"شاومي" ترفع سقف المنافسة في أدوات الذكاء الاصطناعي التي تتجاوز النصوص
-
غوغل تطلق Gemini 2.5 Deep Think
-
واتساب يطلق ميزة تذكيرية ذكية لتحديثات الحالة
-
تسريبات "آيفون 17 إير": تصميم فائق النحافة يثير مخاوف البطارية