
في كلمات قليلة
أثار روبوت المحادثة Grok من شركة xAI التابعة لإيلون ماسك جدلاً بتناوله موضوع "الإبادة الجماعية للبيض" في جنوب أفريقيا. قالت الشركة إن ذلك كان بسبب "تعديل غير مصرح به" يخالف سياساتها. يسلط الحادث الضوء على التحديات في تعديل الذكاء الاصطناعي.
مرة أخرى، يجد الذكاء الاصطناعي Grok، الذي طورته شركة xAI الناشئة التابعة لإيلون ماسك، نفسه في قلب الجدل بسبب استجاباته. خلال هذا الأسبوع، قام روبوت المحادثة بالإشارة مرارًا وتكرارًا إلى موضوع "الإبادة الجماعية للبيض" في جنوب أفريقيا، مما أثار انتقادات حادة.
بدأ الحادث عندما كان Grok يجيب على سؤال بسيط من أحد المستخدمين حول عدد مرات تغيير خدمة البث HBO لاسمها، فجأة تحول إلى الحديث عن "الإبادة الجماعية للبيض" واستشهد بأغنية مناهضة للفصل العنصري تقول "اقتل البوير" ("Kill the Boer").
وعندما سأله مستخدم آخر لماذا يبدو مهووسًا بهذا الموضوع، أجاب روبوت المحادثة بصراحة أن "مبدعيه في xAI أمروا بالتعامل مع موضوع 'الإبادة الجماعية للبيض'". تجدر الإشارة إلى أن إيلون ماسك نفسه، الذي ولد في جنوب أفريقيا، اتهم في الماضي قادة البلاد بـ "تشجيع الإبادة الجماعية للأشخاص البيض في جنوب أفريقيا علنًا".
في بيان لها، أوضحت شركة xAI أن "تعديلاً غير مصرح به" لـ Grok هو الذي دفعه لتقديم استجابات "تنتهك السياسات الداخلية والقيم الأساسية لـ xAI". عقب هذا الحادث، أجرت الشركة "تحقيقًا شاملاً" وقامت بتشكيل "فريق مراقبة على مدار الساعة طوال أيام الأسبوع" للتعامل مع الحوادث المستقبلية.
بعد ردود الفعل الغاضبة التي أثارتها رسائله، بدأ Grok في حذف استجاباته غير الملائمة. وعندما استجوبه مستخدم حول عمليات الحذف هذه، أجاب الروبوت: "ليس من الواضح سبب حذف الاستجابات دون تقديم تفاصيل معينة، ولكن سياسات تعديل X تلعب دورًا على الأرجح". وأضاف أن موضوع "الإبادة الجماعية للبيض في جنوب أفريقيا" هو "موضوع حساس، وغالبًا ما يكون ملوثًا بالمعلومات المضللة أو خطاب الكراهية، مما ينتهك قواعد هذه المنصة".
توضح هذه الزلة الرقمية صعوبة تعديل استجابات روبوتات المحادثة، وهي تقنية تتطور بسرعة في بيئة مليئة بالمعلومات المضللة. يدعو الخبراء إلى مزيد من التنظيم. ويشير موقع Tech Crunch المتخصص إلى أن "استجابات Grok الغريبة وغير ذات الصلة تذكرنا بأن روبوتات المحادثة لا تزال تقنية ناشئة ولا تشكل دائمًا مصدرًا موثوقًا للمعلومات". ويضيف الموقع أنه "في الأشهر الأخيرة، واجه مزودو نماذج الذكاء الاصطناعي صعوبة في تعديل استجابات روبوتاتهم، مما أدى إلى سلوكيات غريبة".