الخميس, 19 يونيو 2025 05:34 PM

هل يستطيع الذكاء الاصطناعي محاربة الكراهية على الإنترنت بعدالة؟ تحديات وضوابط

هل يستطيع الذكاء الاصطناعي محاربة الكراهية على الإنترنت بعدالة؟ تحديات وضوابط

راغب ملّي: أصبحت التقنيات الذكية جزءاً من البنية التحتية للمنصات الرقمية، ليس لتصنيف الصور وتقديم المحتوى فحسب، بل أيضاً لرصد ما يُعرف بـ"الخطاب السام" – تعبيرات الكراهية، التمييز، الإساءة، والتنمر. وعلى رغم التقدم التقني الكبير في تطوير أدوات الذكاء الاصطناعي القادرة على تصفية ملايين المنشورات يومياً، إلا أن هذا التقدم يصطدم بسؤال أساسي: كيف يمكن للآلة أن تكون عادلة؟

تجربة بحثية حديثة قدمت نموذجاً واعداً في هذا الاتجاه، إذ طوّر فريق علمي دولي خوارزمية تدمج بين الدقة في الكشف عن الخطاب السام وبين ما يُعرف بمفهوم "تكافؤ الدقة بين المجموعات"، أي ضمان أن تكون الخوارزمية عادلة في تقييم المحتوى، بصرف النظر عن خلفية المتحدث أو السياق الثقافي. هذا النموذج الجديد استطاع أن يحقق أداءً أفضل من النماذج السابقة بنسبة تصل إلى 1.5% من حيث العدالة، دون التضحية بالدقة.

لكن التحدي الحقيقي لا يكمن في تطوير نموذج ناجح مخبرياً، بل في تعميمه على بيئة رقمية شديدة التنوع والتعقيد. إذ لا يُمكن تجاهل أن ما يعتبر خطاباً عادياً في مجتمع ما قد يُعد ساماً أو مسيئاً في مجتمع آخر، وأن الحدود اللغوية والدلالية تختلف من منطقة إلى أخرى، بل أحياناً من فئة عمرية لأخرى.

هذا البُعد تحديداً يطرحه الدكتور هاني الغانم، المختص بالذكاء الاصطناعي وعلوم البيانات، الذي يرى أن الخطاب السام ليس قضية تقنية فحسب، بل ثقافية بامتياز. وفي حديثه الى "النهار"، يوضح أن الاختلافات الثقافية والجغرافية تلعب دوراً أساسياً في كيفية تقييم المحتوى.

يشير الغانم إلى أن "الاعتماد على نموذج تصنيفي موحّد يؤدي غالباً إلى فرض معايير ثقافية محددة على الجميع، ما يعيد إنتاج الإقصاء والتمييز الرقمي". ويضرب مثالاً على ذلك باختلاف دلالات بعض المصطلحات العربية بين منطقة الخليج وبلاد الشام أو شمال أفريقيا، وهو اختلاف لا يمكن للآلة إدراكه دون تدخل بشري عارف بالسياق. ولتجاوز هذه الفجوة، يشدد على أهمية بناء النماذج بالتعاون مع المجتمعات المحلية، سواء عبر إعداد البيانات الأولية من أشخاص يعكسون التنوع الثقافي، أو من خلال إشراك فرق مراجعة ميدانية تُساهم في تدريب النماذج وضبطها باستمرار. كذلك يشير إلى ضرورة أن تكون النماذج قادرة على استقبال "تغذية راجعة" تسمح بإعادة ضبط القرارات الآلية بناءً على السياقات المتغيرة.

ومن أبرز ما يثيره الغانم في هذا الإطار، أن البيانات التي تُستخدم لتدريب هذه النماذج غالبًا ما تكون نفسها متحيزة، وتحمل في طياتها اختلالات تاريخية في التمثيل، خصوصًا للفئات المهمشة. يقول إن "الذكاء الاصطناعي، حين يُدرب على بيانات غير متوازنة، قد يعيد إنتاج التحيزات نفسها التي يسعى الى محاربتها. الحل لا يكون باختيار بيانات أكثر شمولاً فحسب، بل بإعادة توازنها إحصائيًا، وتدريب النماذج في بيئات ثقافية متعددة، ثم اختبارها على عينات متنوعة لضمان العدالة في الأداء".

لكن الذكاء الاصطناعي، رغم تطوره، يبقى أداة، لا بديلاً. وهذا ما يشير إليه الغانم بوضوح: "الآلات سريعة في الفرز، لكن تفتقر إلى الحساسية اللغوية والبشرية. كثير من العبارات الساخرة أو المحتوى المتداخل — صور، صوت، سياق تعبيري — لا يمكن قراءته إلا من إنسان. لهذا لا بد من نموذج رقابي هجين، يعتمد على الخوارزميات، لكنه يُبقي العين البشرية حاضرة في كل خطوة حرجة".

ويرى أن أحد المفاتيح المهمة لتقوية النماذج هو استخدام "مستوى اليقين" كمعيار تدخل: فإذا كانت الخوارزمية غير واثقة تمامًا بتصنيف منشور ما، فيمكن حينها تنشيط مراجعة بشرية. هذه الآلية لا توفر مزيداً من الدقة فحسب، بل تمنع التسرع في حذف محتوى غير مسيء، أو التغاضي عن خطاب كراهية خفي.

في النهاية، لا يكفي أن تكون الخوارزميات دقيقة. العدالة الرقمية تتطلب أن تكون النماذج واعية للاختلاف، متكيفة مع التعدد، وقابلة للتصحيح. وكما يختتم الغانم حديثه: "لا يمكن بناء ذكاء اصطناعي عادل دون أن يكون ناتجاً من مجتمعات عادلة، أو على الأقل، ممثلة بعدالة داخل هذه النماذج. التقنية وحدها لا تصنع الأخلاق، بل من يصممها".

أخبار سوريا الوطن١-النهار

مشاركة المقال: