فكرة

رومان شودهري: "يحتمل أن نسقط في عالم ما بعد الحقيقة"

رومان شودري، خبيرة البيانات الضّخمة، ما فتئت تندّد بالتحرّش عبر الإنترنت والعنف الجندري في عصر الذّكاء الاصطناعي (AI) التّوليدي. وهي تحذّر، على نطاق أوسع، من مخاطر الاستخدام الضارّ للتّكنولوجيات الجديدة بالنسبة للأشخاص الأكثر هشاشة وتدعو إلى مراعاةٍ أفضل لتنوّع المستخدمين.
Rumman Chowdhury

أجرت الحوار أنولينا سافولاينن

اليونسكو

في دراسة لليونسكو نُشرت في نوفمبر 2023، سُلِِّطتِ الأضواء على العنف الذي تتعرّض له النّساء والفتيات، تحديدا، في عصر الذّكاء الاصطناعي. فيما تتجلّى مظاهر هذا العنف؟

بفضل الذّكاء الاصطناعي التّوليدي، ستصبح وسائل الإعلام المضلّلة أكثر إقناعا، وهو ما يمثّل تهديدا له تأثيره على النّساء بالخصوص. هناك العديد من الأمثلة على هذه التّهديدات. تخيّلوا أن تكون هذه التّهديدات مصحوبة بصور واقعية جدًّا لهؤلاء النّساء وأطفالهن وأقاربهنّ أنتجها الذّكاء الاصطناعي التّوليدي. فمثل هذه الممارسات، التي لا تتطلّب أي مهارات فنيّة معيّنة، أصبحت في متناول الجميع.

غالبًا ما يأخذ العنف القائم على النّوع الاجتماعي شكل التحرّش عبر الإنترنت. وقد تعرّض ما لا يقلّ عن %26 من الفتيات لذلك مقارنة بـ %7 من الرّجال من نفس الفئة العمرية وفقا لدراسة حديثة. وعموما، سيكون هناك المزيد من المحتويات، وبالتالي محتويات أكثر عنفًا أو تضليلًا أو ببساطة أكثر قذارة. كما إنّ تدفّق المعلومات المصمَّمَة بهدف الغمْر submertion والإنهاك والتّسلية سيزيد من العنف ضدّ المرأة.

ويقترن هذا العنف الجنسي أيضًا بالأذى غير الطّوعي، أي بالممارسات التّمييزية التي أُدمِجت في نماذج الذّكاء الاصطناعي. فمن بين الأمثلة الأكثر شيوعا نذكر تلك التي تنطلق من مبدأ أنّ النساء ممرّضات أو معلّمات أكثر من كونهنّ طبيبات أو عالمات، أو تلك التي تعرض صور النّساء المجنّسات آليّا دون موافقتهنّ.

ما هي الاستخدامات الضارّة التي يمكن أن يولّدها الذّكاء الاصطناعي؟

يُعدّ التّزييف التّركيبي العميق deepfakes تعبيرًا مثيرًا للقلق إذ بالإمكان إنشاء رواية كاذبة تمامًا عن شخص ما من خلال الجمع بين العديد من مصادر الوسائط الملفّقة، مما يجعل من الممكن إنشاء روايات اصطناعية موثوقة للغاية استنادا إلى صور، ومقالات، وتسجيلات صوتية، وفيديوهات مزوّرة، وبثّها على الإنترنت. فالأشخاص الذين لهم دراية بحملات التّضليل يعلمون أنّ بعض الفاعلين يقضّون سنوات طوال من أجل إنشاء حسابات مزيّفة وسرديّات وهميّة. والحال أنّ الذّكاء الاصطناعي التّوليدي بإمكانه أن يولّد آليّا جانبا كبيرا من هذا الفعل الضارّ .

بالإمكان إنشاء رواية كاذبة تمامًا استنادا إلى صور أو فيديوهات مزوّرة

ومما يثير القلق أيضًا القدرة على إنشاء محتويات مزيّفة تفاعلية، إذ سيصبح بإمكان روبوت دردشة chatbot التحدّث مثل أي إنسان ونسب كلام [إلى الشخص موضوع الانتحال] لم يقله أبدا. ونفس هذه العملية يمكن استعمالها لإنشاء حساب مزيّف على شبكات التّواصل الاجتماعي وانتحال شخصية امرأة تتفوّه بكلمات وتكتب منشورات وتأتي أفعالا تسيئ إلى صورتها. فمرتكبي العنف القائم على النّوع الاجتماعي بإمكانهم استخدام هذا النّوع من التكنولوجيا لانتحال هوياّت بعض النّساء وإفساد علاقاتهن المهنيّة أو الخاصّة، أو حتى ملاحقة ضحاياهم بدعوى أنهم يعرفونهم.

باستخدام الأدوات الجديدة، يمكن إطلاق حملة تحرّش واسعة النّطاق عبر الإنترنت خلال 15 إلى 20 دقيقة

وأخيرًا، هناك برمجيّات ضارّة يمكن لأشخاص ذوي نوايا سيّئة إنشاؤها لسرقة المعلومات الشخصية، مثلا، بهدف ترهيب ضحاياهم. فمع ظهور هذه الأدوات الجديدة، أصبح أسهل من ذي قبل تخطّي العتبة من أجل إطلاق حملات التحرّش الآلية؛ إذ يمكن إطلاق حملة تحرّش واسعة النّطاق عبر الإنترنت خلال 15 إلى 20 دقيقة. يكفي إعلام الذّكاء الاصطناعي التّوليدي بما تريد كتابته فسيتكفّل بتوفير الشّفرة (الكود) لك. يمكن بعد ذلك أن نطلب منه إنشاء برنامج لنشر المحتوى على الشّبكة الاجتماعية التّابعة لشخص معيّن كل 10 دقائق.

من بين هذه التطوّرات، ما الذي يبدو الأكثر إثارة للقلق بالنسبة لكِ؟

كل هذه التطوّرات مثيرة للقلق، ولكن أكثر ما يقلقني هو تأثيرها النّهائي. أخشى أننا ننزلق باتّجاه عالم ما بعد الحقيقة، حيث يصبح كلّ ما نراه على الإنترنت غير موثوق ولا مصداقية له، فينتقل بذلك العالم من مجتمع معولم قائم على الاتّصال والحوار عبر الإنترنت إلى مجتمع يسوده الحذر المعمّم. وعندها سنكون الخاسرين الأكبر لعديد التطوّرات المجتمعية الخارقة للعادة في صورة فقدان ثقتنا في ما هو موجود على الإنترنت.

ويجب علينا أيضًا أن نشعر بالقلق لكون أغلب الأضرار عبر الإنترنت تلحق أوّلاً بالجماعات الأكثر حرمانًا وهشاشة -مثل الفتيات والنساء المنتميات إلى الأقلّيات العرقيّة أو العنصريّة أو الإثنيّة أو الجنسيّة أو الاجتماعية أو الاجتماعية-الاقتصادية - وهو ما يدعونا إلى الانتباه لأن ذلك ما ينتظرنا جميعا.

لقد أكّدتِ في تقريرك على أنّ مسؤولية حماية النّفس تُلْقَى عموما على عاتق الضحيّة. كيف يمكن تحسين الحماية عبر الأنترنت؟

إنّ معظم أدوات الحماية عبر الإنترنت تخلق، للأسف، "تأثيرا مُثْبِطًا" أي بمعنى آخر، يكون هدفها إخراجك من دائرة النّقاش بدعوى حمايتك، وهو أمر غير عادل بل مستحيل بالنسبة للنّساء اللاّتي يشتغلن في الواجهة مثل السياسيّات أو الصحفيّات اللّواتي ينشطن في المجال العام. وهذا يعني القول للنّساء بأنه عليهنّ الانسحاب من العالم للحصول على الحماية…

كما إنّ جلّ هذه التّطبيقات تُلقي بالمسؤولية الكاملة على الضحيّة في اتّخاذ إجراءات الحماية. فللنّساء وحدهنّ اتّخاذ الخطوات اللاّزمة للإبلاغ عن الحقائق في حين أنّه يجب تطوير التّطبيقات التي تشجّع المجموعة على تقديم الدّعم، وعدم التّسامح مطلقًا تجاه الذين يتحرّشون بالنّساء.

إضافة إلى ذلك، فإنّ بعض موزّعي المحتوى لا يسمحون بإنشاء أدوات مستقلّة مثل تلك التي صمّمتها بعض الشّركات النّاشئة بالتّشاور مع الجماعات المعنيّة لتمكين الأفراد من حماية أنفسهم من التحرّش عبر الإنترنت.

ولقد حالفني الحظّ بالعمل مع بعض المنظّمات التي تُعتبر من بين الأكثر تأثيرًا، وكنت دائما ما أُكرّر نفس السّؤال: ما هو القسط من ميزانيتكم الذي تخصّصونه لأدوات الحماية عبر الإنترنت؟ استثمروا في الحماية عبر الإنترنت بقدر ما تستثمرون في تطوير الذكاء الاصطناعي. فهذه التقنيات لن يكون لها أبدًا التأثير الإيجابي على العالم الذي نبتغيه إذا لم نجعلها آمنة.

هل تأخذ الخوارزميّات بعين الاعتبار تنوّع المستخدمين على نحو كافٍ؟

تحاول الشّركات تطوير منتجات تناسب أكبر عدد ممكن من الأشخاص، لكن الذين يعملون في هذا الاتّجاه لا يمثّلون سوى جزء صغير من العالم. فإذا ما اقتصر الأمر على تمثيل نوع واحد فقط من الأشخاص أو الجنس أو الأصل الجغرافي أو مستوى التعليم، سنفقد تنوّعًا كبيرًا في المعارف والمعلومات.

إن حجم القضايا ونطاقها واسعان جدًا لدرجة أن تجميع مساهمات الجمهور أمر ضروري. وقد عُرفت منظمتي، هيومن أنتليجانس ذات الصبغة غير الرّبحية، باعتمادها في عملها على "مكافآت التحيّز العام" public bias bounties وتمارين الفريق الأحمر red-teaming exercises (ريد-تيمينغ) [محاكاة تصرّفات مهاجم خارجي ذي نوايا سيئة بهدف السيطرة على تبعات أعماله]. فنحن نفتح نماذج  الذّكاء الاصطناعي أمام الجمهور لجمع تعليقاتهم.

في بعض الحالات، يتحدّث المتدخّلون لغة أو ينتمون إلى وسط غير ممثّل على نحو جيّد في بيانات نماذج الذّكاء الاصطناعي. وأحيانا، يكونون خبراء، من مهندسين أو أخصائيين في مجالات علمية، فيقيّمون النّموذج استنادا إلى وجهة نظرهم المهنية الخاصّة. في السنة الفارطة، نسّقنا أكبر تمرين ريد-تيمينغ  للذكاء الاصطناعي التّوليدي حيث استقبلنا  2200 تقييما فرديّا.

ولإدخال المزيد من النّساء والأقليّات وغيرهما من المجموعات الممثَّلة تمثيلا ناقصا في قطاع الذّكاء الاصطناعي، يتعيّن علينا أن نفهم العوائق التي تعترضنا على طول المسلك. فمثلا، ينبغي على المدرّبين-المعلمين أن يكفّوا عن اعتبار البرمجة مجالًا ذكوريًا في المقام الأوّل، وأن تُخصّص حصّة أكبر للنّساء عند الانتداب. فالشّخص الذي يُنشئ شركة ناشئة يميل إلى توظيف أشخاص يعرفهم، وإذا كانت شبكته مكوّنة فقط من رجال يشبهونه، فسيكون ذلك على حساب التنوّع. لذا، فإنّ وضع برامج تهدف، على سبيل المثال، إلى تشجيع المزيد من النّساء على إنشاء مؤسّسات، وحثّ الفتيات على تعاطي البرمجة، من شأنه أن يساعد على كسر بعض أساليب التّفكير النّمطية.

أنت تدعمين شركات التّكنولوجيا الكبيرة من أجل استخدام أكثر مسؤولية للذّكاء الاصطناعي التّوليدي. ما هي مصلحة هذا القطاع في التأكّد من أن منتجاته أخلاقية وشاملة؟

ترغب شركات الذّكاء الاصطناعي التّوليدي في تصميم منتجات آمنة وموثوقة لتستخدمها شركات أخرى. ومع ذلك، فإن هذه التّطبيقات لن ترى النّور إذا كان هناك خطر من أن يقوم الذّكاء الاصطناعي بتوليد خطاب عنصري أو جنسي، أو أن يُعيد إنتاج الأفكار المسبقة أو يُساعد على إدامة العنف، ومن هنا تأتّى المصلحة في العمل معًا لحلّ هذه المشكلات.

للوقاية من التحرّش، ونقص المعلومة، والإعلام المضلّل النّاجم عن الذكاء الاصطناعي التوليدي، مطلوب من كلّ فرد أن يضطلع بدوره

إنّ هذه الإشكاليات تكتسي بُعدًا عالميًّا؛ فمؤسّسة وحيدة يصعب عليها حلّها إن لم نقل يستحيل عليها ذلك. لذا فإنّ الوقاية من التحرّش، ونقص المعلومة، والإعلام المضلّل النّاجمة عن الذّكاء الاصطناعي التوليدي، تتطلّب من كلّ طرف أن يضطلع بدوره سواء كان من المنتجين أو من منصّات المحتويات أو من مؤسّسات التّواصل الاجتماعي، أو من صنّاع السياسات، أو من الحكومات، أو من المجتمع المدني، أو المنظّمات غير الرّبحية، أو الأشخاص العاديين الذين يستخدمون هذه المنصّات. وفي هذا المجال، تلعب منظّمة مثل اليونسكو دوراً هامّا في المساعدة على ضبط المعايير التي من شأنها أن تُساعد الشّركات على تصميم برامج أكثر احتراماً للتنوّع.

اليونسكو تحذّر من التّهديدات التي يسلّطها الذكاء الاصطناعي التوليدي على النساء

لقد فاقم الذّكاء الاصطناعي التّوليدي ظاهرة التحرّش الالكتروني وزاد في إمكانيات العنف الجنساني (الجندري) عبر الإنترنت. هذا ما جاء في تقرير اليونسكو المعنون "رأيك لا يهمّ على أي حال": التنديد بالعنف الجنساني الذي تسهّله التكنولوجيا في عصر الذكاء الاصطناعي" « Ton avis ne compte pas, de toute façon » : dénoncer la violence de genre facilitée par la technologie à l’ère de l’intelligence artificielle générative الذي نُشر في نوفمبر 2023.

يؤكّد هذا التّقرير الذي حرّرته خبيرتان في البيانات الضخمة (ميغا بيانات) رومان تشودوري Rumman Chowdury  ودانيا لاكشمي Dhanya Lakshmi بأنّ نماذج التعلّم لئن أحدثت ثورة في الوصول إلى المعلومة والتّفاعل مع المحتويات، فإنها تثير في نفس الوقت مخاوف بشأن حماية حقوق الإنسان لا سيّما بالنسبة للنّساء والفتيات.

فمن بين الأساليب المسيئة، يمكن ذكر وسائط الإعلام المزيّفة، والرّوايات الكاذبة التي تُقدَّم بواقعية متزايدة، ونشر خطاب الكراهية، والمعلومات المضلّلة على نطاق أوسع بكثير. كما يمكن أيضًا أن يتفاقم التنمّر الإلكتروني على شبكات التواصل الاجتماعي بفضل النّماذج التي يولّدها الذّكاء الاصطناعي -وهو ما أصبح مصدر قلق متزايد إذ صرّحت حوالي %60 من الفتيات من جميع أنحاء العالم أنّهنّ تعرّضن للمضايقات والتحرّش الإلكتروني عبر الإنترنت-.

وتعرضُ دراسة أخرى بعنوان "تحدّي التحيّزات المنهجية: تحقيق في التحيّز الجندري في كبرى النّماذج اللغوية" Challenging systematic prejudices: an investigation into bias against women and girls in large language models، نشرتها اليونسكو والمركز الدولي لبحوث الذّكاء الاصطناعي IRCAI International Research Centre On Artificial Intelligence في ربيع عام 2024، اتجاهات تبعث بدورها عن القلق في علاقة بكبرى النماذج الرّقمية التي تقف وراء منصّات الذكاء الاصطناعي التّوليدي الأكثر شيوعًا، والتي يمكن أن تنتج تحيّزات جندرية وهوموفوبيا (كراهية المثليّة) وأنماط تفكير عنصري.

يؤكّد هذان المنشوران على مطوّري الذّكاء الاصطناعي وأصحاب القرار السّياسي ضرورة اتّخاذ الإجراءات الكفيلة بمكافحة هذه التّهديدات الجديدة، لا سيّما من خلال وضع التّوصية المتعلّقة بأخلاقيات الذّكاء الاصطناعي التي اعتمدتها الدّول الأعضاء في اليونسكو في نوفمبر 2021 موضع التّنفيذ.

رومان شوهدوري

مديرة سابقة لأخلاقيّات التعلّم الآلي لدى تويتر، وهي أمريكية من أصل بنجلاديشي وخبيرة في مجال البيانات المؤثّرة ومؤسّسة منظمة "الذّكاء البشري" Human Intelligence غير الرّبحية.