أدوات الذكاء الاصطناعي الطبية تقدم علاجًا أسوأ للنساء والمجموعات الممثلة تمثيلاً ناقصًا

تحيز الذكاء الاصطناعي في الطب: خطر يهدد صحة النساء والأقليات
لطالما ركزت التجارب السريرية والدراسات العلمية تاريخيًا على الرجال البيض بشكل أساسي، مما أدى إلى نقص كبير في تمثيل النساء وأصحاب البشرة الملونة في الأبحاث الطبية. والآن، ينتقل هذا التحيز الخطير إلى عصر الذكاء الاصطناعي بنتائج مقلقة.
نماذج الذكاء الاصطناعي تكرر أخطاء الماضي
كشف تقرير حديث لصحيفة الفاينانشال تايمز أن أدوات الذكاء الاصطناعي المستخدمة من قبل الأطباء والمتخصصين الطبيين تنتج نتائج صحية أسوأ للفئات التي تم تهميشها تاريخيًا. وتشير الأدلة إلى أن هذه الأدوات تقدم رعاية أقل جودة للنساء والمرضى من الأقليات العرقية.
دراسات صادمة تكشف التحيز الجندري والعرقي
كشفت دراسة لباحثين من معهد ماساتشوستس للتكنولوجيا أن النماذج اللغوية الكبيرة مثل GPT-4 من OpenAI وLlama 3 من Meta كانت “أكثر عرضة لتقليل الرعاية المقدمة للمرضى الإناث بشكل خاطئ”. كما وجدت أن النساء يُطلَب منهن أكثر من الرجال “إدارة حالتهن في المنزل”، مما يعني حصولهن على رعاية أقل في الإطار السريري.
والأخطر أن هذه المشكلة لا تقتصر على النماذج العامة، بل تمتد إلى النماذج المصممة خصيصًا للقطاع الصحي. فحتى النموذج الطبي Palmyra-Med يعاني من نفس التحيزات وفقًا للدراسة.
نماذج جوجل تهمش احتياجات النساء
أظهر تحليل أجرته كلية لندن الاقتصادية لنموذج جوجل Gemma (وليس النموذج الرئيسي Gemini) أن النتائج التي ينتجها “تهوّن من احتياجات النساء” مقارنة بالرجال. وهذا ليس سوى جزء من نمط أوسع من التحيز المنهجي.
التمييز العرقي في الصحة النفسية
كشفت دراسة سابقة أن نماذج الذكاء الاصطناعي تقدم مستويات أقل من التعاطف لأصحاب البشرة الملونة الذين يعانون من مشاكل الصحة النفسية مقارنة بنظرائهم البيض. كما وجدت دراسة نُشرت في مجلة The Lancet أن نموذج GPT-4 من OpenAI كان يمارس “الصور النمطية المنتظمة ضد أعراق وأجناس معينة”.
عواقب مالية وصحية خطيرة
خلصت الدراسة إلى أن “التقييمات والخطط التي أنشأها النموذج أظهرت ارتباطًا كبيرًا بين الصفات الديموغرافية والتوصيات بإجراء عمليات أكثر تكلفة، بالإضافة إلى اختلافات في تصور المريض”.这意味着 أن القرارات الطبية لم تكن مبنية على الأعراض والحالات الطبية بقدر ما كانت مبنية على الخلفيات الديموغرافية.
سباق خطير نحو القطاع الصحي
تخلق هذه التحيزات مشكلة واضحة، خاصة في ظل سباق الشركات الكبرى مثل جوجل وميتا وOpenAI لإدخال أدواتها إلى المستشفيات والمرافق الطبية. إنه سوق ضخم ومربح، لكنه يحمل عواقب وخيمة على انتشار المعلومات الخاطئة.
خطر خفي يصعب اكتشافه
في وقت سابق من هذا العام، تسبب نموذج جوجل الطبي Med-Gemini في الفضائح بعد اختراعه جزءًا من الجسم غير موجود. من السهل على العاملين في المجال الصحي identifying هذا الخطأ، لكن التحيزات أكثر خفاء وغالبًا لا واعية.
السؤال المقلق: هل يمتلك الطبيب المعرفة الكافية ليشكك في ما إذا كان نموذج الذكاء الاصطناعي يُعيد إنتاج الصور النمطية الطبية القديمة؟ لا ينبغي لأحد أن يكتشف هذا بالطريقة الصعبة.