هناك مخاوف متزايدة من أن تطبيقات الذكاء الاصطناعي قد تساهم في زيادة التمييز الرقمي والعنصرية في ألمانيا، وهذا يشمل ما يُعرف بـ “التمييز المبرمج” أو “التمييز الألغام” (Algorithmic Discrimination). تعتمد هذه المخاوف على عدة عوامل، منها:
البيانات القاعدية غير المنصفة: إذا تم تدريب نماذج الذكاء الاصطناعي على بيانات تحتوي على تحيزات أو تمييزات معينة، فإن النماذج يمكن أن تستمر في تكرار هذه التمييزات.
تصميم الخوارزميات: يمكن أن يكون تصميم الخوارزميات نفسه مصدرًا للتمييز إذا لم يتم مراعاة الأخذ بعين الاعتبار للتحيزات الناتجة عن البيانات أو القوانين.
نقص الشفافية والمساءلة: قد يكون من الصعب تحليل كيفية اتخاذ القرارات من قبل نظام الذكاء الاصطناعي والتحقق من مدى تأثرها بالتمييز، مما يجعل من الصعب معرفة من يتحمل المسؤولية عن أي تمييز.
لتجنب هذه المخاوف، يعمل العديد من الباحثين والمنظمات على وضع مبادئ وقواعد أخلاقية لتصميم واستخدام الذكاء الاصطناعي بشكل أن يتجنب التمييز والتحيز. كما تسعى السلطات في العديد من البلدان، بما في ذلك ألمانيا، إلى وضع تشريعات ولوائح تنظم استخدام التكنولوجيا وتجنب التمييز المبرمج. المفوضة المستقلة لمكافحة التمييز في ألمانيا تعمل على وضع قواعد صارمة لضمان استخدام الذكاء الاصطناعي بطرق تكون عادلة وخالية من التمييز.