Künstliche Intelligenz findet immer mehr Einzug in unseren Alltag und erleichtert so manchen Arbeitsschritt. Doch sie kann auch Stereotype verstärken und die Benachteiligung von bestimmten Geschlechtern befördern, wie sich etwa bei KI-Recruiting-Tools zeigte. Wie sich genderspezifische Vorurteile auch in KI-Sprachmodellen wie ChatGPT manifestieren - und was man dagegen tun kann, erklärt die Informatikerin Stefanie Urchs von der Hochschule München: Sie erforscht, wie man Trainingsdaten auf Genderdiskriminierung untersuchen kann, bevor diese zum KI-Training eingesetzt werden.