Feuer & Brot   /     #39 Digital bias - Auch Computerprogramme können rassistisch sein feat. Nushin Yazdani

Shownotes

Computerprogramme sind neutral, können nicht diskriminieren - das ist oft die Annahme. Aber das stimmt nicht. Erwiesenermaßen. Denn Programme und Algorithmen werden immer noch von uns Menschen gemacht, genauer gesagt, oft von weißen Cis-Männern. Die machen sich selten Gedanken darüber, welche Auswirkungen Künstliche Intelligenz für marginalisierte Gruppen haben kann. Da werden beispielsweise Menschen von Robotern nicht erkannt, fälschlich zugeordnet, sogar entmenschlicht, was Gefahr für Leib und Leben bedeuten kann. Nushin Yazdani kennt sich mit dieser Problematik aus. Sie kennt hat ihre Abschlussarbeit über Bias (Bias = Vorgeingenommenheit, Neigung, Ausrichtung) bei Künstlicher Intelligenz geschrieben. Maxi hat sie in ihrer Wohnung besucht, um mehr zum Thema K.I. zu erfahren, dass uns jeden Tag begegnet, ohne dass wir groß darauf achten. Nushins Erkenntnis: Mit einer diversen Besetzung von Entwickler*innenteams ist es nicht getan. Die strukturellen Probleme fangen viel früher an und reichen viel tiefer. Ted Talk mit Joy Buolamwini: www.youtube.com/watch?v=UG_X_7g63rY&t=68s Mehr zu Nushin: nushinyazdani.com/ Schreib uns: feuerundbrot@gmail.com