Bitte schenkt uns 10 Minuten eurer Zeit, um an der Evaluation unseres Podcasts teilzunehmen! Danke!
Zur Umfrage geht es hier.
+++
Unter dem Stichwort "Erklärbare KI" (Explainable AI, XAI) werden Ansätze verstanden, mit Hilfe derer KI-Systeme selbst Erklärungen über ihre Funktionsweise und ihre Ergebnisse an die Nutzenden kommunizieren. Klingt simpel? Ist es aber nicht. Erklärungen können die Nachvollziehbarkeit eines Systems erhöhen, sie können aber auch nur das Gefühl erwecken, das System verstanden zu haben. Oder sie können Antworten auf Fragen geben, die die Nutzenden gar nicht haben. Was es alles zu beachten gilt und wie sich die Forschung zu XAI in den letzten Jahren gewandelt hat, das erfahrt ihr bei uns!
+++
Katharina Rohlfing ist
Professorin für Psycholinguistik an der Universität Paderborn und Sprecherin des
Sonderforschungsbereich/Transregio 318 "Constructing Explainability", in dem Forscher*innen Wege erforschen, die Nutzer*innen in den Erklärprozess einzubinden und damit ko-konstruktive Erklärungen zu schaffen. Darüber sind ihre Forschungsschwerpunkte u.a. Multimodale Interaktion, frühkindlicher Spracherwerb und Gedächtnisprozesse und Kind-Roboter Interaktion.
Tim Schrills ist Wissenschaftlicher Mitarbeiter an der
Professur für Ingenieurpsychologie und Kognitive Ergonomie am Institut für Multimediale und Interaktive Systeme der Universität zu Lübeck. In seiner Forschung beschäftigt er sich u.a. mit der Unterstützung menschlicher Informationsverarbeitung durch KI-Systeme, Methoden der Erklärbarkeit sowie KI-Systemen in der Medizin.
+++
Linkliste- Madsen & Gregor (2000), Measuring Human-Computer Trust.Â
- Jian et al. (2010), Foundations for an Empirically Determined Scale of Trust in Automated Systems. International Journal of Cognitive Ergonomics.
- Bartlett & McCarley (2017), Benchmarking Aided Decision Making in a Signal Detection Task. Human Factors.
- Schrills (2023), Erklärbare KI. In: Künstliche Intelligenz in öffentlichen Verwaltungen.
- Chromik et al. (2021), I Think I Get Your Point, AI! The Illusion of Explanatory Depth in Explainable AI. Proceedings of the 26th International Conference on Intelligent User Interfaces.
- Schrills & Franke (2023), How Do Users Experience Traceability of AI Systems? Examining Subjective Information Processing Awareness in Automated Insulin Delivery (AID) Systems. ACM Transactions on Interactive Intelligent Systems.
- Yacobi et al. (2022), “If it didn’t happen, why would I change my decision?”: How Judges Respond to Counterfactual Explanations for the Public Safety Assessment. Proceedings of the Tenth AAAI Conference on Human Computation and Crowdsourcing.
- Rohlfing et al. (2020), Explanation as a Social Practice: Toward a Conceptual Framework for the Social Design of AI Systems. IEEE Transactions on Cognitive and Developmental Systems.
- Buschmeier et al. (2023), Forms of Understanding of XAI-Explanations. arXiv.
- EU AI Act: Einheitliche Regeln fĂĽr KĂĽnstliche Intelligenz in der EU
- Häntschel & Schrills (2024), Der EU AI Act und seine Auswirkungen auf Human-Computer Interaction. (YouTube-Video)
- Deck et al. (2024), A Critical Survey on Fairness Benefits of Explainable AI. Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin PaaĂźen.Redaktionelle UnterstĂĽtzung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des
Wissenschaftsjahres 2024 – Freiheit.