Diese Folge wurde zuerst im Podcast
Privatsprache von
Daniel Brockmeier veröffentlicht. Wenn ihr euch für differenzierte und unterhaltsame Auseinandersetzungen mit Philosophie begeistern könnt, solltet ihr den Podcast unbedingt abonnieren!
+++
Daniel, Benjamin und Christiane fragen sich: Warum und in welcher Weise lesen wir menschliche Eigenschaften in künstliche Systeme wie etwa Large Language Models hinein? Wir klären, was der Begriff Anthropomorphisierung bedeutet, blicken in die Kultur-, Technik- und Wissenschafts-Geschichte und gehen den Psychologischen Grundlagen nach. Mit Daniel Dennetts "Intentional Stance" stellt Daniel eine philosophische Theorie der Anthropomorphisierung vor und Christiane präsentiert mehrere psychologische Studien, die die Frage nach dem "Warum" strategisch eingrenzen. Am Ende fragen wir noch nach der Moral von der Geschicht': Sollten KI-Systeme, Programme, Computer und Roboter menschenähnlich designet werden?
+++
Linkliste- Der Geschichte des künstlichen Menschen in Daniels Blog: https://perspektiefe.privatsprache.de/der-geist-in-der-maschine/
- Privatsprache-Podcastfolge zum Androiden Data: https://perspektiefe.privatsprache.de/the-measure-of-a-man-die-philosophie-von-star-trek/
- Dennett, D. C. (1989). The Intentional Stance. MIT Press.
- Dennett, D. C. (1988). The intentional stance in theory and practice. In R. W. Byrne & A. Whiten (Eds.), Machiavellian intelligence: Social expertise and the evolution of intellect in monkeys, apes, and humans (pp. 180–202). Clarendon Press/Oxford University Press.
- Karel Capek (1922). Werstands Universal Robots.
- Harald Salfellner (2019). Der Prager Golem - Jüdische Sagen aus dem Ghetto.
- Alan Turing (1950). Computing Machinery and Intelligence. Mind: A Quarterly Review of Psychology and Philosophy, 59(236), 433-460.
- Joseph Weizenbaum (1960). ELIZA – A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.
- Valentino Braitenberg (1986). Vehicles – Experiments in Synthetic Psychology. MIT Press.
- Heider, F., & Simmel, M. (1944). An experimental study of apparent behavior. The American journal of psychology, 57(2), 243-259.
- Reeves, B., & Nass, C. I. (1996). The media equation: How people treat computers, television, and new media like real people and places. Center for the Study of Language and Information; Cambridge University Press.
- Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886.
- Gazzola, V., Rizzolatti, G., Wicker, B., & Keysers, C. (2007). The anthropomorphic brain: the mirror neuron system responds to human and robotic actions. Neuroimage, 35(4), 1674-1684.
- Roesler, E., Manzey, D., & Onnasch, L. (2021). A meta-analysis on the effectiveness of anthropomorphism in human-robot interaction. Science Robotics, 6(58), eabj5425.
- Mandl, S., Laß, J.S., Strobel, A. (2024). Associations Between Gender Attributions and Social Perception of Humanoid Robots. In: Camarinha-Matos, L.M., Ortiz, A., Boucher, X., Barthe-Delanoë, AM. (eds), IFIP Advances in Information and Communication Technology, vol 726. Springer, Cham.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts
KI-Akademie OWL.