©Pexels / Andrea Piacquadio
Positive Erfahrungen mildern Abneigung gegen Künstliche Intelligenz als Beratung
Generative Künstliche Intelligenz (KI) erzeugt Daten, die der menschlichen Denkweise ähneln. Fungiert eine generative Künstliche Intelligenz wie ChatGPT als „Beratung“ zur Bewältigung persönlicher oder gesellschaftlicher Herausforderungen, so wird sie von Menschen für weniger kompetent als menschliche Expert*innen gehalten. Die erteilten Tipps wurden jedoch angenommen, und positive Erfahrungen mit KI führten zu mehr Bereitschaft, sich von der KI beraten zu lassen. Dies sind die spannenden Ergebnisse einer Studie eines interdisziplinären Forschungsteams der Universität Wien und der Emlyon Business School in Frankreich, das analysierte, wie Personen KI im Vergleich zu menschlichen Berater*innen beurteilen. Die Arbeit ist nun im Fachmagazin Communications Psychology erschienen.
Generative KI wie ChatGPT hält immer mehr Einzug in unseren Alltag. Sie kann dank leistungsstarker Algorithmen und einer umfangreichen „Wissensbasis“ komplizierte Themen verständlich erklären und auch Ratschläge für die Bewältigung von Herausforderungen erteilen. Damit KI in ihrer Beratungsfunktion tatsächlich angenommen wird, müssen die potenziellen Nutzer*innen allerdings nicht nur den erteilten Tipps, sondern auch der KI als Ratgeber positiv gegenüberstehen.
Wie wir Menschen funktionieren
Ein Team von Wissenschafter*innen rund um Robert Böhm von der Fakultät für Psychologie der Universität Wien führte mit über 3.300 Versuchspersonen eine Serie von Experimenten durch, um zu klären, wie Menschen „KI-Beratung“ im Vergleich zu menschlichen Expert*innen bewerten. Dabei wurden den Teilnehmenden Lösungsvorschläge für persönliche und soziale Herausforderungen angeboten, die entweder von ChatGPT oder von menschlichen Expert*innen kamen – wobei nur eine Hälfte der Versuchspersonen über die Identität hinter der Beratung (KI oder Mensch) Bescheid wusste. Anschließend beurteilten die Versuchsteilnehmer*innen die Kompetenz der Beratung und die Qualität der Tipps.
Studien-Erstautor Robert Böhm zum spannenden Ergebnis dieses Experiments: „Wir konnten einen klaren Nachweis für eine subjektive Abneigung gegenüber KI-Beratung feststellen, die nicht der objektiven Bewertung der erteilten Empfehlungen entsprach.“ Die Versuchspersonen werteten die Kompetenz der KI-Beratung nämlich ab, wenn sie wussten, dass der Tipp von der KI kam – während die Bewertung der Qualität der erteilten Tipps, die Bereitschaft diesen zu folgen oder sie mit anderen zu teilen, von diesem Wissen nicht beeinflusst war.
Wie wir Menschen wählen
Um festzustellen, wie die nun gemachten Erfahrungen sich auf die Auswahl einer Beratung – lieber von menschlichen Expert*Innen oder aber von einer KI – auswirken, führten Böhm und sein Team weitere Untersuchungen durch. Die Ergebnisse zeigten, dass bei jenen, die bereits positive Erfahrungen mit KI gemacht hatten und dieses auch wussten, die Entscheidung für eine Beratung durch KI mit 32% deutlich größer ausfiel, als bei jener Gruppe die zuvor nicht wusste, ob ein Ratschlag KI-generiert war (23%).
„Unsere Ergebnisse legen nahe, dass eine mögliche Skepsis gegenüber KI als Beratung für Alltagsprobleme abnehmen könnte, je mehr Erfahrung Menschen mit solchen Anwendungen machen“, interpretiert Versuchsleiter Böhm die Ergebnisse. Die Ratschläge von ChatGPT werden als sehr verständlich, aber dennoch präzise formuliert, wahrgenommen. Laut den Autoren bietet dies eine echte Chance, dass KI in unseren Alltag integriert wird. „Probieren Sie es doch selbst einmal aus,“ so Robert Böhm.
Originalpublikation:
Robert Böhm, Moritz Jörling, Leonhard Reiter, Christoph Fuchs: People devalue generative AI’s competence but not its advice in addressing societal and personal challenges. In: Communications Psychology, 2023.
DOI: 10.1038/s44271-023-00032-x
Disclaimer:
„Für den oben stehenden Beitrag sowie für das angezeigte Bild- und Tonmaterial ist allein der jeweils angegebene Nutzer verantwortlich. Eine inhaltliche Kontrolle des Beitrags seitens der Seitenbetreiberin erfolgt weder vor noch nach der Veröffentlichung. Die Seitenbetreiberin macht sich den Inhalt insbesondere nicht zu eigen.“