Berät der Bot!? – KI Textgeneratoren in der Onlineberatung

von Prof. Emily Engelhardt

Die Diskussionen um die Bedeutung der täglich aus dem Netz ploppenden KI-Anwendungen nimmt nicht ab. Inzwischen hat vermutlich jede:r kapiert, dass generative KI enorme Auswirkungen auf unser gesamtes Leben haben wird und – wenn man genauer hinsieht – bereits hat. Wie so oft reicht das Spektrum von Begeisterung bis hin zu dystopischen Horrorszenarien über unsere Zukunft. Und so sollte sich auch die Soziale Arbeit mit der Frage beschäftigen, welche Bedeutung KI für die Handlungsfelder hat und wie mit den möglichen Auswirkungen umgegangen werden kann.

Wird Onlineberatung, wie sie bei vielen Trägern in Form von Mail- oder Chatberatung angeboten wird, künftig von der KI abgelöst? Berät der Bot in Zukunft Menschen, die sich mit Sorgen und Nöten an eine Beratungsstelle wenden und Unterstützung suchen?

Generative KI kann (noch) keine Beratung für uns übernehmen

Wenn man Beratungsgespräche lediglich als einfaches Frage-Antwort-Spiel betrachtet, könnte man zu dem Schluss kommen, dass generative KI dies durchaus übernehmen könnte. Doch wenn ich von Beratung spreche, meine ich einen „Prozess, bei dem Ratsuchende durch die Interaktion mit einer anderen Person Klarheit über Probleme, Bewältigungsmöglichkeiten, Entscheidungsalternativen und Entwicklungsperspektiven gewinnen“ (Rechtien 2018) (siehe: https://www.socialnet.de/lexikon/Beratung).

Bereits in dieser Definition steckt ein wichtiger Aspekt: Beratung ist eine Interaktion zwischen zwei Menschen und nicht zwischen Mensch und Maschine (oder einer Webseite mit FAQ-Liste, auf der man nach Informationen sucht). An diesem Punkt könnte der Blogartikel eigentlich enden. Doch es gibt noch mehr zum Thema zu sagen und warum diese Interaktion zwischen Menschen stattfindet und nicht durch eine Interaktion zwischen Mensch und Maschine ersetzt werden kann.

Kritik von Noam Chomsky und anderen Linguisten

Kürzlich haben Noam Chomsky et al. in der New York Times einen Essay veröffentlicht, der versucht, den aktuellen Hype um die nahezu menschenähnlichen Fähigkeiten von ChatGPT etwas zu bremsen. In dem Artikel mit dem Titel „AI Unravelled: The false promise of ChatGPT“ beschreiben Chomsky und seine Kolleg:innen, warum ChatGPT zumindest aus linguistischer Sicht überbewertet wird. Sie kommen zu dem Schluss:

However useful these programs may be in some narrow domains (they can be helpful in computer programming, for example, or in suggesting rhymes for light verse), we know from the science of linguistics and the philosophy of knowledge that they differ profoundly from how humans reason and use language. These differences place significant limitations on what these programs can do, encoding them with ineradicable defect.“(Chomsky, Roberts, Watumull, o. S. 2023)

(Eigene Übersetzung: „Obwohl diese Programme in einigen engen Bereichen nützlich sein können (sie können zum Beispiel bei der Programmierung oder beim Vorschlagen von Reimen für leichte Verse hilfreich sein), wissen wir aus der Linguistik und der Erkenntnistheorie, dass sie sich grundlegend von der Art und Weise unterscheiden, wie Menschen denken und Sprache verwenden. Diese Unterschiede setzen ihnen erhebliche Grenzen, die sie mit unüberwindbaren Defekten versehen“).

Während ChatGPT eine statistische Maschine ist, die mit enormen Datenmengen gefüttert werden muss, um dann nach dem Prinzip der „Beschreibung und Vorhersage“ (description and prediction) eine wahrscheinliche Antwort auf eine Unterhaltung zu generieren, benötigt der Mensch vergleichsweise wenig Informationen und ist in der Lage, Erklärungen zu liefern, was wiederum ein Ausdruck echter Intelligenz sei.

Unterschiedliche Arten von Chatbots

Alison Darcey, die Gründerin von woebothealth, die verschiedene Chatbots für psychische Gesundheit entwickelt hat, beschreibt die Fähigkeiten und Einsatzmöglichkeiten von generativer KI ebenfalls als begrenzt. Sie unterscheidet dabei zwischen verschiedenen Arten von Chatbots. Während ein LLM wie ChatGPT völlig neue Sätze generiert, die auf Wahrscheinlichkeiten beruhen, basiert ein Modell wie Woebot auf einem hochkomplexen Entscheidungsbaum oder Wissensgraphen, der sorgfältig mit ML/NLP-Klassifikatoren entwickelt wurde. Diese Klassifikatoren werden aus gekennzeichneten Datensätzen abgeleitet und auf Gesamtgenauigkeit, Präzision und Erinnerung überwacht. Das grundlegende „Format“ des Gesprächs orientiert sich daran, wie Kliniker Probleme angehen. Es handelt sich also um „Expertensysteme“, die speziell darauf ausgerichtet sind, die Entscheidungsfindung von Klinikern während einer Interaktion zu replizieren (siehe: https://woebothealth.com/why-generative-ai-is-not-yet-ready-for-mental-healthcare/).

Kurz gesagt: Ein im maschinellen Lernen trainiertes Modell eignet sich besser für medizinische/therapeutische Gespräche als ein LLM, da es im Gegensatz zu letzterem keine Halluzinationen erzeugen würde und somit keine potenziell gefährlichen Antworten liefere.

Vorteile und Potenzial von LLMs in der Beratung

Was LLMs so attraktiv und faszinierend macht, ist, dass ihre Antworten oft weniger „statisch“ klingen und auf den ersten Blick kaum von einer menschlichen Antwort zu unterscheiden sind. Wenn man dann noch die Möglichkeit betrachtet, ChatGPT mit einer menschlichen Stimme zu trainieren und über die ChatGPT-API über den Facebook Messenger laufen zu lassen, wie kürzlich am Beispiel des bereits verstorbenen Apple-Gründers Steve Jobs geschehen (siehe: https://www.macwelt.de/article/1665621/chatty-ai-steve-jobs-spricht-aus-dem-grab.html), kann man sich vorstellen, welches Potenzial darin auch für Beratung & Therapie steckt.

Empathische Bewertung der KI-generierten Textantworten

Ebenfalls nicht zu unterschätzen ist die Tatsache, dass in einer Studie von Sharma et al. (2022) die von der KI generierten Textantworten als empathischer bewertet wurden als die von Menschen (siehe: https://arxiv.org/abs/2203.15144). Diese Erkenntnis unterstreicht das Potenzial von generativer KI in der Beratung und legt nahe, dass KI-gesteuerte Systeme in der Lage sind, unterstützende und einfühlsame Antworten zu generieren. Gleichwohl ersetzen sie menschliche Interaktion und Einfühlungsvermögen nicht – die KI ‚fühlt‘ nicht, sie simuliert nur. Das aber oft erstaunlich gut. Interessant könnte also sein den Fokus darauf zu legen, wie die Kombination von menschlicher emotionaler Intelligenz sowie Fachwissen und KI-Unterstützung zusammenwirken können. Und ob sich daraus tatsächlich ein Mehrwert für die Adressat:innen Sozialer Arbeit, aber auch für die Fachkräfte ergibt.