Chatbots: Meilensteine der Entwicklung und Ausblicke in die Zukunft

Einerseits stellen Chatbots ein ethisches Problem dar, andererseits sind sie ein Zeichen für die Macht einer Technologie, die Menschen in vielen Bereichen unterstützen kann. Der folgende Artikel wirft einen Blick in die Vergangenheit und Gegenwart von Chatbots – woher kommen sie und was hat sich jetzt verändert, dass sie plötzlich so erfolgreich sind?

Es ist kaum mehr als zwei Jahre her, dass ChatGPT mit seiner Veröffentlichung die Welt der Chatbots revolutioniert hat. Von einfachen starren Konversationspartnern hin zu dynamischen Konversationen in Echtzeit veränderte sich hier die Art, wie wir in der Lage sind, mit Technologie zu interagieren und welche Aufgaben Technologie für uns übernehmen kann. Ein eindrückliches Beispiel hierfür liefert die aktuelle Studie von Scarfe et al.[1], die gezeigt hat, dass 94 Prozent der von künstlicher Intelligenz (KI) für diese Studie erstellten Hausarbeiten im Fach Psychologie nicht als solche erkannt wurden und im Schnitt sogar bessere Noten erzielten.

Die Erforschung und Entwicklung von Chatbots ist hauptsächlich Gegenstand des Natural Language Processing (NLP) – ein interdisziplinäres Teilgebiet der Informatik und (Computer-)Linguistik, das sich mit der automatischen Verarbeitung, Interpretation und Generierung von natürlicher Sprache durch Computer beschäftigt.

Aus dem Bereich des NLP geht eine Vielzahl alltäglich genutzter Technologien hervor wie die Autokorrektur oder die Textvervollständigung am Smartphone, das Filtern von Spammails, das Finden von Informationen mit Suchmaschinen oder auch das Transkribieren und Generieren von gesprochener Sprache, wie beispielsweise in der Konversation mit Smarthome-Geräten wie Amazon Alexa oder Google Home.

Ein Blick in die Vergangenheit: die Anfänge von Chatbots

Die konzeptionelle Idee einer künstlichen Intelligenz, die sich mit einem Menschen schriftlich austauschen kann, geht auf Alan Turing und seine Formulierung des Imitation Game[2][3] aus dem Jahr 1950 zurück, bei dem entweder eine Frau und ein Mann oder eine Frau und eine Maschine rein schriftlich mit einer entscheidenden Person kommunizieren. In beiden Fällen versuchen die Agenten, die entscheidende Person davon zu überzeugen, die Frau zu sein. Gelingt es der Maschine genauso oft wie dem Mann, die entscheidende Person hereinzulegen, kann von einer dem Menschen gleichwertigen Intelligenz gesprochen werden.

Joseph Weizenbaum entwickelte 16 Jahre später ELIZA, den ersten Chatbot.[4] ELIZA durchsuchte die Eingaben nach Schlüsselbegriffen und erzeugte über einfache Transformationsregeln Aussagen und Fragen. Ein so einfacher, regelbasierter Chatbot war noch weit davon entfernt, ausreichend Wissen über die Welt, soziale Rollen und Motivationen nachahmen zu können, um den Menschen hereinzulegen. Er zeigte aber eine spannende Eigenschaft von Menschen auf: Selbst bei einfachen und oberflächlichen Konversationen neigen wir dazu, dem Gegenüber Gefühle und Verständnis zuzuschreiben – der sogenannte ELIZA-Effekt.[5] Eine Eigenschaft von uns Menschen, die es umso wichtiger macht, kritisch und reflektiert mit dieser Technologie umzugehen.

In den darauffolgenden 35 Jahren entstanden Chatbots wie Jabberwacky, der erstmals maschinelles Lernen nutzte, um Kontextverständnis zu erzeugen, oder ALICE, der erste Online-Chatbot.[6] Der erste große Durchbruch gelang aber 2001 mit SmarterChild.[7] Innerhalb eines Jahres führte SmarterChild mehr als neun Millionen Konversationen. Die Attraktivität des Chatbots lässt sich zurückführen auf eine Kombination aus KI-Verfahren und dem Zugriff auf eine große Wissensdatenbank. Dieses Wissen ermöglichte es dem Chatbot, Informationen aus zum Beispiel Wetterberichten, aktuellen Sportereignissen oder lexikalischem Wissen in seine Antworten einfließen zu lassen, und er war auch in der Lage, erste interaktive Spiele und Quizze zu spielen.

Ein Blick in die Gegenwart: Chatbots und LLMs

Auf SmarterChild folgten Chatbots wie Watson von IBM und Sprachassistenten wie Siri, Cortana und Alexa[8] – im Grunde Chatbots, bei denen die Eingabe erst einmal von Sprache in Text übersetzt und der Ausgabetext am Ende wieder zu Sprache synthetisiert wird. Chatbots und Sprachassistenten wurden im Customer-Service eingesetzt, waren rund um die Uhr erreichbar und in der Lage, einfache Anfragen abzuarbeiten. Wer aber ein bisschen nachbohrte, konnte auch hier sicher sein, dass es sich beim Gesprächspartner um eine Maschine handelte.

Den erneuten Durchbruch brachten LLMs. Hierbei handelt es sich um KI-Modelle, die auf großen Mengen von Textdaten trainiert wurden, um ein Verständnis von menschlicher Sprache zu erlernen und gleichzeitig einen Schatz an Faktenwissen aufzubauen. Die zugrunde liegende KI-Technologie sind die sogenannten Transformer-Modelle, basierend auf der Arbeit von Vaswani „Attention is all you need“.[9] Sie revolutionierten das NLP durch ihre Fähigkeit, große Textmengen parallel zu verarbeiten und auch komplexe Zusammenhänge in natürlicher Sprache zu verstehen, was zu erheblich kohärenteren und qualitativ hochwertigeren Dialogen führte.

Der erste Vertreter dieser neuen Gattung an LLMs, der an Bekanntheit gewonnen hat, ist ChatGPT mit seiner Veröffentlichung im November 2022. Es nutzt die GPT-Modellreihe (Generative Pre-trained Transformer), um menschenähnliche und kontextbezogene Antworten zu generieren. Weitere Vertreter sind die LlaMA basierten Chatbots, ein LLM, das dank des Open-Source-Ansatzes über eine große Entwickler-Community verfügt. Der deutsche Anbieter Aleph Alpha legt seinen Fokus mit Luminous auf den europäischen Datenschutz und die Mehrsprachigkeit im europäischen Raum.

Heute verzeichnet allein ChatGPT wöchentlich 100 Millionen aktive Nutzerinnen und Nutzer.[10] Die Interaktion mit Chatbots gehört also für viele Menschen mittlerweile zum Alltag, sei es in der Freizeit zum Brainstormen von Ideen für eine Kurzgeschichte, über das Verfassen einer E-Mail an die Chefin oder den Chef, bis hin zum Schreiben einer Hausarbeit für das Psychologieseminar.

Die nächste Entwicklungsstufe für Chatbots und LLMs sind multimodale Modelle, die nicht nur Text, sondern auch Bilder, Audio und andere Datentypen verarbeiten können. Solche Modelle bieten die Option einer nahtloseren Integration von KI in Anwendungen wie Bildanalyse, Sprachassistenz oder Videobearbeitung, was eine breitere Palette von Nutzungsszenarien eröffnet – von medizinischer Bilddiagnose bis zur Erstellung von interaktiven Bildungsinhalten und Kunstwerken.

Herausforderungen moderner Chatbots

Trotz der jüngsten Entwicklungen im Bereich LLM und Chatbots stehen die Menschen weiterhin vor Herausforderungen, die ihre Nutzung beeinflussen. Diese Herausforderungen lassen sich in technische, sprachliche sowie ethische und gesellschaftliche Aspekte aufteilen.

Eine technische Schwierigkeit ist das begrenzte Kontextbewusstsein: Obwohl LLMs Konversationen kohärenter gestalten, können sie den Gesprächskontext nur für eine bestimmte Anzahl von Wörtern speichern. Sobald diese Grenze überschritten ist, gehen frühere Informationen verloren.

Außerdem benötigen moderne Chatbots riesige Datenmengen und leistungsfähige Computer für Training und Betrieb. Dies macht die Technologie als Eigenentwicklung für kleinere Unternehmen schwer zugänglich und hat darüber hinaus große Auswirkungen auf den Energieverbrauch und somit auch auf die Umwelt.

Nicht zuletzt ist die Aktualität und Qualität der Trainingsdaten entscheidend, um präzise und verlässliche Informationen bereitzustellen – ein Problem, das durch fehlerhafte oder veraltete Daten erschwert wird und ein kontinuierliches Nachtrainieren der Modelle erfordert.

Auch sprachliche Herausforderungen stellen eine Hürde dar. Chatbots stoßen oft auf Schwierigkeiten, wenn Nutzende Umgangssprache, Dialekte oder Abkürzungen verwenden, da diese nicht immer ausreichend in den Trainingsdaten vertreten sind. Besonders problematisch ist dies bei Sprachassistenten, die gesprochene Sprache verarbeiten müssen. Hier fehlen oft die Ressourcen, um regionale Dialekte oder seltene Sprachen angemessen zu unterstützen, was zu Missverständnissen oder Frustration führen kann.

Zu den gesellschaftlich wichtigsten Herausforderungen gehören vermutlich unbewusste Vorurteile, die Chatbots aus den Trainingsdaten übernehmen können. Wenn zum Beispiel in Texten Männer häufiger als Führungskräfte dargestellt werden, kann dieser Zusammenhang auch im Verhalten des Chatbots sichtbar werden. Ein Chatbot an sich ist natürlich weder sexistisch noch rassistisch. Er spiegelt nur die manifestierten Vorurteile der Welt aus den Daten wider.

Um Chatbots zu trainieren, werden oft öffentlich zugängliche Texte verwendet, manchmal ohne Zustimmung der Autorinnen und Autoren. Auch bei der Nutzung durch Endanwenderinnen und Endanwender können persönliche Daten erfasst werden. Dies birgt Risiken für die Privatsphäre der Nutzerinnen und Nutzer. Letztendlich sollte man sich vor allem darüber bewusst sein, dass Chatbots Antworten auf Basis von Wahrscheinlichkeiten erstellen, was dazu führen kann, dass sie überzeugend klingende, aber falsche Informationen generieren können. Dieses Phänomen wird als „Halluzination“ bezeichnet und ist derzeit schwer zu beheben.

Aus diesem Grund ist Transparenz besonders wichtig. Nutzerinnen und Nutzer sollten jederzeit darüber informiert sein, wann sie mit einem Chatbot interagieren und wie die Antworten entstehen. Viele Chatbots können jedoch nicht zuverlässig erklären, wie eine bestimmte Antwort zustande kam. Ein Problem, an dem noch gearbeitet werden sollte.

Fazit

„Chatbots haben seit den frühen Tagen von ELIZA einen beeindruckenden Entwicklungssprung gemacht. Mit dem Aufkommen von Large Language Models wie ChatGPT, LlaMA oder den Modellen von Aleph Alpha sind sie zu vielseitigen Werkzeugen geworden, die in der Lage sind, natürliche und dynamische Konversationen zu führen. Sie unterstützen Nutzerinnen und Nutzer in vielen Bereichen des Alltags und der Arbeitswelt – sei es beim Beantworten von Fragen, dem Verfassen von Texten oder beim Brainstorming von Ideen.

Dennoch sollten Nutzer sich der Schwächen bewusst sein. Chatbots können fehlerhafte Informationen liefern, Verzerrungen (Bias) enthalten oder Probleme mit Datenschutz und Transparenz aufweisen. Ein sinnvoller Umgang mit Chatbots gleicht der Zusammenarbeit mit einer motivierten Praktikantin oder einem motivierten Praktikanten: Sie können viele Aufgaben zuverlässig ausführen, aber ihre Arbeit sollte stets kontrolliert und überprüft werden. Die Weiterentwicklung in Richtung multimodaler Modelle wird die Einsatzmöglichkeiten von Chatbots noch erweitern – doch ein kritischer und reflektierter Umgang bleibt weiterhin unerlässlich.“

▸ Diese Zusammenfassung wurde von ChatGPT generiert.