KI = künstliche Intelligenz mit all seinen vielen Anwendungsmöglichkeiten nimmt eine immer größere Rolle in der Arbeitswelt wie auch im privaten Leben ein – bietet viele Annehmlichkeiten und Vorteile, aber auch Gefahren.
Insbesondere der revolutionäre neue Chatbot ChatGPT bekam in den vergangenen Monaten – seit die neue Version GPT-4 Mitte März 2023 veröffentlicht wurde – in der Öffentlichkeit viel Aufmerksamkeit. Denn die aktuelle Version kann deutlich längere Texte verarbeiten und kreieren als ihre Vorgänger.
Dennoch, um die Dimensionen zu verdeutlichen, hatte das US-amerikanischen Unternehmen >OpenAI< 2022 bereits 5 Tage nach der Veröffentlichung der GPT-1-Version 1 Million Nutzer; im Januar 2023 waren es bereits 100 Millionen.
Zum Vergleich: Das bereits im Jahr 2012 erschienene, zu Facebook gehörende soziale Netzwerk Instergram, das vor allem zum Ansehen und Verbreiten von (bewegten) Bildern verwendet wird, brauchte 2 1/2 Jahre; die App TikTok aus dem Jahr 2018, zum Ansehen und Verbreiten von Video-Clips, brauchte 9 Monate, bis es 100 Millionen Nutzer hatte.
ChatGPT ist ein Chatbot, also ein Roboter mit dem man sich unterhalten (engl. chatten) kann.
GPT ist die Abkürzung für „Generative Pre-trained Transformer“.
Das Besondere ist hier, dass es sich nicht um ein Computer-Programm handelt, sondern um ein neuronales Netzwerk, das selbst lernfähig ist; d.h. ChatGPT wurde nicht von Menschen programmiert. Die Maschine lernt anhand von Beispielen (machine learning), um menschliche Sprache zu verstehen und so eine der menschlichen Sprache ähnelnde Antwort zu erzeugen. Dazu werden im System über 200 Milliarden Parameter und Algorithmen aus verschiedenen Netzwerken mit sehr großen Datenmengen verwendet.
ChatGPT-4 basiert auf seinem Vorgänger, dem GPT-3-Sprachmodells von OpenAI, das Milliarden von Sätzen aus sehr vielen Texten aus dem World Wide Web als Input erhielt. Letztlich wurde nichts weiter gelernt, als Zusammenhänge zwischen Wörtern zu erkennen und Wörter so hintereinander zu setzten, dass sie sich wie menschlich produzierte Sätze lesen.
Die neue Version wurde zusätzlich durch menschlichen KI-Trainer, die sich mit dem Roboter unterhielten, trainiert.
Auf diese Weise wurde der maschinelle Output in Sprachstil und Textlänge weiter verbessert, so dass die Ergebnisse nun noch menschlicher erscheinen. Stilistisch kann nun an Inhalten gefeilt werden (z.B. „schreib es etwas lustiger“ oder „vermeide Fremdwörter“). Dabei kann die neuste Version auch Bilder erkennen oder Audio als Inputquelle verwerten. Auch Bugs, also Fehler, in Computerprogrammen kann das System mittlerweile finden, indem mit ChatGPT die Codes nahezu aller Programmiersprachen analysiert werden können. Auch beim Schreiben von Computercodes könnte ChatGPT helfen.
ChatGPT kann zwar z.B. innerhalb von kürzester Zeit ein Referat zu einem Thema erstellen, eine wissenschaftliche Arbeit verfassen, komplizierte Matheaufgaben lösen, Witze erzählen oder Gedichte schreiben. Es kann aber nicht „wahr“ von „unwahr“ (fake) unterscheiden. Es sollte also nicht als Ratgeber verwendet werden.
Die generierten Texte sind zwar in sich logisch, aber nicht unbedingt richtig oder gar inhaltlich verlässlich.
Auch produziert ChatGPT, gibt man die gleiche Anweisung mehrmals, keineswegs jedes Mal den gleichen Text, sondern jedes Mal einen neuen Text. Der Wahrheitsgehalt der von ChatGPT geschriebenen Texte ist Glückssache!
Denn ChatGPT kann nicht im Internet surfen und die Frage nach dem aktuellem Wetter in Paris oder nach aktuellen Wissensstand beantworten. So ist sehr bedeutsam, dass ChatGPT mit menschlichen Texten aus dem Internet trainiert wurde und auf dieser Grundlage zu den meisten Themen Antworten gibt. Sprache jedoch enthält nun einmal alles Mögliche, einschließlich die damit verbundenen offen oder verdeckten Meinungsbilder, Vorurteile, hoffnungslos veraltete Wissensstände und Fakten.
Beim Thema Chatbot und Verantwortung geht es dann ganz praktisch darum, dass die Technik nicht zur Verbreitung von rassistischen, sexistischen oder anderen Vorurteilen, Fake-News, Hass-Sprache, Spam-Mails oder anderen toxischen Inhalten auf unterschiedlichsten Plattformen und Formaten eingesetzt wird. Das kann aber leichter geschehen als man denken mag, lernen doch die mit Sprache trainierten Netzwerke, was man ihnen letztlich der Mensch als Input vorgibt.
Ein Beispiel aus dem US-amerikanischen Gesundheitswesen zeigte solche Verzerrungen (um nicht zu sagen Vorurteile). Wie eine viel beachtete, im Fachblatt Science 2019 publizierte Arbeit nachweisen konnte, wirkte sich die über Jahre hinweg verwendet KI, um Entscheidungen zu treffen, ob ein Patient stationär aufgenommen wird oder nicht, zum Nachteil der Versorgung schwarzer Patienten aus. Denn die KI war mit Daten zu den Gesundheitskosten als Indikator für den Gesundheitsbedarf trainiert worden. People of color geben jedoch, trotz ihres tatsächlichen Bedarfs in der Regel weniger Geld aus als weiße Patienten. So lernte das System, den Grad der Aufmerksamkeit, die ein Patient braucht, bei schwarzen Patienen systematisch zu unterschätzen. Am Ende, bei gleichem Risiko, hatten farbige Menschen eine 50 % geringere Wahrscheinlichkeit ins Krankenhaus eingewiesen zu werden. Sie wurden systematisch als gesünder eingeschätzt als gleich kranken weiße Patienten. Das hat natürlich Konsequenzen; es geht um Leben oder Tod.
Es gehört zur Natur neuronaler Netzwerke, dass sie nicht wissen, warum sie etwas wissen.
Wenn im System über 200 Milliarden Parameter verwendet, heißt das im Klartext, dass es ein Netzwerk mit 200 Milliarden Synapsen (Verbindungsstellen) ist, deren 200 Milliarden einzelne Stärken eben zu genau dem Input-Output-Mapping führen, das es leistet. Man stelle sich einen Vektor mit 200 Milliarden Zeilen vor, also all diese Zahlen untereinander geschrieben mit einer Klammer darum herum. Verstehen kann man hier nicht – egal. was man mit Verstehen auch immer meinen könnte. Aber nicht nur, dass Wahrheit und Falschheit da unterschiedslos nebeneinander gestellt sind, so wie wir es von Internetrecherchen kennen, ChatGPT gibt sogar wissenschaftlich Quellen an, die frei erfunden sind.
Einerseits ist diese halluzinieren des Netzwerkes eine Bedrohung wissenschaftlicher Standards, denen wir vertrauen entgegenbringen, da davon auszugehen ist, dass die Wissenschaftler sich um Zuverlässigkeit und Wahrheit bemühen;
andererseits hat diese frei Kombination von Inhalten auch schon neue Eiweißkörper gefunden, die tatsächlich funktionieren und so der Proteinforschung völlig neue Erkenntniswege erschlossen.
Experten können aus Halluzinationen, also Inhalten denen (noch) keine Realität entspricht, innovativ nutzen, einfache Nutzer können das in der Regel nicht.
Wenn es in einem Text also wirklich um etwas geht, z.B. um die Einhaltung von Regeln der Statistik, um Physik, Material und Recht in einem Bauantrag, die Diagnose und Therapie in einem Arztbrief, Lehrbücher für Geschichte oder Chemie, einen Zeitungsartikel über das neueste Tagesgeschehen oder irgendeinen wissenschaftlichen Fachartikel, dann geht es um Vertrauen. Denn kein Mensch kann alles nachprüfen, bevor er handelt.
Wenn wir also z.B. ein Medikament einnehmen oder ein Flugzeug besteigen, dann glauben wir daran, dass sämtliche Bestimmungen der nationalen und internationalen Behörden erstens der Wahrheit entsprechen und zweitens auch erfüllt bzw. eingehalten werden. Man kann zwar alles anzweifeln, aber nicht alles auf einmal.
Jeder kann sich jedweden Text, dessen Inhalt er einigermaßen charakterisieren kann, mit Hilfe von ChatGPT schreiben lassen – ohne dass es auffällt. z.B. “Schreibe eine Bewerbung mit folgenden Daten; einen Leserbrief mit folgendem Inhalt, einen Zeitungsartikel über … mit 200 Wörtern, eine Arbeit zu … mit 5000 Wörtern zur Zusammenfassung von …)
Allerdings: welche langfristigen Folgen wird es haben, wenn man nichts mehr selber schreiben braucht?, wenn weitere Hirnfunktionen extern erledigt werden! Es ist, wie bei vielen Fortschritten der Technik, schwer abzusehen!
Einige Wissenschaftler warnen bereits davor, dass Menschen durch die Übertragung des Denkens auf automatisierte Chatbots die Fähigkeit zum eigenständigen artikulieren von Gedanken verlieren könnten. Für diejenigen, die diese Fähigkeiten erlernen und ausbilden wollen, sind Chatbots ganz offensichtlich ungeeignet.
Denn Denken wie Schreiben erlernt man nur dadurch, dass man denkt und schreibt, und keineswegs dadurch, dass man über Geschriebenes diskutiert. Fußball oder Saxophon zu spielen lernt man ja auch nicht, indem man darüber redet, Fern sieht oder Musik hört.
Zudem hat diese KI-Technik Konsequenzen auf Hausarbeiten und Prüfungen, die in Schulen, Universitäten und Büros ganz neu konzipiert werden müssen.
Aber auch ein weiterer Aspekt ist von Bedeutung: Kein ökologischer Fußabdruck wächst derzeit schneller als der des Digitalen.
Quelle: ChatGPT – Nur ein weiterer Trend oder eine Revolution? Prof. Dr. Dr. Manfred Spitzer, Uni Ulm; in Nervenheilkunde 2023; 42; 192-199
mehr noch auch über den Galileo-TV-Link