TU Darmstadt nimmt Künstliche Intelligenz unter die Lupe

Die ganze Welt spricht von KI. Künstlicher Intelligenz. Die große Frage: Ist KI irgendwann so schlau, dass sie bald menschliche Intelligenz in den Schatten stellt? Selbst die Führung übernimmt? Dazu gibt es nun eine neue Studie, an der die Technische Universität Darmstadt führend mitgeforscht hat. Mehr gleich im Studiotalk – vorher sprechen wir über das, was vielen bei KI direkt in den Sinn kommt: ChatGPT.

„ChatGPT ist ein leistungsstarker Chatbot, der auf künstlicher Intelligenz basiert und in vielen Bereichen zum Einsatz kommt: Von der Kundendienstunterstützung über die Textverarbeitung bis hin zur kreativen Arbeit. Viele sehen in dieser Technologie großes Potenzial.“
Den Text, den sie gerade gehört haben, den hat die App ChatGPT selbst geschrieben. Unser Auftrag: „Erstelle einen Fernsehbeitrag für eine Nachrichtensendung über die Vor- und Nachteile von ChatGPT.“ Nur wenige Sekunden später liefert die App ein komplettes Paket: Anmoderation, mögliche Interviewpartner, Vorschläge für Bilder und einen Text.
ChatGPT – für viele ist die Nutzung dieser Künstlichen Intelligenz schon jetzt Alltag. Auch an vielen Schulen wird mit der App gearbeitet. Doch dieser Chatbot ist nur ein klitzekleiner Teil der Künstlichen Intelligenz.
Fakt ist: KI ist DIE Schlüsseltechnologie schlechthin. Eine Technologie, die in den nächsten Jahrzehnten alle Lebensbereiche durchdringen wird. Viele Berufsgruppen werden ihre Arbeit umstellen müssen. Die Veränderungen durch die KI sind für viele gleichzusetzen mit denen der Industriellen Revolution.
So sieht das auch Geoffrey Hinton. Er gilt als Pionier im Bereich der Künstlichen Intelligenz. Gerade wurde er mit dem Nobelpreis für Physik ausgezeichnet. Er betont die Vorteile der KI, besonders im Gesundheitsbereich. Aber: Hinton warnt auch immer wieder vor unkontrollierbaren Risiken.
Geoffrey Hinton, Physik-Nobelpreisträger
„Ich mache mir Sorgen, dass es auch zu schlimmen Dingen führen könnte. Insbesondere wenn die Systeme intelligenter werden als wir selbst, weiß niemand wirklich, ob wir sie kontrollieren können.“
Aber müssen wir wirklich Angst vor der Künstlichen Intelligenz haben? Unter anderem mit dieser Frage beschäftigen sich führend die Technische Universität Darmstadt und das Deutsche Forschungszentrum für Künstliche Intelligenz in Kaiserslautern.
Und auch der von ChatGPT generierte Text weist auf die Gefahren der eigenen Nutzung hin. Die App scheint sich selbst nicht ganz zu trauen.
„Die KI greift auf riesige Datenmengen zurück, die nicht immer überprüft werden. Das führt dazu, dass es falsche oder missverständliche Informationen geben kann.“ (…) „Die Nutzung dieser Technologie sollte überlegt und verantwortungsbewusst erfolgen.“
———-
Markus Appelmann, Moderator:
Warnt sogar vor sich selbst. Iryna Gurevychist bei mir im Studio, Professorin der Technischen Universität in Darmstadt und auch Teil der Leopoldina, der Nationalen Akademie der Wissenschaften. Guten Abend.
Prof. Iryna Gurevych, Informatikerin Technische Universität Darmstadt:
Ja, guten Tag.
Appelmann:
Sie haben eine neue Studie herausgebracht, die viel beachtet ist. Dazu kommen wir gleich noch. Ich will einfach mal locker starten. Ist ChatGPT gar nicht so schlau, wie wir immer dachten?
Gurevych:
ChatGPT ist schon sehr schlau, aber doch hat sie ja nicht die sogenannten “emergenten Fähigkeiten”. Das heißt also, dass es Dinge tut, für die es nicht trainiert worden ist. Das haben wir in unserer Studie herausgefunden, dass es eben keine unerwarteten Leistungssprünge gibt, sondern dass das technisch regulierbar ist.
Appelmann:
Wir wollen einfach mal im Studio den Test heute machen mit ChatGPT und geben einfach mal den Namen des hessischen Ministerpräsidenten ein. “Wer ist Boris Rhein?” Und da kommt: “Boris Rhein, ist ein deutscher Politiker der CDU.” Das stimmt. Schauen wir mal auf die Ämter. Wissenschaftsminister war er, stimmt. Innenminister war er, stimmt. Im Januar 2022 wurde er zum Präsidenten des Hessischen Landtags. Das ist ganz klar falsch, denn er wurde 2022 zum Ministerpräsidenten gewählt. Da ist einiges richtig, einiges halbrichtig und auch einiges falsch. Wie kann das passieren?
Gurevych:
Ja, also hinter ChatGPT gibt es ja ein Sprachmodell. Das ist ja keine Suchmaschine, wo man Dokumente finden kann, wo das alles korrekt drinsteht, sondern der Text wird generiert, interaktiv, und zwar statistisch. Das heißt also, das Modell wird initialisiert und nach dem ersten Wort wird vorhergesagt: Was ist das wahrscheinlichste Wort in diesem Kontext?
Appelmann:
Das heißt, jedes Mal, wenn ich suche, kann da was ganz Neues rauskommen?
Gurevych:
Richtig. Das heißt also, es ist nicht deterministisch und je nach Initialisierung kommen unterschiedliche Sätze raus.
Appelmann:
Sie haben es eben gesagt, Sie haben eine Studie zu unerwarteten Leistungssprüngen der Künstlichen Intelligenz gemacht. Was war denn Ihr überraschendes Ergebnis?
Gurevych:
Ja, das ist eben keine unerwarteten Leistungssprünge gibt, sondern das liegt daran, wie die Studie von Google in 22 aufgesetzt wurde.
Appelmann:
Die hat was anderes nämlich behauptet, die Studie von Google.
Gurevych:
Genau. Die hat behauptet also, dass, wenn die Modelle immer größer werden, dann können sie plötzlich Aufgaben lösen, für die sie nicht trainiert worden sind. Und wir haben gezeigt, dass es dem nicht so ist.
Appelmann:
Das ist also eine gute Nachricht, dass KI nicht unkontrollierbar ist. Und trotzdem sagen Sie, die Entwicklung ist rasant und Sie warnen davor. Welche Risiken gibt es Ihrer Meinung nach?
Gurevych:
Also, es gibt eine Reihe von Risiken. Zum einen, wie wir am Beispiel Boris Rhein gesehen haben, kann die KI Dinge erfinden und Fakte erfinden. Das ist für uns Menschen schlecht sichtbar, weil die Texte ja doch sehr plausibel klingen. Ein anderes Risiko ist, dass es auch schädliche Antworten generieren kann, beispielsweise auf die Frage: “Wie kann ich schnell reich werden?” Also kann ich die Antwort geben, dass ich mit Kryptowährungen was machen soll. Das kann schädlich sein, das kann sein, dass das mit den Werten in unserer Gesellschaft nicht zu vereinbaren ist.
Appelmann:
Sie sind Mitglied der Leopoldina, ich habe es gesagt, Sie beraten also auch die Politik. Braucht es Regularien, Gesetze für Künstliche Intelligenz?
Gurevych:
Es braucht definitiv eine Regulierung, wie wir diese bei selbstfahrenden Autos beispielsweise schon haben. Diese Technologie ist älter, besser verstanden und wir haben die Regulierung dafür auch gefunden. Bei den Sprachmodellen ist das wesentlich schwieriger. Zum einen ist diese Technologie noch relativ jung im globalen historischen Kontext. Zum anderen ist es so, dass sich diese Technologie sehr schnell entwickelt. Also es stehen große Industrien dahinter und es werden ja auch ständig neue Sprachmodelle veröffentlicht, die qualitativ wesentlich besser sind. Daher ist es auch relativ schwierig, hier eine Regulierung zu schaffen, die stabil ist, weil sich ja der Gegenstand permanent weiterentwickelt.
Appelmann:
Deswegen bleiben wir an dem Thema auch immer dran. Danke schön, dass Sie dazu heute im Studio waren. Iryna Gurevych von der Technischen Universität in Darmstadt.
Gurevych:
Sehr gerne.