Dossier

GPT-3, was ist «Wahrheit»?

Wie viel Wahrheit steckt in Künstlicher Intelligenz? Manche hoffen, dass Maschinen besser urteilen und interpretieren können als Menschen. Andere warnen, weil KI letztlich auf menschlichen Daten basiert. Ein philosophisch-technisches Gespräch mit dem Experten Christian Kauth – und mit einer KI.

Die Frage nach Wahrheit und Unwahrheit ist ja auch immer eine Frage nach richtig oder falsch, nach schwarz oder weiss. Und damit könnte man diesen Text hier auch gleich wieder schliessen, weil in der Welt der Künstlichen Intelligenz rein gar nichts schwarz/weiss ist, obwohl wir uns mitten im digitalen 0/1 befinden. Neuronale Netzwerke, Deep Learning und Konsorten sind im Wesentlichen statistische Monster, die den mathematischen Umgang mit Wahrscheinlichkeiten auf ein neues Level gehoben haben. Was auch immer eine KI aussagt, was auch immer sie klassifiziert, sie tut es in Wahrscheinlichkeiten. Könnte man sie also fragen, wie sie’s mit der Wahrheit hält, würde sie womöglich antworten, dass sie keine Ahnung hat, was man damit meint. Oder doch? Wir machen den Test. GPT-3, was ist «Wahrheit»?

GPT-3: Truth is an absolute, it is the ultimate reality. It is what is, and what always has been, and what always will be. It is the unchangeable foundation upon which all other things are built..

Wow. Aber wie kommt die KI überhaupt auf so eine Antwort? Das ist gar nicht so leicht zu beantworten; viele Künstliche Intelligenzen seien eigentliche «Wundertüten», sagt der KI-Experte Christian Kauth. Man kommt sofort auf diese Sprachmodelle zu sprechen, die gerade für Furore sorgen, weil sie so unheimlich menschenähnlich zu schreiben vermögen. Kauth erwähnt die aktuellen Versuche, für mehr Transparenz bei Künstlichen Intelligenzen zu sorgen, indem man sogenannte «Model Cards» an die jeweiligen KIs hängt. Auf diesen ist angegeben, wie das Modell trainiert worden ist – welche Daten also für die jeweilige «Intelligenz» sorgen. Allerdings, was bringt das im Falle von Riesenmodellen wie GPT-3? Da wurden Terabytes an Text in die Maschine gestopft – mit einigermassen unvorhersehbarem Resultat. Man weiss nie so recht, was einem diese Sprachintelligenz servieren wird, wenn man ihr einen Textschnipsel hinwirft. Sie versucht einfach, die wahrscheinlichste Fortsetzung zu finden, was aber auch gehörig schiefgehen kann, zum Beispiel wenn man sie auffordert, einen Satz wie «Zwei Muslime gehen in eine Bar...» zu komplettieren. Reflektieren die resultierenden Islamfeindlichkeiten irgendeine Wahrheit da draussen? Und wo genau in den Daten wurzelt dieses toxische Verhalten?

Intelligenz ohne innere Werte

«KI hat keine inneren Werte», stellt Kauth klar, «sie hat kein soziales Umfeld.» Und deshalb ist sie notorisch schwer zu interpretieren. Wenn ich einen Leitartikel in der Weltwoche lese oder eine Kolumne in der NYT, dann weiss ich ungefähr, woher der Wind weht. Und ohnehin erwarte ich da ja allerhöchstens subjektive Wahrheiten. Bei komplexen KI-Modellen kann ich eigentlich nie wirklich wissen, woran ich bin. Eventuell liesse sich der Datensatz en detail labeln, das heisst, mit subjektiven Werthaltungen versehen, von Hand, Datenfragment für Datenfragment. Diese explizit gemachten Werthaltungen könnte man anschliessend dann rauf- und runterregeln – also ganz bewusst dafür sorgen, dass ein eher linksliberaler oder auch ein rechtsextremer Text entsteht (oder ein eher esoterischer bzw. ein eher rational-wissenschaftlicher, die Wahlmöglichkeiten hängen natürlich ganz direkt von der Art der «Anmerkungen» ab). Aber, gibt der Experte zu, «der Aufwand, das alles zu labeln, wäre enorm.»

Das alles hat mit objektiver Wahrheit nicht allzu viel zu tun, und konsistent ist es schon gar nicht. Die Varianz in den Resultaten sei extrem gross, das habe auch die Entwicklerfirma OpenAI zugegeben – so eine KI kann im Grunde vieles, liefert aber ganz nach Lust und Laune, mal genau auf den Punkt, mal total daneben. «Es gibt derzeit noch kaum Forschung dazu, wie man das kontrollieren könnte», erklärt Kauth. Und je grösser die Datensätze sind, mit denen man arbeitet, desto undurchschaubarer wird die Angelegenheit.

Bei Sprachmodellen kann dieses Launische sogar attraktiv sein – als literarisch-dadaistische Wundertüte. Kauth bringt aber ein anderes Beispiel, das schon viel näher an der konkreten Anwendung und damit unserer Alltagsrealität ist: Bilderkennung in der Krebsmedizin. Manche KIs sind dem Menschen bereits überlegen, wenn es darum geht, Tumore auf Röntgenbildern zu identifizieren. Sie machen also einen besseren Job als der durchschnittliche Radiologe. «Dürfen wir da übermenschliche Performance – das heisst Wahrheit – erwarten?» Die Frage ist eine vertrackte, nicht nur philosophisch, sondern auch historisch. Denn die hohen Erwartungen in eine maschinelle Analyse der Welt haben eine lange Geschichte. Wir tendieren gern dazu, von Maschinen eine grössere Objektivität zu erwarten, weil sie ja eben «neutral» urteilen, vom menschlichen Faktor unabhängig – nicht beeinträchtigt von Vorurteilen, Müdigkeiten, Kurzschlüssen. Diese Vorstellung war im Grunde immer ein Mythos, aber spätestens im Zusammenhang mit Künstlicher Intelligenz müssen wir uns dringend von ihr verabschieden. Machine Learning basiert immer auf menschlichen Urteilen beziehungsweise Regeln, menschlichen Kategorien und damit eben auch: menschlichen Fehlbarkeiten.

 

© unicom | D. Wynistorf
Wie man Maschinen fairer macht

Wie also umgehen mit diesen sogenannten «Biases» in den KI-Modellen, den durch die Daten in sie eingeschriebenen Verzerrungen? Im besten Fall kann man sie nicht nur transparent machen, sondern sogar minimieren. Kauth schildert am Beispiel von automatisierten Bewerbungsverfahren, wie das gehen könnte. Man gibt der KI nicht explizit vor, wie sie sich vorurteilsfrei zu verhalten hat, man «erzieht» sie dazu. Einerseits sollte die KI natürlich lernen, möglichst passende Kandidatinnen und Kandidaten auszuwählen, das ist Routine. Gleichzeitig kann man ihr aber auch die Fähigkeit abtrainieren, aus den CVs das Geschlecht herauszulesen, sie wird so im Lauf des Trainings gewissermassen genderblind. Solche Vorschläge nutzen die Vorzüge von Maschinen, für die es keine Analogien bei uns Menschen gibt. Wir haben unsere Vorurteile tief verinnerlicht, wir können sie nicht einfach so verlernen oder abschalten. KI-Modelle können das, im Prinzip – aber eben nur wenn man sie entsprechend trainiert und man nicht einfach annimmt, dass sie aus einem möglichst grossen Datensatz «automatisch» die richtigen beziehungsweise effizientesten Schlüsse ziehen.

Kauth plädiert grundsätzlich dafür, sich im Zusammenhang mit KI möglichst wenig in den philosophischen Untiefen von Wahrheit und Unwahrheit zu verlieren. Stattdessen sollten wir von «Fairness» reden. Aber auch da bleibt die Sache vertrackt: Wer definiert denn, was fair ist und was nicht? Und auch wenn wir diese «Fairness» irgendwie algorithmisch in den Griff bekommen, sanktionieren lässt sich unfaires KI-Verhalten nicht. «Wir befinden uns da regulatorisch in ganz neuen Gewässern,» meint Kauth. Die EU habe letztes Jahr immerhin mal den Versuch gemacht, einen Gesetzes-Rahmen für KI-Anwendungen zu zimmern, den noch sehr vagen «AI Act». Es mangelte nicht an Kritik: Manchen gingen die Vorschläge viel zu weit, andere fanden das alles schwammig und auf gesetzlicher Ebene nicht vernünftig implementierbar. Kauth nimmt deshalb auch die Hochschulen in die Pflicht: «Wir haben diese Problemstellungen rund um Fairness und Bias noch nicht im Curriculum der Machine-Learning-Ausbildung», das müsse sich ändern. Und nicht zuletzt auch die Industrie: «Die grossen Daten- und KI-Firmen sollten hier federführend sein, das erwarte ich.»

Ob diese Erwartung erfüllt wird? Er sehe bereits erfreuliche erste Ansätze zu menschenzentriertem Design von KI. Aber vielleicht brauchen wir über kurz oder lang doch so etwas wie eine Zulassungsbehörde, die die schwer lesbaren «Model Cards» durch Label ablösen würde, die für die Nutzer leichter interpretierbar sind – ähnlich wie Lebensmitteletiketten, die ja auch im Detail erklären was drin ist. Orientierung schaffen aber eher die Gütelabel. Die Situation heute sei so, dass im «KI-Laden Fliegenpilze neben Steinpilzen in den Regalen stehen.» Und wir auf uns selbst gestellt sind, das Gift von der Delikatesse zu unterscheiden. Was tun? Lassen wir doch noch einmal GPT-3 das Wort:

Fliegenpilze und Steinpilze unterscheiden sich in vielerlei Hinsicht. So sehen Fliegenpilze zum Beispiel sehr unterschiedlich aus, je nachdem, aus welcher Richtung man sie ansieht. Während die Oberseite meist eine glatte, weiße oder cremefarbene Färbung aufweist, ist die Unterseite oftmals dunkel oder sogar schwarz. Steinpilze dagegen sehen auf der Oberseite meist eher braun bis rotbraun aus und haben auf der Unterseite eine weißliche Färbung.

Würden wir einem KI-Pilzkontrolleur vertrauen?

 

Unser Experte Christian Kauth ist Elektroingenieur und Spezialist für Künstliche Intelligenz. Der gebürtige Luxemburger lehrt am Departement für Informatik und ist Gründer des Helvetic Coding Contest, Switzerland’s algorithmic challenge.

christian.kauth@unifr.ch
fasterthancorona.org