Dossier
KI ist keine moderne Erfindung
Ob als allwissender Computer «HAL 9000» aus «2001: Odyssee im Weltraum» oder als wortkarger «Terminator»: Die Kinoleinwand kennt viele – auch falsche – Darstellungen von KI. Mittlerweile ist die Künstliche Intelligenz auch in unserem Alltag angekommen und aus vielen Bereichen kaum mehr wegzudenken. Zeit für eine Bestandesaufnahme.
Bereits im 8. Jahrhundert v. Chr. schreibt Homer in der «Ilias» von Automaten, die Hephaistos, der Gott der Schmiedekunst, erschuf, um Unterstützung bei seiner Arbeit zu erhalten:
[…] und Jungfraun stützten den Herrscher [Hephaistos], Goldene, Lebenden gleich, mit jugendlich reizender Bildung: Diese haben Verstand in der Brust, und redende Stimme, Haben Kraft, und lernten auch Kunstarbeit von den Göttern.
«Automat» stammt übrigens vom altgriechischen Wort αὐτόματος (automatos), zusammengesetzt aus «selbst» und «denken, wollen» — ein erster Hinweis darauf, was wir Menschen uns von KI erhoffen.
Vom Mythos zur Mechanik
Das 18. Jahrhundert war die Hochphase solcher «Automaten» und brachte unzählige derartiger Objekte hervor wie beispielsweise filigrane Musikboxen (die wir vermutlich nicht direkt mit KI assoziieren) oder den berühmt-berüchtigten «Schachtürken». Entwickelt von Wolfgang von Kempelen und beworben als eine Maschine, die selbständig Schach spielen kann, stellte sich dieser Automat als eine Fälschung heraus: Im Innern war schlicht Platz, um einen menschlichen Schachspieler zu verstecken. Bevor der Schwindel aufflog, war der «Schachtürke» aber (zu Recht) eine Sensation, schien er doch zu mechanisieren, was bis dato dem Menschen vorbehalten war.
Die Kreativität dieser Epoche war jedoch letztlich durch fehlende Technologie eingeschränkt. Die meisten Maschinen aus dieser Zeit sind schlicht zu speziell, um für uns als KI zu gelten. Eine interessante Anekdote sei gleichwohl kurz erwähnt. Sie stammt von Charles Babbage, der eine «Differenzmaschine» entwickelte, das heisst eine Rechenmaschine zur Auswertung polynomialer Funktionen, um bestimmte mathematische Berechnungen schneller und genauer durchführen zu können. In seinem Buch «Passages from the Life of a Philosopher» (1864) schrieb er dazu:
«On two occasions I have been asked, ‹Pray, Mr. Babbage, if you put into the machine wrong figures, will the right answers come out?› […] I am not able rightly to apprehend the kind of confusion of ideas that could provoke such a question»
Mit den Vorläufern des modernen Computers erhielt die Idee der Künstlichen Intelligenz neuen Auftrieb. 1956 trafen sich führende Forschende an der «Dartmouth Conference». Der Projektantrag war erstaunlich optimistisch und veranlangte zwei Monate (!) für folgendes Ziel:
[…] The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. […] We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer.
Obwohl die Konferenz viele neue Ideen hervorbrachte, unter anderem Expertensysteme und die ersten neuronalen Netzwerke, welche die Basis für unsere heutige KI liefern, blieb es danach recht lange still. Das Feld erfuhr dann kurz wieder öffentliche Aufmerksamkeit dank «Deep Blue», einem Schachcomputer, der 1996 den Grossmeister Garri Kasparow besiegte. «Deep Blue» setzte jedoch schlicht auf Rechenkraft und nicht auf Intelligenz: Gefüttert mit tausenden Partien von Schachmeistern, war der Computer besser darin, gute Züge vorherzusagen, jedoch unbrauchbar für alle anderen Aufgaben.
Ein Traum nimmt Form an
Zum Glück kam um das Jahr 2012 dann der Durchbruch: Mit der Verfügbarkeit moderner «Grafikkarten» (oft auch mit GPU, Graphics Processing Unit, bezeichnet) wurden neuronale Netzwerke auf einmal praktisch anwendbar! Die Idee hinter diesen Netzwerken ist denkbar allgemein: Man nehme viele kleine Recheneinheiten, die «Neuronen». Sie erhalten ein Eingabesignal und können dieses leicht modifiziert («gewichtet») an andere Neuronen weitergeben. Durch eine hierarchische Anordnung wird ein Eingabesignal innerhalb des neuronalen Netzwerks schrittweise verändert und führt zu einer Ausgabe, die je nach Aufgabe anders interpretiert wird. Wenn unsere Eingabe beispielsweise ein Bild von einem Tier ist, könnte unsere Ausgabe die Wahrscheinlichkeit sein, dass es sich dabei um einen Hund handelt.
Um ein solches Netzwerk zu trainieren, bedarf es nun Unmengen an Daten. Wir können uns dies am besten so vorstellen, dass ein Netzwerk wiederholt nach der Antwort zu einer Eingabe gefragt wird. Ist diese Antwort falsch, so werden die Gewichte im Netzwerk modifiziert, bis die Antwort besser wird. Durch unzählige Wiederholungen und unzählige Daten hofft man, dass das Netzwerk dann irgendwann allgemeine Gesetzmässigkeiten aus den Daten ableiten kann. In der Tat traten neuronale Netzwerke ihren Siegeszug an, zunächst in der Bildverarbeitung, später auch in anderen Domänen. Bereits 2019 erhielten drei Visionäre der 1980er Jahre — Yann LeCun, Yoshua Bengio und Geoffrey Hinton — den «Turing-Award» für ihre wegweisenden Beiträge zur KI-Forschung. Zusammen mit Forschern wie Jürgen Schmidhuber werden sie gemeinhin als «Paten der modernen KI» bezeichnet.
Der Durchbruch
Der nächste Sprung erfolgte dank einer Innovation namens «Attention», durch die ein Netzwerk selbst lernen konnte, welchen Eingaben besondere Aufmerksamkeit zu schenken ist, sowie der zugehörigen Architektur, dem «Transformer». Diese Architektur stellte sich als allgemein nützlich heraus und ermöglichte es, neuronalen Netzen exzellente Sprachkenntnisse zu vermitteln, womit sie nun eine Bastion besetzen, die bis dato dem Menschen vorbehalten war. Mittels riesiger Datensätze und Unmengen an menschlichen Helfer_innen zur Annotation und Bewertung der Antworten eines neuronalen Netzwerks, gelang es OpenAI mit seinem «Large Language Model» (LLM) ChatGPT schliesslich, eine allgemein nutzbare KI zu entwickeln.
Nun befinden wir uns inmitten eines Umbruchs und KI, fast synonym mit LLMs, wird überall eingesetzt. Sprache als Schnittstelle für die Kommunikation mit dem Menschen zu nutzen, ist ein Geniestreich, gibt sie dem Modell doch einen vermeintlich «intelligenten» Anstrich. Dabei sind die Wirkmechanismen immer noch die gleichen wie in den 1970er Jahren und basieren auf viel Daten und Statistik. Das macht einen wesentlichen Unterschied zu anderen Mechanismen aus: Die «Differenzmaschine» von Babbage macht keine Fehler in ihren Berechnungen, ist aber beschränkt. LLMs wie ChatGPT hingegen reden prinzipiell über alles, basierend auf Statistik. Wenn die Eingabedaten die Schweiz mit Bergen in Bezug bringen, «lernt» die KI diesen Fakt. Es bedarf daher viel menschlicher Intervention, KI die richtigen Fakten und Zusammenhänge beizubringen und wir sollten nicht zulassen, dass dies hinter verschlossenen Türen passiert. Zudem ist aufgrund der statistischen Natur dieser Systeme nicht ausgeschlossen, dass KI unbewusst falsche Informationen liefert (man spricht hier gerne von «Halluzinationen»).
Moderne KI ist eine Technologie, die uns vor völlig neue Herausforderungen stellt. Wie jede Technologie hat sie das Potential für gute und schlechte Anwendungen, jedoch ist moderne KI geradezu verführerisch, lädt sie doch dazu ein, sich das Denken und die Kreativität abnehmen zu lassen (ein Taschenrechner kann dies nur bedingt). Gleichzeitig kolportiert sie, dass man mit einer «Person» spricht. Hinter dieser Fassade ist aber wohl (noch?) kein Bewusstsein, was viele Menschen aber nicht davon abhält, die KI als Person zu behandeln und ihr zu vertrauen. Dieses Vertrauen kann fatal sein. Als Gesellschaft müssen wir uns daher fragen, wie wir mit KI umgehen sollen. Dabei ist unabdingbar, dass wir alle zumindest die Grundzüge dieser Modelle verstehen, denn sonst droht die Beziehung von Mensch und Maschine schnell toxisch zu werden.
Unser Experte Bastian Grossenbacher-Rieck, ist Professor für Maschinelles Lernen an der Universität Freiburg und Leiter des AIDOS Labs.
bastian.grossenbacher@unifr.ch
