Dossier

(Un)durchschaubare Intelligenzen

Künstliche Intelligenz kann immer mehr Aufgaben bewältigen, die dem menschlichen Gehirn vorbehalten schienen. Hilft uns, was da gerade in silico entsteht, unsere eigenen Schaltkreise zu verstehen?

Man vergisst angesichts der jüngsten Grosserfolge der Künstlichen Intelligenz und insbesondere des Deep Learning leicht, dass die KI eine lange Vorgeschichte hat. Mit enttäuschten Hoffnungen, Intrigen, heftigen Angriffen und vielen langen und harten Wintern – man google mal «AI Winter». Hat da jemand «Game of Thrones» gesagt? Also, es war einmal: das Perceptron. Einer der Pioniere der KI-Forschung, Frank Rosenblatt, ersinnt 1958 einen neuen Algorithmus, der in der Lage sein sollte, einfache Aufgaben zu lernen. Und er lässt sich dabei ganz direkt von Biologie inspirieren: Im Grunde ist das Perceptron ein abstrahiertes Neuron, eine Nervenzelle, die Information empfängt und je nachdem weiterfeuert und weitere Neuronen anregt. Rosenblatt glaubt da schon, sein «perceptron may eventually be able to learn, make decisions, and translate languages.» Übers nächste Jahrzehnt wurde in diversen Labors emsig in der Richtung geforscht, bis ausgerechnet ein ehemaliger Mitstudent von Rosenblatt den Zweihänder hervorholte. Marvin Minsky, inzwischen selber eine Koryphäe der KI-Forschung, publizierte 1969 ein dünnes Buch, das wie ein Referenzwerk klingt, aber eine einzige Abrechnung war: «Perceptrons»  zeigte mit mathematischer Stringenz, dass das nie funktionieren würde mit Neuronalen Netzwerken, die sich zu eng an die Funktion von Nervenzellen anlehnen. Die Kritik manövrierte die sogenannten «Konnektionisten» aufs forschungspolitische Abstellgleis, auf dem sie mindestens zwei Jahrzehnte steckenbleiben sollten. 

Fast Forward

Seit gut zehn Jahren eilen die zeitgenössischen Varianten von Neuronalen Netzwerken von einem verblüffenden Erfolg zum nächsten – und übertrumpfen dabei regelmässig die Fähigkeiten des biologischen Vorbilds. Und es passiert, was passieren musste: Die Analogie wirkt zurück. Könnte es sein, dass das Gehirn, diese irritierende Komplexität, ein wenig so funktioniert wie diese overachievenden Deep-Learning-Netzwerke? Die KI-Gemeinde glaubt allmählich, nicht nur in ihrem Forschungsfeld eine Herausforderung nach der anderen meistern zu können – und irgendwann so etwas wie Artificial General Intelligence (AGI) zu erreichen – sondern auch, gewissermassen nebenbei, die grossen Rätsel der Neurologie zu knacken. Ein Beispiel nur, unter vielen: Das Deepmind-Team (verantwortlich unter anderem für den Monstergegner AlphaGo oder in jüngster Zeit für eine KI, die das alte Problem der Proteinfaltung gemeistert hat) berichtete 2018 in einem Artikel in «Nature» über die grundlegenden Funktionsprinzipien ihres Reinforcement-Learning-Algorithmus. Schon im Abstract ging die Analyse weit über klassische KI-Mathematik hinaus: Da war die Rede davon, dass es «notable parallels between [...] signals emitted by dopaminergic neurons and [...] reinforcement learning algorithms» gebe.

Denis Lalanne überrascht weder diese Rhetorik noch ihr philosophischer Unterbau. Der Mensch-Maschinen-Spezialist hat seit langem ein Ohr für die Art und Weise, wie KI-Experten über ihre Tools reden. Wir müssten zwingend auf Metaphern zurückgreifen, um das Funktionieren von Künstlicher Intelligenz zu beschreiben, sagt Lalanne – man denke nur an das omnipräsente «Lernen» oder umgekehrt, ein toller Fachterminus: «katastrophales Vergessen». Und natürlich komme es da zu «Kontaminationen» zwischen Biologie, Kognitionspsychologie und Informatik. Das Faszinierende an dieser sprachphilosophischen Betrachtung von KI ist, dass man sich bald in einem Spiegelkabinett wiederfindet. Die Informatik hat sich immer bei der Psychologie bedient, klar – Speicher heisst im Englischen «memory»: Gedächtnis. Inzwischen geht der metaphorische Austausch aber längst in beide Richtungen. Vom Gehirn wird gern als einer Art Prozessor gesprochen, der ganz unabhängig von unserem Selbst wirkt: «This is what social media does to your brain» zum Beispiel. Wir haben zu wenig Rechenkapazität. Unsere Schaltkreise brennen durch. Und nun eben, ganz grundsätzlich: Das grosse Rätsel Gehirn – ist es am Ende nichts als ein Deep Learning-Netzwerk? Ist die Analogie KI = Hirn also rein metaphorisch zu verstehen oder gehen die Ähnlichkeiten weiter?

Längst nicht ebenbürtig

Simon Sprecher kennt sich aus mit der Evolution von Gehirnen – mithin auch von Intelligenz. In seinem Labor an der Uni Freiburg erforscht er die molekularen und genetischen Grundlagen von Nervensystemen. Das Team wagt sich dabei nicht gleich an das menschliche Gehirn; kleine Modellorganismen sind leichter zu studieren. Auch Lernvorgänge interessieren Sprecher dabei, die Adaption eines einfachen Netzwerks an verschiedene Umstände. Und «einfach» ist sehr wörtlich zu nehmen, in der Natur, zumindest auf struktureller Ebene. «Wir haben das ja auch mal probiert», erinnert er sich: Das sogenannte Konnektom des Gehirns einer Fruchtfliegenlarve im Computer nachzubauen und zu sehen, ob man die in der Biologie beobachtete Funktionalität simulieren kann. Gerade mal um die 50 Neuronen hat ein solches Netzwerk – kein Vergleich zu den Millionen von Knotenpunkten, die sich in einem Neuronalen Netzwerk der aktuellen Mittelklasse stapeln. Rasch war klar, dass der Versuch scheitern musste – zu vieles was ein biologisches Hirn ausmacht, musste unberücksichtigt bleiben. Die Stärke der einzelnen Signale, die individuellen Eigenheiten jeder Zelle, womöglich sogar jedes Axons: all diese biologischen Details bildet ein Neuronales Netzwerk nicht ab. Sprecher nennt, was im Computer passiert, einen «brute force approach», im Gegensatz zu den «eleganten» Ansätzen, wie er sie in der Natur findet. Er anerkennt die Leistungsfähigkeit dieser Neuronalen Netzwerke, aber man hört einen kleinen Seitenhieb heraus, wenn er sagt, dass man auf diese Weise eben gar keine eleganten Lösungen zu suchen braucht. Deep Learning als Methoden-Overkill? Inzwischen hört man auch in der Fachwelt immer öfter die Kritik, dass man all diese tollen KIs daran messen muss, ob sie auch auf so stupend einfach Weise zu lernen vermögen wie ihre biologischen Pendants.

Black Box Gehirn

Für Analysen sei die KI Gold übrigens wert, sagt Sprecher, die Automatisierung der Bildverarbeitung bietet Möglichkeiten im Forschungsalltag, von denen man früher nicht zu träumen wagte. Er weiss aber auch um die Schwierigkeiten im Zusammenhang mit all der KI-Analysesoftware, das blinde Vertrauen in schwer durchschaubare Mathematik: «Solange es stimmt, was die Maschine liefert, finden wir alles OK.» Ohne wirklich zu verstehen, was da genau passiert ist mit den Daten. Womit wir uns unversehens wieder zurück im Spiegelkabinett befinden: Black Box Gehirn – Black Box KI?

Also noch einmal ein Jahrzehnt zurück, als die grosse Deep Learning-Revolution begann. Als sich zeigte, dass Neuronale Netzwerke tatsächlich so viel können, wie die Pioniere wie Rosenblatt immer versprochen hatten und die Netzwerke noch nicht ganz so komplex waren wie heute. Hat Sprecher das verfolgt, von der anderen Seite des Zauns aus, gewissermassen? «Natürlich, ich fand das zu Beginn schon inspirierend.» Aber inzwischen funktionierten Neuronale Netzwerke in so vielen Dimensionen, dass er kaum mehr von einer Vergleichbarkeit ausgeht. Und sich überhaupt fragt, wie wir die jüngsten Erfolge bewerten sollen: Wenn man ein Neuronales Netzwerk auf eine Aufgabe hintrainiert hat, könne es sehr viel, zweifellos – aber an sich sei es eben nicht besonders intelligent. «Intelligenz ist etwas anderes.» Aber was? Ist ein Gehirn etwa «an sich» intelligent? Der Kognitionspsychologe Gijs Plomp sagt etwas ganz Ähnliches: Das Gehirn sei zu Beginn kein unbeschriebenes Blatt, Gehirne seien «vorverdrahtet», also alles andere als zufällig strukturierte Netzwerke.

 

© Nadja Baltensweiler
Noch mehr grosse Fragen

Beim Blick in die Zukunft allerdings ist Sprecher vorsichtig. Als Evolutionsexperte würde er «intuitiv sagen», dass da womöglich ein ähnlicher Prozess wirkt in der Entwicklung biologischer und Künstlicher Intelligenz – die Probleme seien nun einmal fundamental ähnlich. Vielleicht werden die dabei entstehenden Intelligenzen gar nicht so verschieden sein am Ende – inklusive der zugrunde liegenden Organe. Womit wir wieder bei einer ganz grossen Frage sind: Hat die Evolution verschiedene Anläufe genommen, informationsverarbeitende Systeme zu entwickeln? Es könnte durchaus sein, dass das Gehirn mehrere Male passiert ist, unabhängig voneinander. Auf eine gewisse Weise würde das die KI als Konkurrentin ja weniger bedrohlich machen. Könnte doch sein, dass gerade jetzt da draussen im Urwald ein Schleimpilz auch so etwas wie Intelligenz entwickelt. Wie das schon 37 Mal zuvor passiert war in der Geschichte des Lebens. Und nun halt noch einmal mehr, in den Schaltkreisen, die wir gebaut haben.

In diesem grossen Verwirrspiel tut es gut, mit einem Praktiker in Sachen Gehirn zu sprechen. Gijs Plomp findet zunächst einmal, dass es «sehr viel Sinn macht», Neuronale Netzwerke und Gehirnfunktionen zu vergleichen, um letztere besser zu verstehen. Er muss es wissen, schliesslich ist er Spezialist für visuelle Wahrnehmung – eine der Paradedisziplinen von Deep Learning. Er verfolge die entsprechende Forschung intensiv und sehe ein grosses Potential. Auch er verweist auf prinzipielle Ähnlichkeiten in der Funktionsweise. Allerdings, und hier wird die Sache interessant: der Spezialist hätte auch gern eine sehr spezialisierte Art von Analogie. Die spannendsten Erkenntnisse ergäben sich nämlich da, wo Hirnspezialisten ihr aktuelles Wissen in die KI-Struktur einbauen, um dann zu sehen, wie diese spezifischen Neuronalen Netzwerke funktionieren. Die Analyse würde umso wertvoller, je mehr dieser Rahmenbedingungen in Zukunft in die Modelle eingebaut werden können.

Das klingt dann eher ein wenig wie die Konstruktion von Wettermodellen: analysieren, durchrechnen lassen, Prognosen abgleichen, Modell verfeinern. Beim pauschalen Umkehrschluss à la Deepmind sind also ein paar Zweifel angebracht. Er habe ja auch schon ein paarmal aus der KI-Gemeinde die Einschätzung gehört, dass «Vision solved» sei, im schönsten Ingenieur-Sprech, sagt Plomp. Aber so leicht sei die Sache nicht. Grundsätzlich unmöglich sei es wohl nicht, aber so bald rechnet er nicht mit einem grossen Durchbruch: «in 50, 100 Jahren vielleicht.»

Man dürfe eben nicht vergessen, dass es «wichtige Unterschiede» zwischen biologischen Gehirnen und Neuronalen Netzwerken gibt. Wie ist es zum Beispiel mit dem rhythmischen Charakter der Hirnsignale? Und speziell im Bereich des Sehens: «Die Rohdaten für unsere Sensoren waren nie stabile Bilder auf der Retina.» Plomp geht deshalb davon aus, dass man «fundamentale Prinzipien des Sehens» eher findet, wenn man einer Maschine beibringt, mit instabilen, verwackelten, durch das Gesichtsfeld wandernden Bildern umzugehen. Man dürfe sich insofern nicht zu leicht täuschen lassen von ähnlichen Fähigkeiten, zum Beispiel, wenn KI-Systeme Gesichter ebenso zuverlässig zu erkennen vermögen wie Menschen. «Nur weil eine KI dasselbe macht wie das Gehirn, heisst das noch lange nicht, dass man auf diese Weise etwas über das Gehirn lernen kann.»

Vielleicht meint Denis Lalanne etwas Ähnliches, wenn er fragt: «Was meinen wir denn genau mit ‹Intelligenz›?» Er gehe doch sehr davon aus, dass es in uns bereits verschiedene Intelligenzen gebe, zum Beispiel die des Bauchs. Und er meint damit nicht das notorische «Bauchgefühl», sondern die komplexen vegetativen Funktionen des Verdauungsapparates, die auch direkt Einfluss nehmen auf unsere bewusste Vernunftebene. Oder wie wäre es, wenn wir stärker die soziale und emotionale Seite der Intelligenz betonten, den Fakt also, dass wir nur klug werden können im Austausch mit anderen – oder anders gesagt: Dass sich Intelligenz womöglich gar nicht auf ein Individuum, auf ein Neuronenbündel reduzieren lässt?

Wir sind keine Maschinen

Er habe früh in seiner Forschungslaufbahn ja mal versucht, Kreativität in einer Maschine zu reproduzieren. Bis er gemerkt habe, dass es viel interessanter wäre, Maschinen zu entwickeln, um uns in unserer eigenen Kreativität zu helfen. Wir brauchten Geräte die uns ergänzen und verbessern, nicht solche, die uns einfach kopieren. Je mehr man nachhakt, desto unglücklicher scheint Lalanne mit der Fragestellung: Uns verstehen, indem wir die Maschine betrachten? Er hält die Analogie weder philosophisch noch im praktischen Alltag für besonders fruchtbar. Und ohnehin: Was glauben wir zu sehen im Spiegelkabinett? «Wir sind nicht einfach Maschinen, wir sind nicht deterministisch!» Und eigentlich schon genug narzisstisch, findet Lalanne. Die Reproduktion menschlicher Fähigkeiten sei vielleicht ein guter Ansatz für «Low-Level-Aufgaben» bei Wahrnehmung, Kognition oder allgemein überall da, wo man es mit formalisierbaren Regeln zu tun habe. Aber sonst? Das sei ja überhaupt die Ironie der Geschichte: «KIs können die Go-Halbgötter schlagen oder bessere Diagnosen stellen als Top-Zytopathologen, aber sie scheitern an Aufgaben, die jeder 6-Jährige mit gesundem Menschenverstand lösen kann.»


Unser Experte Denis Lalanne ist Direktor des Human-­IST Instituts der Unifr. Er beschäftigt sich seit langem mit den Berührungspunkten von Mensch und Maschine.
Seine aktuelle Forschung dreht sich u. a. um die Interaktion von Fussgängern mit selbstfahrenden Autos oder um intelligente Häuser.

denis.lalanne@unifr.ch

Unser Experte Simon Sprecher leitet das Sprecher Lab am Biologiedepartement der Unifr. Seine Forschung dreht sich um die Grundlagen der Gehirnentwicklung, um neurodegenerative Krankheiten und um die Verbindungen von Genen, Molekülen, Zellen und Verhalten.

simon.sprecher@unifr.ch

Unser Experte Gijs Plomp forscht am psychologischen Departement der Unifr zu den Grundlagen visueller Wahrnehmung und allgemein neuronalen Dynamiken. Als Post-Doc an der EPFL hat er ein EEG-Labor aufgebaut, um dynamische visuelle Prozesse zu untersuchen.

gijs.plomp@unifr.ch