Missing Link: Von den Mensch-Maschinen - wie stark ist Künstliche Intelligenz?


Artikel verfasst von

Maike

https://wunderwelt.red/




Quelle image: http://gottunddiewelt.net/2016/11/27/kuenstliche-intelligenz-wird-alles-veraendern/

 

G

ottvertrauen reicht nicht: Es gilt, Forschungen zur "starken KI" im Auge zu behalten. Und: Nihat Ay über schwache und starke KI sowie Kognition und Embodiment.


 

Karsten Gaede hätte es sich leichter machen können. Doch statt in seiner Antrittsvorlesung an der Bucerius Law School in Hamburg ein Thema aus seiner alltäglichen Arbeit zu behandeln, folgte der Strafrechtler seiner Neugier und sprach über "Rechte und Strafen für Roboter". Er wolle die Kreation Künstlicher Intelligenz "von ihrem gedanklichen Ende" her thematisieren, sagte er und formulierte die Frage: "Wie muss unser Recht aussehen, wenn wir Maschinen – nach dem menschlichen Vorbild – als Mensch-Maschinen erschaffen, die wirklich intelligent sein werden?"

Nicht nur für einen Juristen ist das ein ungewöhnlicher Ansatz. Denn die "starke KI" auf die Gaede damit abzielt, hat derzeit generell einen eher schwachen Stand. Die öffentliche Aufmerksamkeit und Aufregung rund um Künstliche Intelligenz (KI) richtet sich fast ausschließlich auf Verfahren mit konkreten, eng begrenzten Anwendungen, die im deutschen Sprachgebrauch als "schwache KI" bezeichnet werden. Die mit "starker KI" verbundene Idee, menschliche Intelligenz technisch nachzubilden und womöglich zu übertreffen, führt dagegen ein Schattendasein. Vor über 60 Jahren noch die Leitidee, mit der die Forschungen zur KI vor über 60 Jahren überhaupt erst in Gang gekommen sind, scheint ihr heute gelegentlich sogar der Status einer seriösen Wissenschaft abgesprochen zu werden. In der KI-Strategie der Bundesregierung kommt sie denn auch gar nicht erst vor.

Gaede kritisiert diesen Ansatz: Die ökonomisch motivierte ausschließliche Fokussierung der öffentlichen Förderung auf ein "Mehr an KI" während die starke KI "mit einem impliziten Gottvertrauen" auch für die Zukunft als unmöglich eingestuft wird, sei keine akzeptable Strategie, mahnt er. Angesichts der fundamentalen Bedeutung einer Fehleinschätzung dürfe man das Thema nicht allein der Science-Fiction überlassen. Vielmehr sei eine ergänzende "Strategie zur starken, nicht nur anzuwendenden KI" erforderlich. Dazu gehörten auch klare rechtliche Regeln: "Das Recht muss Vorsorge treffen, damit die Erschließung der künstlichen Intelligenz nicht zur Entwicklung rechtsgefährdender autonomer Systeme führt."

 

All das würde indessen erfordern, die Forschungen zur starken KI besser im Auge zu behalten. Doch das ist gar nicht so einfach. Denn während sich die Leistungen der schwachen KI etwa beim Erkennen von Verkehrszeichen, beim Sprachverständnis oder bei Computer- und Brettspielen gut quantifizieren und vergleichen lassen, ist die Zielsetzung der starken KI weniger klar. Allgemeine Intelligenz lässt sich nicht definieren und auch nicht messen. "Wir wissen nicht, wonach wir suchen", sagt Nihat Ay, der sich am Max-Planck-Institut für Mathematik in den Naturwissenschaften mit dem Thema beschäftigt.

Eine weitere Schwierigkeit liegt in der Zersplitterung der Forschungslandschaft: Es gibt keine einheitliche Gemeinschaft von Forschern, die sich der starken KI verschrieben hätte, sondern viele verschiedene Initiativen und Einzelforscher, die sich aus unterschiedlichen Richtungen der Frage nach dem Wesen von Kognition und Intelligenz widmen.

So dominiert etwa bei der jährlichen Conference on Artificial General Intelligence (AGI) klar der Top-down-Ansatz, der sich der starken KI von der vermeintlich höchsten Stufe der Intelligenz aus nähern will. Es geht vorrangig um symbolisch kodiertes Wissen, das so gespeichert und verarbeitet wird, dass es auch für die Lösung neuer, unerwarteter Probleme genutzt und dadurch erweitert werden kann.

 

Die Diskussionen kreisen um verschiedene kognitive Architekturen, die teilweise seit Jahrzehnten entwickelt werden.

SOAR (State, Operator And Result) etwa wurde 1983 von Allen Newell, John Laird und Paul Rosenbloom erstmals an der University of Michigan vorgestellt. Die leitende Fragestellung war dabei die nach der Minimalausstattung, die erforderlich ist, um die gesamte Palette intelligenten Verhaltens zu realisieren. Im Zentrum steht ein paralleles, assoziatives Gedächtnis, das nicht nacheinander abgearbeitet wird wie in den meisten Programmiersprachen, sondern mithilfe von symbolischen Mustern die passenden Inhalte aufruft. Das können auch mehrere gleichzeitig sein. Bei einem unentscheidbaren Zielkonflikt erschafft das System automatisch ein neues Ziel: die Auflösung dieses Konflikts mithilfe weiteren Wissens. SOAR-Agenten sollen auf diese Weise die Fähigkeit haben, über ihr eigenes Denken zu reflektieren. Die Lösung jedes Zielkonflikts erzeugt dabei neues Wissen, das wiederum bei zukünftigen Konflikten zur Verfügung steht. Auf diese Weise soll SOAR seine Erfahrung generalisieren und sich an neue Situationen anpassen können.

NARS (Non-Axiomatic Reasoning System), das auf den Forscher Pei Wang (Temple University, Philadelphia) zurückgeht, ist darauf angelegt, mit unzureichenden Informationen und beschränkten Ressourcen umzugehen und aus Erfahrung zu lernen. Wie bei SOAR und anderen Architekturen hat sich um das System herum eine Forschergemeinde gebildet, die kontinuierlich an der Weiterentwicklung arbeitet. So stellten Xiang Li et. al. (Temple University, Philadelphia) auf der AGI-2018 einen Ansatz vor, Emotionen in NARS zu implementieren, um die generelle Leistungsfähigkeit des Systems zu erhöhen. Emotionen werden dabei modelliert als Zusammenspiel von Glaube, Wunsch und Erwartung (belief, desire, anticipation).

MRT-Bild eines menschlichen Gehirns. Schnitt sagittal.

MRT-Bild eines menschlichen Gehirns. Schnitt sagittal. 

(Bild: Christian R. Linder, Lizenz Creative Commons CC BY-SA 3.0, Bild Labeledbrain.jpg)

Andere Architekturen, über die diskutiert wird, sind der von Marc Hutter entwickelte lernfähige Agent AIXI, der Intelligenz als ein Belohnung suchendes System modelliert, oder das sich selbst verbessernde Computerprogramm Gödel Machine, das auf Jürgen Schmidhuber zurückgeht.





Um die Leistungsfähigkeit dieser verschiedenen Ansätze vergleichen zu können, haben die Autoren einer 2012 im "AI Magazine" veröffentlichten Roadmap für starke KI mehrere Aufgabenstellungen vorgeschlagen, die jedoch überwiegend auf der Ebene symbolischer Informationsverarbeitung angesiedelt sind. So könnte etwa getestet werden, wie gut künstliche Agenten in der Lage sind, neue, ihnen bislang unbekannte Computerspiele zu lernen. Andere Szenarien sind das Lernen in Kindergarten und Vorschule, das Verständnis gelesener Texte oder von Geschichten und Szenen, die auf andere Weise dargeboten werden. Beim Lernen in der Schule mit älteren Schülern soll es auch um das Verständnis der sozialen Beziehungen im Klassenzimmer gehen. Bei all diesen Aufgabenstellungen sei jedoch eine physische Präsenz nicht zwingend erforderlich, betonen die Autoren der Studie. Vielmehr könnten die Schnittstellen zunächst virtuell bereitgestellt werden.

Lediglich auf der höchsten Stufe, dem "Wozniak-Test", geht es nicht ohne Körper. Er ist benannt nach dem Apple-Mitbegründer Steve Wozniak, der einmal vorgeschlagen hat, ein intelligenter Roboter sollte in der Lage sein, in ein ihm unbekanntes Haus zu gehen und dort eine Tasse Kaffee zuzubereiten.

Phonlamai Photo / Shutterstock.com

(Bild: Phonlamai Photo / Shutterstock.com)

Während diese Roadmap den Eindruck erweckt, als könne starke KI weitgehend körperlos entwickelt werden, um sie dann irgendwann auch auf physische Agenten zu übertragen, gehen andere Forscher davon aus, dass der Körper von vornherein konzeptionell einbezogen werden muss. So kritisierte David Kremelberg (Icelandic Institute for Intelligent Machines, Reykjavik) auf der AGI 2019 die Annahme, dass starke KI im Wesentlichen eine Frage der richtigen Algorithmen sei. Er verwies auf zahlreiche Erkenntnisse der Neurowissenschaft, die nahelegen, dass starke KI ohne Berücksichtigung des Körpers nicht realisiert werden kann.

 

Über diesen Bottom-up-Ansatz der "Embodied Intelligence, der starke KI von unten wachsen lassen will, ist im Rahmen der AGI ansonsten aber nur wenig zu erfahren. Die Forschung selbst findet woanders statt. So hat Nihat Ay bereits im Jahr 2013 in Leipzig die erste Konferenz zu "Conceptual and Mathematical Foundations of Embodied Intelligence" veranstaltet, auf der die Teilnehmer darüber diskutierten, wie aus dem Wechselspiel von Wahrnehmung und Handeln, der "sensomotorischen Schleife", Intelligenz erwachsen könne.

Die Embodied Intelligence arbeite auch mit Architekturen, sagt Ay. Diese beschrieben aber die Strukturen der neuronalen Netze, deren Konnektivität und Schichtungen, während es bei den kognitiven Architekuren um gröbere Strukturen ginge: "Die Knoten des Netzwerks sind dort nicht die Neuronen, sondern bestimmte Funktionen. Ob die von einzelnen Neuronen übernommen werden oder von einer Gruppe von Neuronen, ob diese Neuronen an einer Stelle konzentriert oder über das Gehirn verteilt sind, ist dabei völlig unklar." Ohne die Kopplung zum neuronalen Netz und seiner Mikrostruktur mache die kognitive Architektur aber wenig Sinn. Bei der Beschreibung der Kontrolle durch das Gehirn gebe es daher eine bislang unüberbrückbare Kluft zwischen den Top-down-Ansätzen zur starken KI und dem Bottom-up-Ansatz der Embodied Intelligence, den Nihat Ay im Interview näher erläutert.

Nihat Ay, Leiter der Gruppe Informationstheorie kognitiver Systeme am Max-Planck-Institut für Mathematik in den Naturwissenschaften, im Gespräch mit heise online:

Herr Ay, bei all der Aufregung um KI in der jüngeren Zeit fällt auf, dass von dem ursprünglichen Ziel dieser Forschungen, nämlich menschliche Intelligenz zu verstehen und nachzubilden, kaum noch die Rede ist. Die Bundesregierung blendet in ihrer KI-Strategie diesen als "starke KI" bezeichneten Aspekt sogar komplett aus. Wie kommt das?

Nihat Ay: : Die Forschung ist heute leider stark getrieben und teilweise auch geblendet vom Erfolg des Deep Learning. Diese vorwärts geschichteten neuronalen Netze sind sehr leistungsfähig bei der Lösung spezifischer Aufgaben, sind aber auch völlig körperlos. Mit dieser Architektur, egal wie erfolgreich sie in den Anwendungen sein mag, werden wir Kognition und damit auch starke KI nicht verstehen können. Die muss immer eingebettet sein in einen Körper, der mit der Welt interagiert. Das ist die Idee der Embodied Intelligence.

 

Wäre starke KI nicht auch als Integration vieler anwendungsbezogener "schwacher KI" denkbar?

Ay: : Nein, da fehlen ganz wichtige Elemente. Unser Gehirn ist bei weitem nicht so stark geschichtet wie die künstlichen neuronalen Netze mit mittlerweile Tausenden von Schichten. Das Problem liegt daher nicht bei den einfachen Elementen, den Neuronen, sondern bei diesen Netzwerk-Architekturen, die in den Anwendungen zwar gut funktionieren, uns aber konzeptionell sehr weit vom biologischen Vorbild entfernen. Es gibt keine universelle Architektur, die für jeden Körper geeignet wäre. Anders gesagt: Ein Körper stellt durch seine physikalischen Eigenschaften den Kontext für eine Netzwerk-Architektur dar, die ihn optimal steuert. Im Rahmen des Schwerpunktprogramms "The Active Self" der Deutschen Forschungsgemeinschaft wollen wir diese Wechselwirkungen in der Interaktion zwischen Kognition, Körper und Welt genauer erforschen.

Missing Link: Von den Mensch-Maschinen - wie stark ist Künstliche Intelligenz?

Nihat Ay 

(Bild: Douglas Merriam, Santa Fe Institute, Max-Planck-Institut für Mathematik in den Naturwissenschaften)





Spielt das Bewusstsein dabei auch eine Rolle?

Ay: : Am Bewusstsein kommen wir nicht vorbei, wenn wir über starke KI sprechen. Wir stützen uns auf Giulio Tononis "Integrated Information Theory of Consciousness". Demnach ist das Bewusstsein ein Effekt hoher Informationsintegration im Gehirn. Tononi versucht, diesen Prozess mithilfe der Informationstheorie zu quantifizieren. Bewusstsein wird damit zu einer nicht nur rein qualitativen, sondern einer graduellen Angelegenheit. Ein Stein etwa, der keinerlei Information integriert, hat auch kein Bewusstsein. Bei einem Bakterium, einer Ameise, einem Menschen ergeben sich jeweils andere Werte. Man könnte die Methode aber auch auf eine Gesellschaft anwenden. Für all diese Systeme lässt sich ein Grad der Informationsintegration errechnen. Insofern ließe sich die Frage stellen, was für ein Bewusstsein eine ganze Gesellschaft hat, wenn wir die Individuen wie die Neuronen in einem einzelnen Gehirn betrachten.

 

Oder die Erde könnte ein planetares Bewusstsein entwickeln.

Ay: : Genau. Die Gleichsetzung des Bewusstseins mit dieser Größe, die von Tononi Phi genannt wird, ist allerdings zunächst einmal ein Postulat und muss experimentell unterfüttert werden. Dabei ergibt sich das Problem, dass sich der informationstheoretische Ansatz zur Quantifizierung des Bewusstseins auf unterschiedliche Weise umsetzen lässt. Inzwischen wurden mehrere verschiedene Versionen der Theorie präsentiert, die sich teilweise widersprechen und den Ansatz dadurch etwas unglaubwürdig machen. Ich versuche daher, die Theorie zu vereinheitlichen und will das im Rahmen unseres Projekts mithilfe von Informationsgeometrie voranbringen. Ein weiterer Schwerpunkt ist die Verbindung der Informationsintegration mit Embodied Intelligence.

 

Was genau muss ich mir unter Informationsintegration vorstellen? Ist es das Zusammenführen von Informationen aus unterschiedlichen Quellen zu einem einheitlichen Weltbild, ähnlich der Sensor Fusion in der Robotik?

Ay: : Das ist ein wichtiger Aspekt, aber nicht der Ansatz von Tononi. Der betrachtet zunächst das Gehirn isoliert und schaut sich an, wie viel Information dort fließt. Es wird dann etwa in zwei Sektoren unterteilt, A und B, und es wird gemessen, wie viel Information von A nach B übermittelt wird. Je stärker die Neuronen miteinander kommunizieren, so die Grundidee, desto bewusster ist das Gehirn. Mein Anliegen ist es, den Fokus stärker auf externe Stimuli zu legen, um Tononis Ansatz mit Embodied Intelligence zu verbinden. Zum Beispiel muss ich für die Lösung einer Aufgabe im physikalischen Raum, etwa das Laufen, ständig sensorische Inputs aufnehmen und verarbeiten. Dabei stellt sich die Frage: Wie viel Informationsintegration im Gehirn ist notwendig, um das Laufen zu realisieren? Wenn Tononis Theorie stimmt, brauchen wir Bewusstsein, um mit der Komplexität der Außenwelt zurechtzukommen.

sdecoret / Shutterstock.com

(Bild: sdecoret / Shutterstock.com)

Ist Bewusstsein nicht gekoppelt an die Fähigkeit zur Unterscheidung zwischen sich selbst und der Umwelt, also eigentlich identisch mit Selbstbewusstsein?

Ay: : Dieser Gedanke liegt nahe und entsprach früher auch meinem Verständnis von Bewusstsein. Inzwischen folge ich aber dem Philosophen Thomas Metzinger, der drei Stufen des Embodiments unterscheidet: Die erste Stufe sind rein reaktive Systeme, die auf einen Input mit einem immer gleichen Output reagieren. Ein Beispiel dafür sind Passive Dynamic Walkers, also Laufmaschinen, die allein aufgrund ihrer Mechanik eine schiefe Ebene hinab laufen können. Sie zeigen ein Verhalten, das intelligent wirkt, aber nur durch eine einfache Rückkopplungsschleife ohne jede Informationsverarbeitung erzeugt wird. Hier findet noch keine Kognition statt, und es entsteht kein Bewusstsein. Die nächste Ebene ist die, auf der ein System gezwungen ist, Repräsentationen der Außenwelt zu generieren, um ein bestimmtes Verhalten zu realisieren. Auf der dritten Ebene schließlich verbindet das System ein Abbild seiner selbst mit diesem Bild der Außenwelt, ist also in der Lage, sich auf sich selbst zu beziehen. Dieses Modell von sich selbst ist in der einfachsten Version ein Bild des eigenen Körpers, es kann aber auch andere Aspekte des Selbst betreffen. Auf welcher Ebene können wir nun anfangen, von starker KI und Bewusstsein zu sprechen? Oder, um es in den Kontext von Tononis Theorie zu stellen: Ab welcher dieser Ebenen müssen wir von starker Informationsintegration ausgehen? Auf der reaktiven Ebene sicherlich nicht. Inwieweit es auf der Ebene der Repräsentationen der Fall ist, wie Metzinger vermutet, will ich studieren.

 

Wie wollen Sie da vorgehen?

Ay: : Eine Minimalanforderung für die Definition des Selbst, auf die wir uns im Projekt verständigt haben, verlangt, dass man den Körper als seinen eigenen wahrnimmt und auch Aktionen, die man durchführt, sich selbst zuschreibt. Ich nehme meine Hand als Teil meines Körpers wahr und führe die Änderungen der Umwelt, die ich damit vollziehe, auf mich zurück. In diesem Zusammenhang ist die Erfahrung der Körpererweiterung interessant: Wenn man einen bestimmten Gegenstand häufig nutzt, etwa eine Krücke, nimmt man ihn mit der Zeit mehr und mehr als Teil des eigenen Körpers wahr. Daraus können wir im Umkehrschluss die Annahme ableiten, dass wir den Körper anfangs gar nicht als zu uns gehörig wahrnehmen, sondern diese Zuschreibung erst mit der Zeit entsteht. Wir kennen das Phänomen von Prothesen, die zunächst als Fremdkörper wahrgenommen und nur allmählich in den Körper integriert werden. Diesen Prozess zu verstehen ist sehr wichtig, auch für das Verständnis der starken KI.





Kiselev Andrey Valerevich / Shutterstock.com

(Bild: Kiselev Andrey Valerevich / Shutterstock.com)

 

Von KI-Forschern ist gelegentlich der Einwand zu hören, dass sie die Ergebnisse zur Embodied Intelligence oder auch generell zur starken KI noch nicht überzeugen würden. Aber woran ließe sich der Fortschritt auf diesem Gebiet überhaupt messen? Gibt es Meilensteine, die Sie bei Ihren Forschungen im Auge haben?

Ay: : Einen Meilenstein habe ich mir mit meinem Projekt im Rahmen des Schwerpunktprogramms "The Active Self" gesetzt. Ich möchte beobachten, wo bei der Interaktion von einfachen Agenten mit einer relativ komplexen Welt so etwas wie ein Phasenübergang der Informationsintegration stattfindet. Wie viel Informationsintegration ist zur Herausbildung eines komplexen Verhaltens notwendig? Wenn es gelänge, das mathematisch zu beweisen und zu quantifizieren, wäre das ein großer Schritt nach vorne. Es gibt ein klassisches Resultat aus der Kybernetik, das nach seinem Entdecker William Ross Ashby benannte Gesetz der erforderlichen Varietät. Es kommt zur Geltung, wenn ein bestimmter Zielwert erreicht werden soll, etwa eine Wohlfühltemperatur, dabei aber ständig Störungen durch die Außenwelt ausgeglichen werden müssen. Ashby hat nachgewiesen, dass ein System dafür in der Lage sein muss, mindestens die Störungen der Außenwelt abzubilden. Das war der erste Nachweis, dass Repräsentationen der Außenwelt notwendig sind. Damit befinden wir uns aber schon in der zweiten von Metzinger postulierten Ebene des Embodiments. Dieses einfache Setting möchte ich erweitern zu einem Agenten, der mit der Welt interagiert, und beobachten, wo diese Übergänge erfolgen, angelehnt an die Kybernetik und übertragen auf das Gebiet der Embodied Intelligence. Wann wird zum Beispiel eine Selbstrepräsentation des Agenten notwendig? Das definiert für mich quantifizierbare Meilensteine. Ob Tononi mit seiner Gleichsetzung von hoher Informationsintegration und Bewusstsein tatsächlich recht hat, muss dann am Ende im Dialog mit Philosophen und Bewusstseinsforschern geklärt werden.

 

In der öffentlichen Diskussion über KI kann gelegentlich der Eindruck aufkommen, als sei die Erforschung starker KI eigentlich unseriös und keine richtige Wissenschaft. Sind Sie schon mit solchen Vorwürfen konfrontiert worden?

Ay: : Tatsächlich stoße ich mit meinen Forschungen gelegentlich auf Unverständnis, gerade im Zusammenhang mit der Integrated Information Theory. Die Gleichsetzung mit Bewusstsein wird immer wieder als Spekulation und damit als unseriös kritisiert. Vielleicht hat sich Tononi auch etwas zu weit aus dem Fenster gelehnt, indem er diesen Zusammenhang einfach postuliert hat. Ich sehe das aber pragmatisch: Irgendwo müssen wir anfangen. Wir können nicht erwarten, eines Tages aufzuwachen und klar formulierte Probleme vorzufinden. Das bringt mich noch einmal auf die eingangs erwähnte Blendung durch die Erfolge des Deep Learning: Diese Blendung kommt zustande, weil die Aufgaben dort sehr klar beschrieben wurden, sodass Mathematiker sich darauf stürzen und alles Mögliche analysieren konnten. Die starke KI ist als Ziel viel diffuser. Es gibt keine einheitliche Community von Forschern und auch keine derart klaren Fragestellungen; wir wissen nicht genau, wonach wir suchen. Und selbst wenn wir das wüssten, wären die Fragen nicht so klar umrissen, dass wir analytisch an sie herangehen könnten. Wir müssen daher durch einen Reifeprozess hindurch, bei dem verschiedene Ansätze ausprobiert und integriert werden sollten. Deswegen habe ich sowohl zur Leipziger Konferenz von 2013 als auch zu weiteren Konferenzen am Santa Fe Institute Teilnehmer aus sehr verschiedenen Disziplinen eingeladen. (jk)