Home

Add

Edit

Without Linenumbers

Code in Textfield

Quelle: Heise

Der Kognitionsforscher Edward Boyden arbeitet am MIT an Hirn-Schnittstellen, mit deren Hilfe sich eines Tages unsere kognitiven Fähigkeiten steigern und pathologische Verhaltensmuster beseitigen lassen sollen. In seinem TR-Essay warnt er davor, (Künstliche) Intelligenz als Selbstläufer zu sehen, die sich immer weiter steigert. Es könnte auch ganz anders kommen.

Glaubt man einigen Futuristen wie Ray Kurzweil, werden wir in naher Zukunft eine Singularität erreichen – eine Periode rasanten gesellschaftlichen Wandels. So rasant, dass wir nicht einmal in Umrissen absehen können, welche Gesellschaft danach auf uns wartet. In den meisten Visionen dieser Singularität steht die Entstehung von Maschinen im Vordergrund, die intelligent genug sind, um selbst intelligentere Maschinen zu schaffen, die wiederum noch intelligentere Maschinen hervorbringen... – eine positive Rückkopplung erweiterter Intelligenz.

Dieser Gedanke hat was. Ich selbst wollte, als ich am MIT studierte, einen Roboterforscher bauen, der schnellere und bessere Entdeckung machen könnte als jeder menschliche Wissenschaftler. Selbst der Cheftechnologe von Intel, Justin Rattner, hat kürzlich laut darüber nachgedacht, dass wir uns direkt auf diese Singularität zu bewegen. Konferenzen wie der Singularity Summit im Oktober beschäftigen sich bereits damit, wie diese Transformation ablaufen könnte.
Anzeige

Als Kognitionsforscher halte ich die Sichtweise, die Erweiterung von Intelligenz sei der entscheidende Entwicklungsfaktor der Zukunft, allerdings für verengt. Denn sie blendet einen kritischen Aspekt aus: Wie verändern sich Motivationen mit zunehmender Intelligenz? Wir könnten es auch die Notwendigkeit von „Führungsqualitäten von Maschinen“ oder einer „Philosophie von Maschinen“ nennen. Ohne die wird die Rückkopplungsschleife rasch ins Stottern kommen.

Wir wissen, dass Intelligenz allein nicht genügt, um in der Welt etwas zu bewegen. Man muss auch die Fähigkeit haben, ein Ziel hartnäckig gegen alle Widerstände zu verfolgen und die graue Realität dabei auszublenden – bis hin zur Selbsttäuschung, also gegen die eigene Intelligenz. In den meisten Sciencefiction-Geschichten handeln Künstliche Intelligenzen aus einem starken inneren Antrieb. In Matrix oder Terminator II sind sie entschlossen, die Menschheit zu versklaven oder gar auszurotten. Ebenso plausibel ist aber auch der Roboter Marvin in Per Anhalter durch die Galaxis, der wegen seiner enormen Intelligenz meistens herumhängt und sich beklagt. Ihm fehlt dabei ein großes Ziel.

Tatsächlich könnte eine wirklich hochentwickelte Intelligenz ohne eine echte Motivation für ihr Handeln feststellen, dass nichts Bestand hat, und, weil die Sonne sowieso in ein paar Milliarden Jahren verlöscht, beschließen, den Rest ihrer Existenz mit Videospielen zuzubringen. Denn noch klügere Maschinen zu bauen wäre ja sinnlos. Das könnte übrigens eine Erklärung dafür sein, dass wir bislang keine Außerirdischen entdeckt haben. Eine intelligente Spezies an der Schwelle zur interstellaren Raumfahrt könnte es sich angesichts der Tatsache, dass die Galaxien in 1019 Jahren verglühen, anders überlegen und einfach zuhause bleiben, um fernzusehen.

Wenn man also intelligente Maschinen bauen will, die noch intelligentere Maschinen konstruieren können, muss man ihr nicht nur eine Motivation für ihr Handeln einbauen, sondern eine Motivationsverstärkung: das permanente Bedürfnis, eine sich selbst erhaltende Motivation zu kreieren, während die Intelligenz zunimmt. Wenn aber künftige Generationen Künstlicher Intelligenzen solch eine „Meta-Motivation“ haben sollen, ist es wichtig, jetzt deren Grundlagen zu entwickeln.

Es gibt eine zweite Sache. Ein intelligentes Wesen kann sich viel mehr Möglichkeiten ausmalen als ein weniger intelligentes. Das muss aber nicht unbedingt ein effektiveres Handeln nach sich ziehen, umso mehr, als manche Möglichkeiten vom ursprünglichen Ziel ablenken könnten (wie zum Beispiel, noch intelligentere Maschinen zu bauen). Die dem Universum innewohnende Ungewissheit könnte den Entscheidungsprozess einer Intelligenz überfordern oder unerheblich machen. In einem Möglichkeitsraum mit sehr vielen Dimensionen – in dem die Koordinatenachsen bestimmte Handlungsparameter repräsentieren – könnte es sehr schwierig sein, den besten Weg zu ermitteln. Der Verstand kann zwar verschiedene Pläne parallel ausarbeiten, aber Handlungen sind immer unitär – sie erfolgen einzeln im Hier und Jetzt. Wenn die zugänglichen Ressourcen begrenzt sind, kommen Handlungen oft nur spärlich zustande.

Die letzten beiden Absätze gelten nicht nur für Künstliche oder Außerirdische Intelligenzen. Sie beschreiben auch Eigenschaften des menschlichen Geistes, die immer wieder unsere Entscheidungsfindung berühren: Antriebsschwäche sowie Lähmung angesichts zu vieler Optionen.

Aber es kommt noch schlimmer: Wir wissen, dass eine Motivation von Möglichkeiten absorbiert werden kann, die diese Motivation nur scheinbar befriedigen. Suchtverhalten ist allein in den USA ein Problem für zig Millionen Menschen, und es kann Drogen, aber auch unscheinbareren Dingen wie Emails gelten.

Eins der größten Probleme ist, eine Motivation an die nächste Generation weiterzugeben, um eine große Idee zu verwirklichen. Intelligenzen, die immer faszinierendere Technologien entwickeln, die ihre Aufmerksamkeit noch stärker fesseln, aber weniger Einfluss auf die Welt haben, könnten gar in das Gegenteil einer Singularität hineingeraten. Wie sieht das dann aus?

Die Singularität basiert auf dem mathematischen Prinzip der Rekursion: Man erfindet eine Superintelligenz, die eine Super-Superintelligenz erfindet und so weiter. Wie aber jeder Mathematikstudent weiß, sind bei Iterationen – also schrittweisen Prozessen – auch andere Ergebnisse möglich. Zum Beispiel ein so genannter Fixpunkt: Wendet man auf ihn eine Funktion an, ist er selbst das Ergebnis. Punkte in der Nähe eines Fixpunktes liefern Ergebnisse, die immer näher an diesen heranrücken.

Als „gesellschaftlichen Fixpunkt“ könnte man deshalb einen Zustand definieren, der sich selbst verstärkt und dabei immer nur den Status Quo reproduziert. Solch ein Zustand könnte friedlich und nachhaltig sein, aber auch total langweilig, etwa wenn sehr viele Menschen am Internet hängen und fortwährend Videos schauen.

Wir Menschen sollten deshalb bald anfangen, Konstruktionsprinzipien für Technologien zu entwickeln, die uns für irgendein erhabenes Ziel motivieren. Oder uns zumindest von der Sackgasse eines „gesellschaftlichen Fixpunkts“ wegbringen. In diesem Prozess müssen wir uns auch damit auseinandersetzen, wie Technik uns bei der Antwort einer alten Frage der Philosophie helfen könnte: „Was soll ich tun – angesichts all dieser möglichen Wege in die Zukunft?“ Vielleicht ist es Zeit, diese Frage, ausgehend von den Eigenschaften des Gehirns und des Universums, empirisch zu beantworten.