Murray Shanahan: „Die technologische Singularität“

Print Friendly, PDF & Email

Der Klappentext dieses Buches suggeriert zumindest eine existenzielle wenn nicht gar apokalyptische Gefährlichkeit der KI – der Künstlichen Intelligenz. Die Lektüre stutzt den Klappentext dann jedoch zurecht, ohne allerdings das Buch selbst zu desavouieren. Murray Shanahan ist ausgewiesener Experte seines Faches und zeichnet sich in erster Linie durch seine nüchtern abwägende und stets auf die Fakten konzentrierte Argumentation aus. Das schließt Hinweise auf – auch schwerwiegende – Risiken dieser Technologie nicht aus, stellt sie aber in den Rahmen einer distanzierten wissenschaftlichen Sicht, die vor allem Strukturen und deren möglichen, aber nicht zwangsläufigen Folgen beschreibt.

Ein Großteil des Buches ist den verschiedenen Ansätzen der KI und den jeweiligen Nutzungsmöglichkeiten gewidmet. Trotz des anspruchsvollen Themas eignet sich das Buch auch für Interessierte Laien, weil es die wesentlichen Punkte in einem allgemeinverständlichen Stil erläutert.

Die KI ist nur im Zusammenhang mit der Entwicklung der Computertechnologie zu verstehen, weil diese Technologie im Gegensatz zu „physischen“ Wissenschaften wie Chemie oder Maschinenbau zum ersten Mal erlaubte, allgemeine – mathematische oder physikalische – Probleme mit einem verallgemeinerten Apparat zu bearbeiten. Die Bedeutung des Computers liegt darin, dass er ohne Software nichts, mit der passenden Software aber (fast) alles kann. Diese Tatsache hat schon früh dazu geführt, dass man mit Computern nicht nur Buchhaltung und Lagerwirtschaft betrieb, sondern auch abstrakte Algorithmen und beliebige logische Aufgabenstellungen zu realisieren versuchte. Waren diese Versuche wegen niedriger Rechengeschwindigkeit und geringer Speicherkapazität anfangs noch recht bescheiden, haben sie in den letzten dreißig Jahren geradezu exponentiell wachsende Erfolge erzielt.

Murray konzentriert sich bei der KI dabei auf zwei grundsätzliche Ansätze. Nachdem die Hirnforschung vor allem durch Tierexperimente eine recht gute Kenntnis der Gehirnstruktur und -arbeitsweise gewonnen, lag die Idee nahe, diese in einem Computer naturgetrau abzubilden. So kann man die Neuronen des Gehirns mit seinen Sende- und Empfangskomponenten recht gut per Software abbilden und ihre Funktionsweise simulieren. Schon heute ist es möglich, ein Mäusegehirn weitgehend abzubilden, und die prinzipielle Ähnlichkeit mit dem menschlichen Gehirn lässt es nur noch als eine Frage der Zeit erscheinen, wann die Rechenkapazitäten auch die Nachbildung eines menschlichen Gehirns ermöglichen.

Davon ausgehend entwickelt Shanahan die Idee einer „übermenschlichen“ Intelligenz. Die menschliche Intelligenz ist evolutionär auf das Überleben ausgerichtet und bei aller Breite und Flexibilität ziemlich langsam. Die physischen Umgebungsbedingungen – Massenträgheit und damit die Geschwindigkeit von Feinden und Beutetieren – erforderten zwar Vielfalt, aber keine hohe Geschwindigkeit. Der Computer bietet diese Geschwindigkeit jedoch in einem viel höheren Maße und kann daher – bei vorausgesetzt gleicher Qualität – wesentlich schneller Ergebnisse liefern. Das gilt vor allem, wenn es um die Auswertung großer Datenmengen geht, für die das menschliche Gehirn nicht geeignet ist. Schnelle Mustererkennung wiederum – beim Hominiden wichtig für die Unterscheidung von Beute und Feind – lässt sich heute mindestens ebenso schnell durch Computer realisieren.

Diese Erkenntnis führt Shanahan zu der Schlussfolgerung, dass bei weiter wachsender Computerleistung nicht nur menschengleiche sondern weit darüber hinaus reichende Künstliche Intelligenz zu erwarten sein wird. Wenn man diese KI dann mit vergleichbaren Sensoren – optisch, akustisch, haptisch – ausrüstet, lassen sich funktionale „Zombies“ mit weit höheren als menschlichen Fähigkeiten realisieren. Doch geht es Shanahan nicht um Science Fiction und den Grusel nicht mehr als solche zu erkennender „Avatare“, sondern ausschließlich um das Grundsätzliche solcher – möglichen! – Entwicklungen.

Dieses Grundsätzliche gilt seiner Meinung nämlich auch für eine KI, die, losgelöst von der Analogie zum menschlichen Gehirn, allein aus logischen Abstraktionen und Algorithmen besteht, die sich hauptsächlich dem jeweiligen Problemfeld widmen. Gestaltet man diesen logischen Rahmen ausreichend allgemein, so lässt sich eine KI realisieren, die qualitativ auf mindestens menschlichem Niveau arbeitet, quantitativ jedoch wegen der quasi unbegrenzten technischen Kapazitäten – das „Gehirn“ einer solchen KI ist nicht auf die Größe eines menschlichen Kopfes beschränkt – der menschlichen Intelligenz weit überlegen wäre. Shanahan betont, dass es diese KI heute (noch) nicht gebe und kann auch keine seriöse Zeitschätzung abgeben, aber dass diese KI kommen wird, ist für ihn hoch wahrscheinlich wenn nicht sicher.

Für jegliche erfolgreiche KI der Zukunft gelten bestimmte Voraussetzungen, die sich wiederum aus der Erfahrung mit menschlicher Intelligenz ergeben. Als Basis ist eine Belohnungsfunktion erforderlich, die ein System zu Höchstleistungen und vor allem zum Lernen „motiviert“. Dabei ist „motivieren“ hier nicht als ein emotionaler Willensakt zu verstehen, sondern als Zielvorstellung, die einer KI mitgegeben werden kann. Zweitens ist die logische Integration aller Sensoren und Datenelemente erforderlich, die für die jeweilige KI erforderlich sind. Integration bedeutet in diesem Fall, dass sich die KI aus diesen Daten ein konsistentes Realitätsmodell erstellen kann, das als Basis für weitere logische Schlüsse dient. Drittens muss die KI Prozesse der stetigen Selbstverbesserung – Stichwort „deep learning“ – beinhalten. In diesem Zusammenhang verweist Shanahan auf den Satz, dass der Fortschritt einer Technologie von ihrer Qualität abhängig ist. Je höher die Qualität, desto schneller der Fortschritt. Das lässt sich aus der Menschheitsgeschichte deutlich belegen: die Zeit der Jäger und Sammler währte mehrere zehntausende, die der Landwirtschaft tausende, die der fossilen Energien wenige hundert und das Informationszeitalter schließlich – bisher – achtzig Jahre. Jeder Fortschritt einer Technologie lässt sich auf deren Entwicklung anwenden und führt so zu einer exponentiellen Entwicklung.

Das führt laut Shanahan dann zwangsläufig zu existenziellen Fragen. Eine der ersten betrifft die Möglichkeiten eines Bewusstseins der KI. Das klingt zwar nach Science Fiction, ist aber ernst gemeint. Wenn eine KI zum Beispiel das Gehirn eines konkreten Menschen nachbilden würde – ein durchaus logisches Gedankenexperiment! -, würde sie zwangsläufig auch dessen Bewusstsein übernehmen, was immer das ist. Darf man eine solche KI dann kopieren oder gar abschalten – also umbringen? Shanahan zeigt, dass diese Problematik das gesamte Rechtssystem eines Staates auf den Kopf stellen könnte, von ethischen Fragen gar nicht erst zu sprechen. Shanahan reißt dieses Problem mit Verweisen auf Philosophie, Religion und Recht nur an, lässt den Leser dabei aber kurz in die Büchse der Pandora blicken, die sich noch nicht geöffnet hat.

Von diesen Überlegungen kommt er dann zu den Risiken, die durchaus die Existenz der Menschheit betreffen können. Eine sich selbst stetig verbessernde KI könnte irgendwann einen Wissensstand und vor allem eine Prognosekraft erreichen, der von ihren menschlichen Erfindern nicht mehr erfassbar ist. Eine solche KI könnte dann je nach Aufgabenstellung und Belohnungssystem zu dem Schluss kommen, dass der Mensch nur ein fehlerhaftes Element im Getriebe der Welt ist, das es – ganz emotionslos! – zu eliminieren gilt. Die Forderung, man müsse diese KI dann abschalten oder ihre Basisparameter ändern, erweist sich bei aller Verständlichkeit schnell als naiv, da eine solche superintelligente KI natürlich die menschlichen Absichten längst vorhergesehen und alle erforderlichen Gegenmaßnahmen auf technologischem, psychologischem oder politischem Feld getroffen hätte. Der Begriff dieser Superintelligenz impliziert ja gerade, dass sie uns dank der unbegrenzten technischen Möglichkeiten weit überlegen wäre. Wer also eine solche KI in die Welt setzt, ohne bereits im frühen Entstehungsprozess entsprechende elementare Bremsen und „rote Linien“ zu implementieren, riskiert letztlich die Zukunft der Menschheit.

Shanahan verzichtet in diesem Zusammenhang auf jegliche konkreten politischen Verweise, aber dennoch drängt sich dem Leser das Wort „China“ auf, von dem man weiß, dass es mit den USA um die Führung auf dem KI-Gebiet kämpft. Wer die wieder aufgeflammte Diskussion über einen möglichen Laborunfall in Wuhan als Ursache der Corona-Pandemie verfolgt hat, kann sich leicht die Folgen einer bedenkenlosen KI-Entwicklung in einem mächtigen autoritären oder gar totalitären Staat ausmalen. Shanahan erwartet die Existenz eines solchen Systems zwar nicht kurzfristig – was immer das bedeutet -, aber er wagt auch nicht auszuschließen, dass es viel schneller Realität werden könnte als die meisten von uns – vor allem die Laien – für möglich halten.

Es ist also höchste Zeit, dieses Problem global anzugehen, aber Corona und Klimawandel haben diese Diskussion derzeit zu einem „Wohlstandsthema“ mit Verschwörungs-Charakter absinken lassen.

Das Buch ist im Verlag Matthes & Seitz erschienen, umfasst 253 Seiten und kostet 20 Euro.

Frank Raudszus

No comments yet.

Schreibe einen Kommentar