Martin Burckhardt: „Eine kurze Geschichte der Digitalisierung“

Print Friendly, PDF & Email

Diese Rezension entstand auf einem Gerät, das es vor zehn Jahren noch nicht gab und das man vor vierzig Jahren für unmöglich gehalten hätte: auf einem iPad. Und sie erscheint – ausschließlich – in einem virtuellen Medium, das fast genau vor fünfzig Jahren seine Geburtsstunde erlebte: dem Internet. Damit ist sie selbst ein Beispiel für die Körperlosigkeit und Zeichenhaftigkeit der Informationstechnologie, deren Geschichte Martin Burckhardt in seinem Buch so anschaulich beschreibt.

Sein Rückblick beginnt vor knapp dreihundert Jahren, als ein französischer Geistlicher die seltsamen Eigenschaften der Elektrizität entdeckte. Vor allem die scheinbar unendliche Ausbreitungsgeschwindigkeit faszinierte ihn, und damit waren seine Versuche mit mehreren hundert Mönchen frühe Vorläufer heutiger Twitter-Stürme.

Über Charles Babbage und Ada Lovelace, die im 19. Jahrhundert gemeinsam eine erste mechanische Rechenmaschine bauen wollten, kommt er zu George Boole, der die binäre Logik mit den Begriffen „0“ und „1“ bzw. „False“ und „True“ entwickelte. Sein Name ist in einem Datentypen moderner Programmiersprachen verewigt. Vor allem entwickelte er eine einfache Methode, mit diesen zwei Zuständen beliebig große Zahlen abzubilden und mit ihnen zu rechnen. Mit Hermann Hollerith kommt ein deutschstämmiger Erfinder ins Spiel. Im Rahmen einer Volkszählung erfindet er die Lochkarte, deren Löcher logische „Nullen“ darstellen bzw. – bei Fehlen – „Einsen“. Damit lassen sich beliebige Informationen durch Kombinationen von genau zwei Zuständen codieren.

Nach einem Ausflug zu Thomas J. Watson, der Holleriths Firma übernahm und sie in „International Business Machines“ (IBM) umbenannte, kommt er zu dem „Urvater“ der heutigen Computer, Alan Turing, der im Zweiten Weltkrieg mit einer genialen Entschlüsselungsmaschine nicht nur den deutschen U-Boot-Code knackte und damit die freie Welt rettete, sondern auch die Grundlage für die heutige Computertechnologie schuf. Ihm folgte auf amerikanischer Seite Vannevar Bush, der im Rahmen des „Manhattan-Projekts (die Entwicklung der Atombombe) die Rechnertechnik entscheidend vorantrieb.

Da die mit Röhren bestückten Rechner nicht nur unglaubliche Dimensionen annahmen, sondern auch höchst unzuverlässig waren, wurden dringend kleinere und zuverlässigere Schaltelemente gesucht. Martin Burckhardt schildert geradezu krimihaft die Entwicklung des Transistors durch William Bradford Shockley, der nicht nur ein genialer sondern leider auch menschlich fragwürdiger Wissenschaftler war.

Grace Hopper war die erste Frau in dieser Männerdomäne – von Ada Lovelace abgesehen. Martin Burckhardt zeigt anschaulich, wie sie aus der „magischen Kiste Computer“ durch neue, an der Alltagssprache orientierten Programmiersprachen ein von wesentlich breiteren Nutzerkreisen einsetzbares Werkzeug machte. Mit Sprachen wie COBOL ließen sich jetzt auch beliebige kommerzielle Alltagsaufgaben bearbeiten.

Auf der Hardware-Seite schuf der brillante Robert Noyce zusammen mit Gordon Moore zuerst den integrierten Schaltkreise – heute „Chip“ genannt – und dann die Firma INTEL, bis heute Marktführer bei integrierten Schaltkreisen. Die „Chips“ elektrisierten auch Militär und Raumfahrt, weil damit Raketen mit leistungsstarker Elektronik versehen werden konnten.

Die „Spielereien“ der Ingenieure bei XEROX konnten das dortige Management nicht begeistern. Wer brauchte schon graphische Oberflächen mit multiplen „Windows“ und ein „Maus“ genanntes Bedienungsgerät? Da musste erst ein junger Mann namens Steve Jobs kommen, der diese Technik in seinen „Home Computer“ einbaute und sie unter dem Logo „Apple“ zu einem Welerfolg machte.

Auch die Geburtsstunde des Internet im Jahr 1969 schildert Burckhardt recht anschaulich. Die Angst vor dem Ausfall aller elektronischen Kommunikation nach einem Atomschlag führte zu einer neuen Philosophie der Kommunikation, auf deren Basis der geniale Robert Taylor und seine Mitarbeiter binnen zweier Jahre die Urform des Internet bauten. Nachdem dieses lange Zeit ein Schattendasein im militärischen und universitären Bereich gefristet hatte, verlieh ihm Tim Berners-Lee vom CERN Anfang der neunziger Jahre mit der Webtechnologie – HTML und HTTP – den entscheidenden Schub. Der Rest ist bekannt.

Die Ausführungen über Elon Musk schließen diese Parfoorce-Tour durch die Informatiionstechnik ab. Eigentlich gehört Musk ja nicht dazu, weil er eher für die Elektromobilität und Raumfahrt steht. Eher wären hier vielleicht Ausführungen zum autonomen Auto zu erwarten gewesen. Aber auf jeden Fall passt er in die Reihe illustrer Erfinder und Wissenschaftler.

Am Ende des Buches fügt Burckhardt noch ein Frage-Antwort-Spiel zwischen einem fiktiven Leser und dem Autor an, indem er vorab alle kritischen Fragen und Einwände beantwortet. Wir können dieser Fragenliste und den durchaus nachvollziehbaren Antworten noch einige Anmerkungen zufügen. Neben Steve Jobs hätte auch – oder gerade! – Bill Gates einen Eintrag verdient, hat er doch in der Breite wesentlich mehr bewirkt als Steve Jobs, der – zumindest in Zeiten vor dem iPhone – nur eine kleine Zielgruppe bediente.

Die Konzentration auf Individuen in der Entwicklung der Computertechnologie kommt der erzählerischen Seite des Buches zwar zugute und sorgt für den menschlichen „Touch“, führt aber auch zu einer verengten Sicht auf die Geschichte der Digitalisierung. Bis in die sechziger Jahre spielten geniale Individuen sicherlich eine entscheidende Rolle, aber für die explosionsartige Entwicklung der IT nach 1970 waren letztlich Marktkräfte verantwortlich, die Burckhardt unterschlägt. Dazu gehört das portable Betriebssystem UNIX, das der sorgfältig gepflegten Fragmentierung des Märkte durch gezielte Inkompatibilität der Systeme ein Ende setzte. Inkompatibilität = „abgeschottete“ Kundengruppen = hohe Preise für Hard- und Software = Begrenzung des Marktes. Kompatibilität = Portabilität der Anwendungen = Öffnung des Marktes = Wachstum des Marktes! Ähnliches gilt für die Dominanz Intels, die sich aus dem Quasi-Standard des Intel-Prozessors ergab, der wiederum auf den Erfolg des (IBM-)PCs zurückzuführen war. Hier könnte man lange darüber streiten, ob diese Entwicklung zwangsläufig oder auch auf Zufälle zurückzuführen war. Aber vielleicht hätte dieses Thema den Rahmen eines populärwissenschaftlichen Buches über die Digitalisierung gesprengt.

Auf jeden Fall bietet dieses Buch Laien aber auch „Insidern“ einen guten Überblick über die Entwicklung dieser epochalen Technologie sowie über die treibenden Kräfte dahinter.

Das Buch ist im Penguin-Verlag erschienen, umfasst 250 Seiten und kostet 20 Euro.

Frank Raudszus

, ,

No comments yet.

Schreibe einen Kommentar