Schwarze Großcomputer mit blauen Lichtern

NASA Supercomputer zur Klimasimulation © NASA Goddard Space Flight Center under cc

Die Datensammelwut der Gegenwart beschert uns eine nicht gekannte Datenflut. So weit, so gut oder so schlecht, je nachdem, wofür diese Daten benutzt werden. Das Netz vergisst nichts, heißt es, und die Schwierigkeit bei Datenkraken seine persönlichen Daten zu löschen sind bekannt, von nichtöffentlich angelegten Datenprofilen ganz zu schweigen.

Doch die Datenflut birgt noch ganz andere, interne Schwierigkeiten. Zum einen die Speicherung und Verarbeitung der Daten. Geheimdienste wie der CIA und andere haben traditionell die leistungsstärksten Rechner, doch werden gerade Geheimdienste immer wieder für ihre Misserfolge gescholten. Die liegen nicht an einem zu wenig an Information, sondern daran, dass man nicht weiß, wonach man suchen muss.

Algorithmen, die Datenbändiger

Das Zauberwort lautet hier: Algorithmus. Ein Algorithmus ist eine “Wenn …, dann …”-Anweisung zur Problemlösung. Wenn es regnet, dann spanne den Schirm auf (da du nicht nass werden willst). Nun sind nicht alle Algorithmen so herrlich einfach, sondern mitunter entsetzlich kompliziert. Die virtuellen Wunderwelten, die uns das Internet präsentiert, basieren auf solchen Algorithmen.

Hier weiß man ziemlich genau, was man tut, da die mathematischen Modelle zur Wirklichkeit passen, man weiß in etwa, was der Rechner im Hintergrund macht, wenn man Programme schreibt, vor allem weiß man, dass er es macht.

Der umgekehrte Weg ist schwieriger. Computer ringen heute Schachgroßmeister nieder, aber sie haben große Schwierigkeiten, den menschlichen Arm von der Sessellehne – auf der er liegt – zu unterscheiden, was intuitiv nicht sofort einleuchtet.

Was uns sozusagen naturgegeben ist, auf Bewegungen zu reagieren, auf unser Gleichgewicht zu achten, Emotionen durch Mimik und Gestik zu deuten und auszudrücken, Einzeldinge zu erkennen, das muss die künstliche Intelligenz lernen. Und die vermeintlich einfachen und alltäglichen Algorithmen erwiesen sich als unendlich kompliziert.

Die Grenzen der Berechenbarkeit

Gibt es die Grenzen der Berechenbarkeit überhaupt oder ist alles nur eine Frage leistungsfähiger Computer? Die Frage ist, ob mit der Datenflut alles berechenbar ist und irgendwelchen Algorithmen folgt. In der Quantenphysik rechnet man inzwischen mit mathematischen Modellen, bei denen überhaupt nicht mehr klar ist, ob und wie man sie experimentell überprüfen will und Empirie ist immerhin das Herzstück der Wissenschaft. Alle diese Modelle ergeben mathematisch Sinn, könnten möglich sein, passen aber nicht zwingend zusammen und inwieweit überhaupt noch die empirische Welt abgebildet wird, ist zunehmend unklar.

Aber bis zu den kleinsten Bausteinen müssen wir gar nicht gehen. Die Klimadiskussion und die Finanzkrise machen uns mit einer anderen Grenze bekannt, den minimal verschiedenen Anfangsbedingungen, die sich in chaotischen (genügend komplexen) Systemen potenzieren und zu dramatischen Abweichungen führen. Es fehlt das Wissen, wie stark welche Faktoren zu gewichten sind. Das führt in den diversen Klimamodellen zu Abweichungen von bis zu 6,5° und über die Zuverlässigkeit von Wirtschaftsprognosen werden zurecht inzwischen Witze gemacht.

Der Mensch in Zeiten der Datenflut

Schaubild mit bunten Kreisen und Pfeilen

Darstellung eines Algorithmus; Razorbliss gemeinfrei

Die Algorithmen des Menschen, gibt es so was? Einfache Programme, nach denen wir alle funktionieren und berechenbar werden? Manches spricht dafür, anderes dagegen.

Algorithmen können heute wohlklingende Musik komponieren und man versuchte auch mit ihrer Hilfe zu analysieren, was Hits zu Hits macht. Das Ergebnis war aber eher ein “Naja”, als eine Sensation.

Man erkennt nicht, wer der nächste Amokläufer oder Terrorist wird. Hier ragt inmitten der Datenflut eine Insel des Nichtwissens heraus, denn es fehlen die Kriterien, die den typischen Terroristen der Zukunft ausmachen. Hier und in anderen Fragen stehen nicht selten unterschiedliche Modelle, die zu verschiedenen Ergebnissen führen, nebeneinader.

Modelle erfordern Metamodelle

Um diesem Dilemma zu entgehen, bräuchte man ein weiteres Modell, das die Güte der vorhandenen beurteilt, ein Metamodell. Doch diese sind noch komplizierter und unsicherer und noch etwas: Es könnte auch von ihnen mehrere geben, was wiederum zum Ordnen Meta-Metamodelle erforderlich macht und das endet in einem sogenannten infiniten Regress, man kommt an kein legitimes Ende.

Dieses Ende ist immer der Abgleich mit der Wirklichkeit, aber wenn die nicht greifbar ist, weil es sich um Zukunftsmodelle weiterer Entfernung handelt, oder, wie in der Quantenphysik, oft nicht mal klar ist, ob es überhaupt eine empirische Entsprechung gibt, offenbaren mehr Modelle eher unser Nichtwisssen und man muss aufpassen, dass man in der Datenflut nicht ertrinkt.