Mächtige Werkzeuge der Abstraktion

Hochleistungscomputer können mithilfe großer Datenmengen Teile des Alltags simulieren und damit Probleme lösen. Wo liegen hier Chancen – und wo Risiken?

Maschinen als Rechenarbeiter

"Es ist unwürdig, die Zeit von hervorragenden Leuten mit knechtischen Rechenarbeiten zu verschwenden, weil bei Einsatz einer Maschine auch der Einfältigste die Ergebnisse sicher hinschreiben kann." Mit diesem Zitat von Gottfried Wilhelm Leibniz knüpfte Anorthe Kremers von der VolkswagenStiftung in ihrer Begrüßung eine Verbindung des Veranstaltungsortes zum Thema: Leibniz hat in Herrenhausen einige seiner Theorien entwickelt, hier ist auch seine erste Rechenmaschine zu besichtigen, die alle vier Grundrechenarten beherrschte. Heute bewältigen Maschinen Datenmengen, die an die Grenzen des Vorstellbaren gehen. Und ermöglichen, wie Kremers ausführte, für uns alltäglich erscheinende Vorgänge wie Geldverkehr, Internetnutzung oder Warenlogistik.

Simulationen als präzise Phantasiewelten

Moderne Maschinen wie Supercomputer erlauben Simulationen komplexer Prozesse – und damit Vorhersagen in Meteorologie, Umweltforschung, Medizin oder Wirtschaft. "Das ist wie eine Art Phantasiewelt", erklärte Prof. Dr. Carsten Könneker, Chefredakteur von Spektrum der Wissenschaft und Moderator der Veranstaltung. Mit genügend Messpunkten könne ein Großrechner jede Wirklichkeit und deren potenzielle Entwicklung abbilden. Dies werde auch für politische Entscheidungen immer relevanter. "Die Macht der Methode lässt jedoch auch nach deren Grenzen und Risiken fragen", differenzierte Könneker. Und nach dem richtigen Umgang mit ständig wachsenden Datenmengen.

Höchstleistung wirft Fragen auf

Dass die Steigerung von Rechenleistung endlich sei, stellte Prof. Dr. Michael Resch seinem Kurzvortrag voran. Er ist Direktor des Instituts für Höchstleistungsrechnen und des Höchstleistungsrechenzentrums der Universität Stuttgart. "Zwar werden Computer in zehn Jahren etwa tausend Mal schneller sein als heute," prognostizierte er, "doch dann ist aus heutiger Sicht ein Höhepunkt des technisch Machbaren erreicht." Auch heute schon müsste die gesamte Menschheit 36 Jahre lang acht Stunden täglich rechnen, um es mit der Leistung eines Hochleistungscomputers in nur einer Sekunde aufnehmen zu können. Daraus ergäben sich auch Probleme. Zum einen können nicht mehr alle Daten dauerhaft gespeichert werden. Zum anderen wird mehr Leistung auch mehr Energie verbrauchen. Resch fragte: "Was tun, wenn ein Rechner irgendwann die Umwelt retten könnte, dabei aber erstmal so viel Energie verbraucht wie ganz Tokio?" Außerdem steige mit der Leistung auch die Macht – und damit die Gefahr. Andere Systeme könnten immer leichter geknackt werden, Cyber-Security müsse sich mit entwickeln.

Einen kritischen Blick bewahren

In der Praxis, so Resch, liege der Nutzen von Simulationen auf der Hand: "In der Medizin gibt es zum Beispiel wenig Spielraum, Methoden direkt am Patienten auszuprobieren, ohne ihn zu gefährden." Die Theorie bleibe jedoch dahinter zurück. Vor lauter Begeisterung über ein funktionierendes Werkzeug dürfe man auf keinen Fall vergessen zu reflektieren, "was dieses Werkzeug eigentlich tut", betonte Resch. Hier seien auch Soziologie und Politik gefordert. Denn die Macht einer Simulation, die ja oft auch politische Entscheidungen präge, läge bei jenen, die die Algorithmen programmieren und die Daten sammeln. Resch fragte: "Wer kontrolliert diese Menschen?" Er ermahnte, kritisch zu bleiben, "sich nicht einlullen zu lassen" und nicht zu vergessen, dass es sich bei Simulationen um die Übersetzung komplexer Zusammenhänge handelt.

Die Simulation biologischer Systeme

Prof. Dr. Michael Meyer-Hermann

sucht nach neuen Formen solcher Übersetzungen. Er ist Leiter der Abteilung Systemimmunologie am Helmholtz Zentrum für Infektionsforschung in Braunschweig. Als promovierter Elementarteilchenphysiker bewegt er sich dabei zwischen wissenschaftlichen Welten. Physik sei zwar abstrakt, folge aber formulierten Theorien. "Die Biologie ist dagegen eher ein Sammelsurium von Fakten," erklärte er, "die Grundprinzipien des Lebens sind noch nicht entschlüsselt." Dabei unterscheidet er drei interagierende Systeme im menschlichen Körper: Gehirn, Immunsystem und Hormonsystem. Letzteres moduliere die ersten beiden. Alle drei seien hochkomplex. Es gelte, Elemente und Verbindungen zu verstehen und dabei auch noch den zirkadianen Rhythmus zu beachten, also die Prozesse im Laufe eines Tages. Beim Versuch, all dies in seiner Nicht-Linearität zu simulieren, gelte es, an die Grenzen des linearen menschlichen Denkens zu gehen, so Meyer-Hermann.

Verstehen durch Reduzierung

"Ich habe versucht, das als Physiker zu betrachten," erläuterte Meyer-Hermann, "und habe erst einmal begonnen, zu reduzieren." Er habe sich auf Grundfunktionen als Platzhalter beschränkt und ein mathematisches Modell mit Parametern erstellt, mit dem er begann, zu rechnen. So ließen sich Erkrankungen als Störungen im Gleichgewicht darstellen und Therapien simulieren. Bei der Simulation von rheumatoider Arthritis und ausgleichenden Gaben von Cortisol konnte Meyer-Hermann zum Beispiel herausfinden, dass deren Zeitpunkt über ihre Wirkung entscheidet. "Heute wird Cortisol mit einer Membran versehen, die es erst um Mitternacht wirken lässt", berichtete er, "Das ist in den klinischen Alltag eingegangen." Reduktion, davon sei er überzeugt, führt zu Verstehen, Vereinfachung auf das Wesentliche ist kein Verlust. Oft könne man ja auch gar nicht so viele Daten am Patienten sammeln. Er stellte fest: "Reduktion hilft mir, den Geist von Krankheiten zu verstehen."

Kommunikationsstrukturen für Menschen und Dinge

Prof. Dr. Dirk Helbing

nutzt Simulationen zur Lösung gesellschaftlicher Problemstellungen. Er ist Mathematiker und theoretischer Physiker, lehrt jedoch Soziologie an der ETH Zürich. Auch ihm geht es darum, durch Simulationen zunächst zu verstehen, um dann gezielter eingreifen zu können. Dies gelte für Verkehrsstaus wie auch für Massenpanik oder Finanzkrisen. Er setzt dabei auf lokale Interaktionen und dezentrale Steuerung: "Ampeln können zum Beispiel flexibel auf Verkehrsflüsse reagieren, wenn sie über die richtigen Daten verfügen." Der Name des Technologietrends: "Industrie 4.0". Dabei kommunizieren Maschinen und Produkte einerseits mit dem Menschen, andererseits aber auch untereinander – ein "Internet der Dinge". Doch auch die Ausbreitung von Pandemien lasse sich nur durch Simulationen verstehen, gerade weil sich raumzeitliche Bezüge durch den Flugverkehr verändern. "Die Distanzen bestimmter Städte werden relativ", erklärte Helbing. Meinungsbildung, Kommunikation, moralisches Verhalten, soziale Normen und das Entstehen von Konflikten versucht er, durch ähnliche Datenanalysen zu durchschauen.

Die Standorte der Top-20-Supercomputer aus dem Juni 2013. (Foto: Python.kochav via Wikimedia Commons CC BY-SA 4.0 http://creativecommons.org/licenses/by-sa/4.0)

Vernetzung selbstorganisierter Systeme

Helbing fragt nach den Möglichkeiten, Daten weltweit zu vernetzen, zum Beispiel zu einer Weltwirtschaftssimulation. Das sei möglich, aber aufwendig – und gefährlich. Er fragte: "Sind solche komplexen digitalen Systeme überhaupt noch zu schützen?" Eine Chance sieht er in der Dezentralisierung, in einer "Bottom-Up-Partizipation". Jeder Einzelne hätte die Möglichkeit, seine Daten direkt in ein Netzwerk einzuspeisen – aber auch die volle Kontrolle, welche Daten er freigeben möchte. "Ein Bürgernetzwerk mit lokaler Kontrolle über seine Sensoren" schwebt Helbing vor. Die Sensoren befinden sich beispielsweise bereits in Smartphones. Bis zu 14 Stück pro Gerät könnten zusammengeschlossen ein gigantisches globales Messinstrument ergeben. "Dabei würde zum Beispiel das Mikrofon nur Umgebungslautstärken messen, keine Töne übermitteln", schränkte er ein. Um seine Vision zu illustrieren, erzählte er vom Bewegungssensor in Smartphones: "Wenn ein Gerät wackelt, fährt der Besitzer vielleicht gerade nur Fahrrad. Wenn alle Geräte in einer Region wackeln, ist es vermutlich ein Erdbeben." Helbing plädierte für kollektive Intelligenz, Diversität und Partizipation als Motoren von Innovation: "Wir müssen den einzelnen Bürger als Ressource begreifen."

Eine neue Art, Dinge zu beschreiben

Prof. Dr. Armin Nassehi

stieß in der abschließenden Podiumsdiskussion zu seinen Kollegen. Er lehrt Soziologie an der Universität München. Auch er sieht eine Gefahr in zu linearem wissenschaftlichem Denken angesichts komplexer Prozesse. "Die klassische Soziologie forscht viel zu nah an den Selbstbeschreibungen der Gesellschaft", mahnte er. Viele Verhaltensweisen seien eher durch Intuition oder Habitus gesteuert, er stelle oft eine "Aufschaukelung von Einzelereignissen“ fest. Er vermisse eine soziologische Theorie der Gesellschaft, die nicht nur im Nachhinein auf die Intentionen Beteiligter zurückrechne. "So geraten wir doch immer wieder in die gleichen Merkwürdigkeiten hinein", gab er zu bedenken. Und forderte eine andere Art, soziologisch zu denken und zu beschreiben, gerade angesichts des Umstandes, dass man die Gesellschaft eben nicht von außen betrachten könne. Hier sieht er Chancen für neue Formen von Partizipation und Diversität in einer Welt der vernetzten Daten.

Hochleistungsrechner als Heilsbringer?

Prof. Dr. Michael Resch sieht in immer leistungsfähigeren Computern weder die Lösung aller Probleme noch eine vermeidbare Gefahr. Er schränkte ein, das Potential neuer Technologien sei schon immer auch bedrohlich gewesen: "Es ist immer das Schlimmste und das Beste möglich." Es helfe auch nicht, das Wohl der Menschheit anzustreben, davon seien die Biografien historischer Täter voll: "Ohne Lochkarten wäre die systematische Verfolgung der Juden im Nationalsozialismus kaum möglich gewesen." Andererseits sei es eine unauflösbare Paradoxie, menschliche Probleme mit menschlicher Technologie lösen zu wollen. Prof Dr. Michael Meyer-Hermann wiederum glaubt durchaus an ein großes Potential der Technik, zumindest gesundheitliche Probleme der Menschheit lösen zu können: "Dabei limitiert uns gar nicht die Rechnerleistung, sondern die zu geringe Datenmenge." Für ihn ist die Transparenz des Menschen zumindest medizinisch eine positive Vision.

Abbildung im Detail

Aus dem Publikum kam die Einschätzung, die im Veranstaltungstitel behauptete Abbildung von Wirklichkeit sei bestenfalls in Segmenten oder Details realisiert. Prof. Dr. Michael Resch stimmte zu: Eine Abbildung sei in der Simulation immer eine Reduzierung. Auch Prof. Dr. Michael Meyer-Hermann pflichtete bei. Es ginge gar nicht darum, ein Gesamtsystem abzubilden. Vielmehr um ein Reduzieren der Elemente in genau ausreichender Komplexität, um eine bestimmte Frage zu beantworten. Prof. Dr. Armin Nassehi wies dabei auf ein wissenschaftstheoretisches Problem hin: "Das Zusammenfügen vieler kleiner Teile ergibt eben kein Ganzes." Die Reduktion von Wahrnehmung sei allerdings notwendig, lautete eine weitere These aus dem Publikum, diese könne sonst gar nicht verarbeitet werden. Prof. Dr. Michael Resch sieht genau darin eine große Herausforderung für die Zukunft der Simulation – die menschliche Fähigkeit zur Reduktion zu reproduzieren. Er stellte fest: "Das ist dem Computer gar nicht so leicht beizubringen." Thomas Kaestle

Die IBM Blue Gene/P Supercomputer-Installation an der Argonne Leadership Angela Yang Computing Facility im Argonne National Laboratory in Lemont, Illinois, USA. (Foto: Blue Gene / P / Argonne National Laboratory via Wikimedia Commons CC BY-SA 2.0 http://creativecommons.org/licenses/by-sa/2.0)