Ist Künstliche Intelligenz ein Schritt auf einem langen Weg oder ein Sprung?
Ich denke, das hängt wesentlich von ihrer praktischen Anwendbarkeit ab. KI ersetzt vielerorts Google-Suchen und stellt damit für viele Menschen im Alltag einen erheblichen Fortschritt dar. Auch Forschende profitieren von ihr bei Arbeitsschritten, die nun effizienter werden. Die KI wird nicht nur für aufwendige wissenschaftliche Arbeiten wie die Verbesserung von Klimamodellen oder die Vorhersage der dreidimensionalen Struktur von Proteinen verwendet, sondern auch, um alltägliche Aufgaben wie Recherchen zu erleichtern. KI-Modelle sind genau darauf zugeschnitten. Sie helfen uns, Ideen schneller zu finden und umzusetzen und repetitive Aufgaben effizient zu bewältigen. Davon profitieren bestimmte Forschungsfelder erheblich, besonders solche, in denen große Datenmengen verarbeitet werden. Betrachtet man jedoch die langfristige Entwicklung in Wissenschafts- und technischen Systemen, handelt es sich eher um eine lange Kette von Schritten: die steigende Rechenleistung, theoretische Arbeiten, die Datenaufbereitung durch das Internet sowie die Digitalisierung, die dazu beiträgt, Daten zu erfassen. Alles in allem sind dies vor allem viele kleine, aber bedeutende Schritte in Richtung einer fortschrittlicheren KI.
Verändern intelligente Computersysteme die Forschung grundlegend?
In der Klimaforschung und in anderen wissenschaftlichen Disziplinen macht KI momentan nichts völlig Neues. Viele Aufgaben, die zuvor wesentlich länger dauerten, etwa Datenanalysen oder manche Modellierungsschritte, können jetzt effizienter gelöst werden. Rein KI-getriebene Wettermodelle sind derzeit im Kommen und um ein Vielfaches schneller als physikbasierte Modelle. Aber ich habe meine Zweifel, ob solche KI-Modelle gegenwärtig schon in der Lage sind, das zu leiten, was wir in vielen Bereichen der Wissenschaft zu erreichen versuchen: nämlich das Lernen von Naturgesetzten und das Verstehen von Kausalbeziehungen – beispielsweise in der Klimamodellierung. Diese Aufgabe beruht dort auf einem gewaltigen Schatz an Erfahrungen und Wissen über das Verhalten von Flüssigkeiten und Gasen in den Ozeanen und der Atmosphäre. Auf dieser Basis bilden wir den Klimawandel nach und entwickeln hoffentlich Maßnahmen, um ich zu adressieren. KI kann in vielen Bereichen sehr hilfreich sein, zum Beispiel auch in Wettermodellen, aber das Erfolgsprinzip stößt momentan an seine Grenzen. Denn Wetter betrifft oft die Vorhersage von Zuständen, die wenigstens in ähnlicher Form schon einmal aufgetreten sind. Der Klimawandel führt uns aber in völlig neue Zustände.
Warum kann KI das nicht leisten?
Moderne KI-Systeme konzentrieren sich darauf, Korrelationen aus umfangreichen Texten und anderen Datensätzen zu lernen. Sie werden immer rechenintensiver und identifizieren Zusammenhänge, aber sie versuchen nicht, Gesetzmäßigkeiten oder einfache mathematische Beschreibungen dieser zu finden. Es ist ein Wunder der Natur, dass sie sich durch die Sprache der Mathematik beschreiben und erklären lässt. Eine KI kann aber nicht begründen, warum sie eine bestimmte Vorhersage macht: Es gibt Ansätze zur nachträglichen Erklärbarkeit von trainierten KI-Modellen, aber ihr fehlen fundamental logische und regelbasierte Konzepte. Ein Beispiel: Eine moderne KI kann die Schachregeln nicht wirklich lernen, indem sie einfach Schachspiele beobachtet. Obwohl sie das Spiel durch die Verarbeitung von Millionen von Beispielen möglicherweise sehr gut beherrscht, verstößt sie dennoch gegen Regeln, da sie nicht programmiert ist, diese zu lernen. Im Gegensatz dazu verstehen Kinder das Konzept von Schach und dass sie sich an die Regeln halten müssen. Allgemeine KIs sind schlecht im Ableiten von Gesetzmäßigkeiten, da sie diese nicht in ihren neuronalen Netzen verankert haben.
Ein weiteres, eher kurioses Beispiel hierfür sind die fehlerhaften Bilder von Händen mit sechs Fingern. Wenn einer KI die Aufgabe gestellt wird, Bilder von verschiedenen Personen zu generieren, entstehen oft schöne Abbildungen, die jedoch inkorrekt sein können. Der Grund dafür ist, dass die KI das Konzept der Anatomie und damit der korrekten Anzahl von Fingern nicht versteht. Das Problem wird oft durch menschliches Eingreifen gelöst, aber das ist dann einfache Fehlerkorrektur – ohne dass das Computersystem Konzepte und Regeln verstanden hätte.
Wieso kombiniert man nicht Computersysteme, die aus großen Datenmengen lernen, mit solchen, denen man Regeln vorgibt?
Ein Zugang dazu ist die Kausalität, aber das Thema ist herausfordernd und erfordert tiefgehende theoretische Arbeiten. Bestehende KI-Modelle wurden geschaffen, um viele unstrukturierte Informationen zu verarbeiten. Dafür verpacken sie die Informationen oft in Textbausteine und -wolken und berechnen daraus Wahrscheinlichkeiten. Ihnen fehlt die wesentliche Logik, die für das Verständnis von Kausalität notwendig ist. Mein Spezialgebiet ist die Kausale Inferenz, das heißt, die Fähigkeit, kausale Beziehungen aus Daten zu lernen. Ihre Methoden sind aber bisher noch nicht wirklich in der Lage, mit großen unstrukturierten Datenmengen umzugehen.
Wofür braucht man Kausale Inferenz?
Sie erlaubt uns, kausale Beziehungen mithilfe von Algorithmen und Annahmen über das zugrundeliegende System aus Beobachtungsdaten zu identifizieren und zu quantifizieren. Man könnte sagen, die gegenwärtigen KI-Modelle beantworten Fragen wie „Welche Muster treten häufig auf?“ oder „Was ist der nächste wahrscheinlichste Wert oder das nächste Wort?“ Die Fragen, auf die wir uns konzentrieren, sind von ganz anderer Art. Wir fragen etwa: Warum existiert ein bestimmtes Wetterphänomen und wie wird es beeinflusst? Warum tritt ein Extremereignis auf? Und wir wollen wissen, wie hoch die Wahrscheinlichkeit für Extremereignisse in 100 Jahren unter den Bedingungen des Klimawandels ist. Diese Fragen sind kausaler Natur, weil sie nicht einfach fragen, wie oft etwas eintritt, sondern was passiert, wenn bestimmte Bedingungen gegeben sind oder verändert werden. Diese Art von Fragen steht im Kontext von Systeminterventionen, wie beispielsweise in der Medizin: „Was passiert, wenn ich ein bestimmtes Medikament einnehme?“ Das ist eine kausale Frage. Wir möchten wissen, ob Aspirin wirkt und nicht einfach nur, womit seine Einnahme korreliert.
Also muss KI lernen, die richtigen Fragen zu stellen?
Die Fähigkeit, solche Fragen zu formulieren, bildet die Grundlage für die Entwicklung eines Modells, das zur Beantwortung genau dieser Fragen tatsächlich in der Lage ist. In vielen Bereichen der Forschung sind das physikalische Modelle. Daneben ist eine der bedeutenden Forschungsleistungen der letzten 40 Jahre die Einführung und mathematische Beschreibung kausaler Netzwerke, die in der Lage sind, „Was wäre, wenn“-Fragen zu beantworten, sowie die Entwicklung entsprechender Algorithmen. Denn um kausale Beziehungen aus Daten zu lernen, muss man nicht immer physikalische Naturgesetze herleiten, es können auch rein qualitative und auf Wahrscheinlichkeiten beruhende kausale Netzwerke sein, wie zum Beispiel in der Medizin, Biologie, Soziologie, aber auch in der Klimaforschung. Ein wichtiges Prinzip beim Aufspüren von kausalen Netzwerken ist zum Beispiel die Annahme, dass alle statistisch gemessenen Zusammenhänge in den Daten aus kausalen Beziehungen entstehen und umgekehrt auch alle kausalen Beziehungen zu statistischen Abhängigkeiten führen. Darüber hinaus sind je nach Methode spezifischere Annahmen hilfreich, etwa ob die Beziehungen linear oder nicht-linear sind und wie die Verteilung der Daten beschaffen ist – ob sie beispielsweise normalverteilt ist oder nicht. Diese spezialisierten Annahmen sind entscheidend für die Arbeit mit den Daten und für das Extrahieren von Ursachen und Wirkungen.
Wo könnten kausal arbeitende KI-Modelle in der Forschung eingesetzt werden?
Im Prinzip überall dort, wo es um kausale Fragen und nicht um reine Mustererkennung und -häufigkeiten geht. In der Genforschung gibt es beispielsweise Experimente, bei denen bestimmte Gene aktiviert werden, um deren Auswirkungen auf die Organismen zu erforschen. Solche Experimente sind äußerst kostspielig. Gleichzeitig stehen uns umfangreiche Daten aus früheren Experimenten zur Verfügung sowie Beobachtungen darüber, welche Gene mit bestimmten Eigenschaften in der Natur kombiniert werden. Mithilfe kausaler Modelle lässt sich vorhersagen, welche Genkombinationen wahrscheinlich einen kausalen Effekt haben und welche nicht. Damit lassen sich gezielt die erfolgversprechendsten Experimente bestimmen.
Im Gegensatz dazu gibt es im Klimabereich keine Möglichkeit, direkt zu intervenieren. Dies geht zwar in kostenintensiven physikalischen Modellen des Klimasystems, aber diese können nicht alle Prozesse bis ins letzte Detail abbilden. Hier kann Kausale Inferenz auf viele Arten genutzt werden. Zum einen können Klimamodelle mit kausalen Methoden evaluiert und verbessert werden und zum anderen können direkt Beobachtungsdaten analysiert werden. Zum Beispiel, wenn wir verstehen wollen, wie etwa der Golfstrom die Entwicklung des Meereises in der Arktis beeinflusst und welche Auswirkungen dies wiederum auf unser Wetter hat. Wir verfügen über umfangreiche Messdaten aus den vergangenen Jahrzehnten, einschließlich Informationen zu Luft- und Wassertemperatur, Druck und der Ausdehnung des Meereises. Durch den Einsatz von kausalen Methoden können wir aus diesen Daten ableiten, welche Hypothesen in der Wissenschaft plausibler sind, und mehr Evidenz für die eine oder andere Annahme sammeln. Diese Methoden ermöglichen es, über einfache Korrelationen hinauszugehen und zufällige oder scheinbare Zusammenhänge herauszurechnen. Obwohl wir nicht immer mit absoluter Sicherheit kausale Beziehungen bestätigen können, da die den Methoden zugrundeliegenden Annahmen nicht immer erfüllt sind, sind wir in der Lage, viele nicht-kausale Erklärungen auszuschließen. Das ist der Beitrag, den diese Methoden in der Forschung leisten können. Dazu muss Kausale Inferenz allerdings erst lernen, mit unstrukturierten großen Datenmengen umzugehen, und das könnte man dann „kausale KI“ nennen.
Jakob Runge ist seit 2025 Professor für Künstliche Intelligenz in den Wissenschaften an der Universität Potsdam.
Jakob Runge arbeitet schon jetzt eng mit Wissenschaftler*innen vieler Disziplinen zusammen. Diese interdisziplinäre Stellung will er in den kommenden Jahren kontinuierlich ausbauen – auch mit einem KI-Kompetenzzentrum, das darauf abzielt, diese Methoden breit in Forschung und Lehre an der Universität Potsdam zu integrieren.
Kausale Inferenz ist ein Forschungsfeld, das Theorie und Methoden entwickelt, um aus Daten Ursache-Wirkungs-Beziehungen zu lernen. Statt nur Zusammenhänge zu beschreiben, versucht sie zu klären, ob ein Faktor tatsächlich etwas bewirkt und nicht nur zufällig gleichzeitig auftritt.
Dieser Text erschien im Universitätsmagazin Portal - Zwei 2025 „Demokratie“.


