Wie „Legal Tech“ langwierige Genehmigungsverfahren beschleunigen kann, weiß Jura-Professor Björn Steinrötter. Zusammen mit Honorarprofessor Christian Czychowski und anderen steht er dem Bundesministerium des Innern (BMI) bei der Einführung KI-basierter Rechtsprüfungen zur Seite. Auch der Potsdamer Honorarprofessor Christoph Wagner berät mit einem weiteren Team in demselben Projekt das BMI.
Herr Steinrötter, wie verbreitet sind KI-Tools im Rechtswesen inzwischen?
Theoretische Überlegungen zu dem Thema, wie man rechtliche Prozesse in der Informatik abbilden kann, gab es schon seit den 1960er Jahren. Irgendwann in den 1990ern hat man dann vom „Tod der Rechtsinformatik“ gesprochen, insbesondere weil es damals einfach nicht die technischen Mittel gab, diese teils beachtliche theoretische Forschung umzusetzen. Heute sieht das ganz anders aus: Rechtsdienstleister, die den juristischen Markt mit Automatisierungslösungen neu befruchten und als „Legal Tech“ bezeichnet werden, sind inzwischen weit verbreitet. Jetzt, da generative KI große Entwicklungssprünge macht, treten staatliche Verwaltungen und die Justiz auf den Plan und sagen: Wir können die Vielzahl und den Umfang von rechtlichen Verfahren auf herkömmliche Art und Weise kaum noch in angemessener Zeit bewältigen.
Wegen ihrer zähen Antrags- und Prüfverfahren stehen deutsche Verwaltungen häufig in der Kritik. Wie kann Künstliche Intelligenz eine aufwendige Rechtsprüfung beschleunigen?
Bei Planungs- und Genehmigungsverfahren handelt es sich um einen relativ klar abgrenzbaren juristischen Bereich. Das können Verfahren zur Genehmigung von Windenergieanlagen oder von Wasserstoffleitungen sein. Einige dieser Verfahren folgen klaren Regeln, andere erfordern Wertungen oder ein Ermessen in den Rechtsfolgen. Im Recht gibt es sehr häufig nicht nur eine richtige oder falsche Entscheidung, sondern einen Vertretbarkeitskorridor und einen Beurteilungsspielraum. Deshalb geht es dem BMI – was ich für richtig, weil realistisch halte – auch nicht um gänzlich selbstentscheidende Systeme, sondern um die KI-gestützte Vorbereitung von rechtlichen Entscheidungen durch den Menschen.
Was muss die KI denn auf dem Kasten haben, um für Planungs- und Genehmigungsverfahren eingesetzt zu werden?
Eingespeist werden müssen letztendlich alle einschlägigen Gesetze, die zugehörige Rechtsprechung und die Verwaltungspraxis. Das BMI hat uns auch schon einen beeindruckenden Vorgeschmack von seinen Plänen präsentiert. Im Grunde sollen dafür lernbasierte und regelbasierte KI-Systeme miteinander kombiniert werden. Letztere erreichen ihr Ergebnis durch reine Wenn-Dann-Programmierungen. Bei den lernbasierten KI-Systemen kommt hingegen eine große Menge an Daten zum Einsatz, aus denen Muster identifiziert werden. Diese KI-Systeme bewältigen auch Ambivalenzen und Vagheit, die es im rechtlichen Kontext auf der Sachverhaltsebene ebenso gibt wie in den Normen selbst. In jedem Fall bedarf es einer ausreichenden Datenqualität, also müsste zum Beispiel eine geänderte Rechtsprechung sofort eingepflegt werden, ebenso etwaige Eingaben von Betroffenen bei Bauvorhaben. Auch die Gewichtung von Urteilen muss abgebildet sein, sodass etwa klar ist: Ein neues Urteil der jeweiligen Höchstinstanz überwiegt viele bisher ergangene Urteile der unteren Instanzen.
Ist mit einer baldigen Bereitstellung solcher Systeme zu rechnen?
Wir stehen praktisch unmittelbar davor, solche Systeme in Verwaltungen einzusetzen. Das ist jedenfalls das klare Ziel des BMI im besagten Projekt. Auch der Rechtsverlag C.H. Beck hat jüngst ein KI-unterstütztes Recherche-Tool vorgestellt, das aus den Datenbanken des Verlags schöpft und schon recht ordentliche Ergebnisse zeigt. Beim BMI war bislang von unserer Seite vor allem theoretische Vorarbeit nötig. Das ambitionierte Ziel des BMI für die Entwicklung einer Testversion war aber schon Ende dieses Jahres. Die angedachte Plattform soll zunächst die Planungs- und Genehmigungsverfahren des Wasserstoff-Kernnetzes abbilden und später erweitert werden.
Wie viel schneller ließen sich dann etwa Bauvorhaben genehmigen?
Um zu prüfen, ob beispielsweise die Errichtung eines Windparks rechtmäßig ist, müssen zahlreiche Informationen über einen sehr langen Zeitraum von einem Menschen gesichtet und ausgewertet werden. Ein KI-System leistet das teilweise in Sekundenschnelle und markiert dem Anwender oder der Anwenderin die Bereiche, in denen er oder sie selbst tätig werden muss. Ein Verfahren, das bislang mehrere Monate, vielleicht Jahre gedauert hat, könnte damit deutlich schneller entscheidungsreif sein.
Wie sähe die Arbeit in den behördlichen Rechtsabteilungen aus, wenn KI einen Großteil der Fleißarbeit übernimmt?
Die Anfangszeit dürfte für alle Beteiligten eine ziemliche Umstellung bedeuten. Aber ich gehe davon aus, dass es relativ schnell zur Normalität werden wird, denn diese Anwendungen funktionieren sehr intuitiv. Die menschliche Rechtsprüfung beschränkt sich dann gewissermaßen darauf zu schauen, ob das Ergebnis vertretbar ist. Es muss auch unbedingt nachvollziehbar sein, warum das System zu einem bestimmten Ergebnis gekommen ist. Die damit befassten Personen dürfen also keineswegs weniger sachverständig sein als bisher, eher im Gegenteil. Wir brauchen nach wie vor kompetente Juristinnen und Juristen, die die Ergebnisse der KI nicht einfach nur abnicken, denn das wäre auch verfassungsrechtlich hochproblematisch.
Wären Verfahrensfehler mit KI-Unterstützung ausgeschlossen?
Das würde ich nicht sagen. In einer Vielzahl von „normalen“ Fällen hätten wir wahrscheinlich weniger Fehler. Doch anstelle der menschlichen passieren dann andere Fehler. Die KI leitet ihre Entscheidungen aus der Datenbasis ab, also aus der Mehrzahl der vergleichbaren Fälle aus der Vergangenheit. Sie schaut einfach, wie bisher entschieden wurde. Das kann zum Problem werden, sobald es das System mit einem atypischen Fall zu tun bekommt. Es mag den atypischen Sachverhalt zwar erkennen, aber ihm fehlt die Fähigkeit zur Wertung sowie die ureigene juristische Kreativität. Dass solche Systeme im Brustton der Überzeugung, juristische Texte formulieren, teilweise Urteile „erfinden“ und man geneigt ist, ihnen uneingeschränkt Glauben zu schenken, ist schließlich auch eine große Gefahr. Die Folgen reichen im Verwaltungskontext dann gegebenenfalls bis zur Amtshaftung, sodass der Staat für Schäden haften müsste.
Gibt es auch juristische Bedenken hinsichtlich des Einsatzes von „Legal Tech“?
Wenn KI-Systeme selbst hoheitliche Entscheidungen treffen sollen, gibt es handfeste verfassungsrechtliche Vorbehalte. Aber selbst, wenn es „nur“ um die besagte Entscheidungsvorbereitung geht, gibt es zum Beispiel datenschutzrechtliche Grenzen und urheber- sowie IT-sicherheitsrechtliche Probleme. Ersteres hat in unserem Team Janko Geßner untersucht, die beiden letzteren Themen Christian Czychowski. Und: Wenn ich als Mensch Recht anwende, dann ist das ein gedanklich-schöpferischer Vorgang, der immer Wertungen enthält, basierend auf juristischem Vorwissen und Urteilsvermögen sowie einer Art „Weltwissen“. Bei der Rechtsanwendung finden verschiedene hermeneutische Vorgänge statt. Das beginnt bereits bei der bloßen Feststellung eines Sachverhalts, der auf juristischer Seite erst einmal konstruiert werden muss. Damit das nicht der Willkür unterliegt, besagt die juristische Methodenlehre, welchen Kriterien zum Beispiel die Auslegung von Gesetzen folgt. Da gibt es den Wortlaut, die Systematik, die Historie der Gesetzgebung und den eigentlichen Sinn und Zweck eines Gesetzes. Die Frage, mit der ich mich im Rahmen des BMI-Projekts konkret beschäftigt habe, lautet: Können wir diese althergebrachte Methodenlehre für KI-basierte Fallprüfung verwenden?
Zu welchem Schluss kommen Sie in Ihrem Gutachten für das BMI?
Wir brauchen eine ganz neue Methodenlehre für KI-basierte Rechtsprüfungen. Im Vergleich zur menschlichen Fallprüfung kommt die Künstliche Intelligenz zwar erstaunlich oft zu einem ähnlichen Output, der sich innerhalb unseres Vertretbarkeitskorridors bewegt. Aber der Weg dorthin ist ein anderer, schließlich greift eine lernbasierte KI auf stochastische Muster zurück, nimmt aber keine menschliche Wertung vor. Die hermeneutischen Schritte, die die herkömmliche Methodenlehre einhegen möchte, fallen weg. KI-basierte Fallprüfung unterscheidet sich von der menschlichen Rechtsanwendung, wenn wir uns die jeweils ablaufenden Prozesse zum Ergebnis hin ansehen. Dann brauchen wir auch eine andere Methodenlehre, die die spezifischen Abläufe der KI-Systeme in den Blick nimmt. Hier habe ich erste, mögliche Grundpfeiler aufgezeigt, darunter die Vollständigkeit des eingepflegten Inputs, Vorgaben zur Datenqualität inklusive einer Bias-Kontrolle, die Nachvollziehbarkeit beziehungsweise Erklärbarkeit des Ergebnisses, die Notwendigkeit einer menschlichen Aufsicht und Letztentscheidung und einiges mehr.
