Ihr Anwalt zu Artificial Intelligence

Oktober 5, 2018

Autonomes Entscheiden

Massives Unbehagen setzt ein, wenn Computer „autonom“ über Menschen entscheiden könnten. Art 22 Abs. 1 DSGVO verbietet gar die „automatisierte Einzelfallentscheidung“ der Maschine über den Menschen. Erstaunlich ist das deswegen, weil die Ungleichbehandlung von Menschen durch Menschen alltägliche Praxis ist. Ein „harmloses“ Beispiel ist die Bewerberauswahl mittels Bauchgefühl (siehe bei der Zeit). Unabhängig davon, dass abgelehnten Bewerbern auch dann wohl die diskriminierungsfreie Auswahlentscheidung dargelegt werden könnte (siehe auch hierzu die Zeit), wird die Ungleichbehandlung durch Menschen weitläufig hingenommen, statt zu fordern, dem endlich durch den Einsatz geeigneter Programme ein Ende zu bereiten (auch wenn das noch ein weiter Weg ist, siehe hier). Warum ist die Autonomie des Richters, den einen Dieb zu Gefängnis und den anderen zur Bewährung zu verurteilen, akzeptabel, wohingegen objektiven und prüfbaren KIs das Urteilen verwehrt sein soll?

Autonome Automaten

Autonomie ist das Postulat zur Sicherung unseres „freien Willens“. Ohne Autonomie brechen zentrale Aspekte des Zivilrechts (Verschulden) und des Strafrechts (Verantwortlichkeit) zusammen. Zugleich gibt es immer weniger naturwissenschaftliche Grauzonen, in denen sich dieser Wille angeblich frei bilden könnte. Das was sich als freier Wille darstellt, ist lediglich ein unbekannter oder unverstandener Algorithmus.

Dies erklärt vielleicht die spontane Abwehrreaktion, denen „autonome“ Automaten begegnen. Lieber übertragen wir das Konzept der Autonomie auf Roboter, als uns damit abzufinden, dass das Ende des „freien Willens“ recht absehbar ist. Das letzte Refugium des freien Willens ist derzeit die Komplexität vieler Entscheidungen. Entsprechend wird vorgeschlagen, Systeme als autonom zu definieren, wenn deren Verhalten nicht vollständig vorherbestimmt oder vorhersehbar ist (siehe Borges: Rechtliche Rahmenbedingungen für autonome Systeme, NJW 2018, 977, 978 m.w.N.). Eine KI ist dann nie autonom, denn es ist immer vorherbestimmt, wie sie reagieren wird. Selbst der autonomste Computer rechnet die Entscheidung aus. Wenn autonom alles sein soll, was wir nicht verstehen, dann hilft der Begriff nicht wirklich weiter, weil dann das gleiche System einmal autonom und einmal nicht autonom ist, in Abhängigkeit der Verstehenskraft des Betrachters.

Grundlose Entscheidungen

Sinnvoller erscheint ein Rückgriff auf die Bedeutung des Wortes. Autonom ist danach ein System, das die Regeln der eigenen Entscheidungen zumindest teilweise selbst bestimmen kann. Auch hier steckt eine Rekursion in der Definition, denn die Regeln der Selbstbestimmung sind ja auch implementiert. Dies ist aber die Konsequenz aus der Tatsache, dass letztlich jede Entscheidung – ob durch Mensch oder Maschine – aus dem Zustand des Systems und der gestellten Aufgabe abgeleitet werden kann, wenn der Schleier der Komplexität gelüftet wäre.

Wenn Enders (Einsatz künstlicher Intelligenz bei juristischer Entscheidungsfindung, JA 2018, 721, 725) meint, die juristischen Berufe vor den KI retten zu können, indem er fordert, Rechtsanwendung sei eine „wertende Tätigkeit“ und entziehe sich damit einer einfachen Zuordnung wie „wahr“ oder „falsch“, „Strom“ oder „Nichtstrom“, dann zeugt dies zunächst von der den Berufsstand aktuell gefährdenden Ignoranz der Tatsachen. Strom oder Nichtstrom beschreibt neuronale Netze etwa so gut wie „Aktionspotential“ oder „Nicht-Aktionspotential“ eine menschliche Entscheidungsfindung. Bislang wurde noch nichts in einem Nervensystem gefunden, das nicht in einem Rechner nachgebildet werden könnte. Wahrscheinlich muss man Vinylschallplatten hören, um Urteile nicht als falsch oder richtig zu bewerten. Die Umsetzung von unbestimmten Rechtsbegriffen in mathematischen Modellen hat Philipps bereits in den 90er Jahren vorgeführt (siehe bspw. hier und hier)

Vorteil Willkür

Bei näherer Betrachtung zeigt sich darin ein befremdliches Rechtsverständnis. Als unnachahmliche menschliche Rechtsanwendung wird letztlich angesehen, dass Entscheidungen nicht notwendig so ergehen, sondern auch anders ergehen können. Es gibt also keine falschen Entscheidungen? Alles nur Wertung, die dem Wandel von Zeit und anderer Anschauung unterworfen ist? Hier ist sie wieder, die scheinbare Autonomie. Hinter dem Schleier der Komplexität des menschlichen Urteils wird das Streben nach Gerechtigkeit vorausgesetzt. Das aber wird weder geprüft noch erscheint es wissenschaftlich prüfbar. Hungrige Richter verhängen härtere Strafen (siehe die Welt). Menschen sitzen also im Gefängnis, weil der Verhandlungstermin vor und nicht hinter die Mittagspause fällt. Das ist eine triviale Wahrheit hinter dem Schleier. Wenn mangelnde Erkenntnis, was Richter zu ihren „wechselnden“ Urteilen bringt, das Mehr an Gerechtigkeit darstellen soll, wäre ich mit weniger, dafür gleicher Gerechtigkeit zufrieden. Es scheint wenig attraktiv eine KI für die Rechtsanwendung zu entwickeln, die die gleiche Willkür wie Menschen an den Tag legte.

Oft existiert nicht „der eine Grund“ für eine Entscheidung. Weder beim Richter, der eine harte Strafe verhängt, noch bei der Personalchefin. Ein menschlicher Entscheider wird Gründe nachliefern, ob diese ausschlaggebend oder auch nur mitbestimmend waren, bleibt unbekannt. Bei der KI kann jede Entscheidung erforscht und nachjustiert werden. Entscheidungs-Gerechtigkeit könnte also implementiert werden – statt sie ledglich unter Verweis auf die Komplexität zu behaupten.

Das stellt eine gewaltige Herausforderung für das Rechtssystem dar. Recht besteht nach Luhmann in Zuweisungen von Recht und Unrecht, die sich ohne größere Störungen in den Kontext des existierenden Rechtssystems einfügen. Deshalb reicht bislang es aus, dass Richter im Studium gelernt haben, diesen Kontext störungsfrei herzustellen, Beförderungen von dieser Fähigkeit abhängen, die meisten Urteile einem Rechtsmittel unterliegen und Grundrechte als sehr starke Prinzipien die wichtigsten gemeinsam Werte schützen. Welche Schönheitsreparaturklausel in Miet-AGB wirksam ist, kann dann dem Zufall überlassen bleiben, ob der Richter vorher einen Snack hatte.

Dieser pragmatische Ansatz wird durch die bald mögliche technische Abbildung desillusioniert, denn Maschinen lassen wir Menschen das wohl kaum als Gerechtigkeit durchgehen.


Autor

Matthias Hartmann

HK2 Rechtsanwälte

Hausvogteiplatz 11A
10117 Berlin
Telefon: +49 30 2789000
Telefax: +49 30 27890010
E-Mail: mail Hartmann


Weitere Beiträge zu KI