Ihr Anwalt zu Artificial Intelligence

Oktober 9, 2018

Haftung für KI

Aus juristischer Sicht wird oft die Haftung für KI als regelungsrelevant erachtet (siehe zur Diskussion Borges: Rechtliche Rahmenbedingungen für autonome Systeme, NJW 2018, 977). Auch die Diskussion um intelligente Roboter als E-Person wird damit verknüpft, so die KI persönlich haftbar machen zu können (Entschließung des Europäischen Parlaments vom 16.02.2017, Rz. 59 f). Gibt es also ein Haftungsdefizit bei KI?

Haftungskonzepte ausreichend

Die Antwort ist für die deutsche Rechtslage ein klares Nein. Wer in einer Vertragsbeziehung eine KI einsetzt, haftet im Rahmen des zugesagten Leistungserfolgs verschuldensunabhängig und sonst bei Verletzung einer vertraglichen Pflicht. Außerhalb vertraglicher Beziehungen haftet der Verwender einer KI bei Verletzung einer allgemeinen Pflicht, beispielsweise aus der Produzentenhaftung für das Inverkehrbringen nicht ausreichend sicherer Produkte. Dann gibt es noch die Produkthaftung und eine Reihe von Einzelregelungen, die eine Haftung begründen können. Trifft eine KI also eine falsche Entscheidung, dürfte der Verwender oder der Hersteller haften

Haftpflichtversicherung wie beim Kfz?

Im Bereich autonomer Fahrzeuge wird nun erwogen, die Halterhaftung auf den Produzenten zu verlagern. Der Halter eines Fahrzeugs haftet unabhängig vom eigenen Verschulden für die „Gefährlichkeit“ seines Fahrzeugs, § 7 Abs. 1 StVG. In Verbindung mit der Pflichtversicherung kann so sichergestellt werden, dass ein Geschädigter immer einen solventen Haftungsgegner hat. Ist ein Verschulden der Beteiligten festzustellen, so wird dies durch Haftungsquoten und Rückgriffansprüche abgebildet.

Die Hersteller autonomer Fahrzeuge in diese Haftung zu nehmen, soll einen wirtschaftlichen Anreiz für sichere Fahrzeuge schaffen. Das ist offenkundig vorgeschoben, denn es könnten im Rahmen der bestehenden Halterhaftung Tarife für autonome Fahrzeuge nach Typ aufgestellt werden. Damit wäre außerdem ein unmittelbarer Vergleich gegenüber den Selbstfahrern möglich. Der Effekt einer Verschiebung der Haftung auf den Produzenten wäre zunächst, dass bei autonomen Fahrzeugen die Versicherung vom Hersteller auf den Preis umgeschlagen werden müsste. Das bedeutet entweder eine erhebliche Verteuerung der Anschaffung oder eine dauerhafte Zahlungspflicht des Käufers an den Hersteller mit einer Vielzahl bürokratischer Nachteile (Insolvenz des Käufers, Inkasso, Folgen der Nichtzahlung, Manipulation des Fahrzeugs, Verlust der Garantie, Export der Fahrzeuge etc.). Den Hersteller mit dieser Administration zu belegen, macht offenkundig wenig Sinn, wenn durch die Halterhaftung ein eingespieltes und funktionierendes System mit den passenden Anreizen bereitsteht.

Angst vor „Autonomie“

Hintergrund des Vorschlags zur Haftung der KI-Hersteller ist daher bei näherer Analyse ein anderer. Neben dem Unbehagen mit autonomen Entscheidungen durch Maschinen besteht Sorge um „unvorhersehbare“ Entscheidungen und unerkennbare Fehler der KI bei der Schadensverursachung.

Eine typische Argumentation lautet: wenn eine KI eine falsche Entscheidung trifft, sei das vielleicht nicht erkennbar. Ein Beispiel erläutert das Dilemma. Ein Fahrzeug kommt auf einer Eisplatte hinter einer Kurve ins Schleudern und prallt frontal in ein entgegenkommendes Fahrzeug, weil die KI diese Situation in der Trainingsphase nicht ausreichend gelernt hat. Wie aber kann man nun den Hersteller der KI haftbar machen, wenn die autonome Entscheidung des Rechners ja nicht unbedingt soweit analysiert werden kann, und die KI offenbar „fehlerfrei“ funktionstüchtig war?

Jede Logik-KI würde den Fehler dieses Arguments sofort erkennen. Die Pflichtverletzung (unzureichendes Training) wird im Sachverhalt als Ursache des Schadens vorgegeben und zugleich als unerkennbar postuliert, eine petitio principii also. Dieser rhetorische Kunstgriff begegnet häufig in Diskussionen um KI Recht.

Ein anderes Beispiel ist die diskriminierende Bewerberauswahl durch eine Personal-KI, gegen die sich der Bewerber aber nicht wehren können soll, weil er keine Beweise habe. Auch hier werden Ungerechtigkeit und Unerkennbarkeit als gegeben vorausgesetzt. Gegen eine nicht darlegbare und unbeweisbare Diskriminierung lässt sich tatsächlich nicht vorgehen, das ist allerdings auch ohne KI so: Angenommen die Bewerberauswahl obläge einem Personalchef mit extremen Vorurteilen, der aber immer unangreifbare Auswahlbegründungen verfasst. Selbst wenn die Vorlieben des Personalchefs bewiesen wären, reichte das nicht, um die tatsächliche Diskriminierung im Einzelfall erfolgreich anzugreifen. Bei einer KI könnte dagegen mit Testdaten geprüft werden, ob bei Änderung der unzulässigen Diskriminierungsmerkmale dieselbe Entscheidung getroffen wird. Eine KI ließe sich untersuchen, testen und verbessern (oder abschalten: Amazon soll den Versuch einer diskriminierungsfreieen KI aufgegeben haben, sie hier). Der Personalchef könnte noch nicht einmal entlassen werden.

Strafe für den Einsatz von Robotern

Aber zurück zu unserem Unfall. Ist keine KI involviert, wird ein Sachverständiger beauftragt, der feststellt, ob die Geschwindigkeit angemessen zur Witterung war und ob der Schleudervorgang auf einem Fahrfehler beruhte oder unbeherrschbar war (Randnotiz: kein Problem hat das Rechtssystem einen Sachverhalt festszustellen, selbst wenn Gutachter mit demselben Zahlenmatierial zu unterschiedlichen Ergebnissen kommen). War der Unfall danach ein unvermeidbares Unglück, so haften die Halter der verwickelten Fahrzeuge, bzw. deren Versicherung. Soll jetzt die KI als Haftungsgegner hinzutreten? Oder anstelle des Halters? Was ist bei fremdverschuldeten Unfällen? Haftet die KI trotzdem und zusätzlich, quasi als Strafe, dass auch eine KI beteiligt war? Wir sehen schnell, dass die Erfindung einer neuen Haftung für die Entwickler oder Verwender von KI schlicht Schäden aus Unglück oder Unklarheit der KI auferlegt. Wer also autonome Fahrzeuge herstellt, wird so mit zusätzlichen Risiken belastet, die Fahrzeuge wären entsprechend teurer, selbst wenn die KI exakt so sicher wäre wie der Mensch. Solche Vorschläge sind also gegen KIs gerichtet und nicht gegen Schadensverursacher.

Risiken ohne KI werden ausgeblendet

Dabei sollte man nicht aus dem Blick verlieren, dass etwa 25.000 Menschen in Europa jährlich durch Verkehrsunfälle sterben und 135.000 schwer verletzt werden (siehe hier). Die meisten Unfälle dürften vermeidbar sein. Wer also dafür ist, durch eine neue Haftung von KIs deren Entwicklung oder Einsatz zu verteuern und dadurch zu verzögern, nimmt in Kauf, dass dadurch weiter Menschen unnötig auf Europas Straßen sterben oder schwer verletzt werden.
Dasselbe gilt für die Vorschläge, alle „Roboter“ verschuldens- oder fehlerunabhängig in Haftung zu nehmen für ihre Entscheidungen (so aber der Prüfauftrag des Europäischen Parlaments in der Entschließung vom 16.02.2017, Rz. 49). Der Vorschlag setzt bereits an einem überholten Technikmodell an. Wer ist denn der Verantwortliche einer KI, wenn diese auf international verteilten Ressourcen läuft, der Verwender auf einer Deep Learning-Komponente eines Drittanbieters aufsetzt und diese von Dritten trainiert und eingesetzt wird? Aus den mentalen 80er Jahren kommt auch der Vorschlag, eine Register für „Roboter“ einzuführen oder zu verlangen, dass jede KI-Entscheidung in für den Menschen verständliche Schritte heruntergebrochen werden muss (so die Erschließung des Europäischen Parlaments vom 16.02.2017, Rz.59 und 12). Zutreffend wurde bereits darauf hingewiesen, dass der Hypothese der „autonomen Entscheidung“ des Roboters ein technisches Fehlverständnis zugrunde liegt (siehe hier). Es gibt Fehler bei KIs. Die Schädigung von Menschen durch eine insgeheim fehlerhafte KI ist ein Mythos. Tatsache sind dagegen die mehr als 160.000 Opfer des Strassenverkehrs im Jahr.

Im Blick haben sollte man bei der Diskussion, dass KI und damit ausgestattete Roboter zukünftig alltäglich eingesetzt werden bei allerhand trivialen Hilfestellungen – entweder ohne jede erkennbare Haftungsrelevanz oder mit ausreichendem Haftungsregime durch vertragliche oder deliktische Ansprüche. Ein Beispiel sind Landwirtschaftsroboter. Bürokratische Hürden werden dazu führen, KI dort zu entwickeln, wo eher die Schäden gesehen werden, die ohne KI entstehen.

Mit der Frage der Haftung lässt sich zwar plastisch die Sorge der Bürger vor unverstandenen Technologien kanalisieren, sie lenkt aber von den drängenden gesellschaftlichen Herausforderung ab, die das kommende Zeitalter der KI mit sich bringt (z.Bsp. hier).


Autor

Matthias Hartmann

HK2 Rechtsanwälte

Hausvogteiplatz 11A
10117 Berlin
Telefon: +49 30 2789000
Telefax: +49 30 27890010
E-Mail: mail Hartmann


Weitere Beiträge zu KI