R&W Abo Buch Datenbank Veranstaltungen Betriebs-Berater
 
BM - Berater-Magazin
Header Pfeil
 
 
INTER 2023, 1
Müller 

Künstliche Intelligenz vor Gericht – ein Blick in die Zukunft

Abbildung 1

Das Thema Künstliche Intelligenz beschäftigt den EU-Gesetzgeber, und das in verschiedener Hinsicht. Neben dem im Trilogverfahren befindlichen Vorschlag einer KI-Verordnung, auch als AI Act oder KI-Gesetz bezeichnet, liegt nunmehr ein Vorschlag der Kommission für eine Richtlinie (nachfolgend kurz: RL) über KI-Haftung vor (Dokument COM(2022) 496 vom 28.9.2022), der derzeit im Rat behandelt wird. Der Vorschlag, der zeitgleich mit dem Vorschlag einer novellierten Produkthaftungs-RL vorgelegt wurde, adressiert die außervertragliche Haftung der Verantwortlichen für KI-Systeme; offen bleibt, inwieweit der RL-Vorschlag auch das Verhältnis zwischen vertraglicher und außervertraglicher (deliktischer) Haftung determiniert, sofern im Einzelfall beide Haftungsregime Anwendung finden. Die Bezüge zwischen den vorgeschlagenen KI-nahen EU-Rechtsakten sind klar erkennbar. So übernimmt auch der Vorschlag zur Haftungs-RL mit „KI-System“, „Hochrisiko-KI-System“, „Nutzer“ und „Anbieter“ die wesentlichen Begriffe des Vorschlags der KI-Verordnung, um so ein unionsweit harmonisiertes und funktionsfähiges KI-Recht zu schaffen.

Der Vorschlag der RL über die KI-Haftung schafft keine neuen, unionsweit geltenden Haftungsvorschriften und -voraussetzungen, sondern knüpft am außervertraglichen, regelmäßig verschuldensabhängig gestalteten Haftungsrecht der Mitgliedstaaten an, mithin etwa am BGB-Deliktsrecht. Er adressiert spezifische Probleme der Haftungsbegründung und -durchsetzung, denen sich ein durch ein KI-System Geschädigter typischerweise ausgesetzt sieht: Der Nachweis zwischen einem sorgfaltswidrigen Verhalten des Verantwortlichen und einer für die Schadensentstehung maßgeblichen KI-Anwendung. Die Rechtsstellung der Betroffenen variiert je nachdem, ob der Schaden auf ein Hochrisiko-KI-System zurückgeführt wird oder ein sonstiges KI-System. Art. 3 des Vorschlags formuliert einen Auskunftsanspruch des Geschädigten – die RL operiert mit den zivilprozessual verhafteten Begriffen des Klägers bzw. potenziellen Klägers –, welcher nationale Gerichte in die Lage versetzen soll, die Offenlegung bzw. Sicherung von Beweismitteln anzuordnen, wobei die Anforderungen an potenzielle Kläger strenger formuliert sind. Damit hält das Discovery-Verfahren Einzug in das europäische Schadensersatzrecht. Über die Erfüllung des Auskunftsbegehrens soll dem (potenziellen) Kläger die Geltendmachung von Schadensersatzansprüchen ermöglicht werden. Kommt der Beklagte der gerichtlichen Anordnung nicht nach, wird der Sorgfaltspflichtverstoß und damit Verschulden vermutet (Art. 3 Abs. 5 RL-Vorschlag). Besondere Brisanz wird die Vorschrift erhalten, da nach Abs. 4 der Umfang der begehrten Auskunft nach den offenen Maßstäben von Verhältnismäßigkeit und Erforderlichkeit bestimmt und der Auskunftsanspruch inhaltlich durch rechtmäßige Belange des Geheimnisschutzes und des Schutzes von Rechten des geistigen Eigentums begrenzt wird. Es bleibt abzuwarten, ob bei dieser Rechtslage dem Beklagten auch das Risiko einer nicht hinreichenden Offenlegung gerichtlich auferlegt und die in Art. 3 Abs. 5 vorgesehene Vermutungsregelung auch in diesen Fällen herangezogen werden wird.

Art. 4 des RL-Vorschlags enthält eine zweite Vermutung für das Vorliegen von Kausalität zwischen dem schuldhaften Pflichtenverstoß und dem „vom KI-System hervorbrachten Ereignis“ (sog. KI-Ereignis; gleichgestellt wird das Fehlen eines Ereignisses, wenn ein solches geboten gewesen wäre), welches letztlich zum Schadenseintritt beim Geschädigten geführt haben muss. Der Nachweis zwischen KI-Ereignis und Schaden liegt weiter beim Geschädigten, jedoch wird der Ursachenzusammenhang zwischen Sorgfaltspflichtverletzung und KI-Ereignis unter bestimmten kumulativ zu erfüllenden Bedingungen vermutet. An dieser Stelle setzt der Nachweis bzw. die Vermutung des Verschuldens gem. Art. 3 Abs. 5 sowie die auf vernünftige Erwägungen gestützte Annahme, dass dieses Verschulden das vom KI-System hervorgebrachte Ereignis beeinflusst hat, ein. Art. 4 Abs. 2 des RL-Vorschlags begrenzt die Reichweite der Vermutung nach Art. 4 Abs. 1 gegenüber Betreibern von KI-InTeR 2023 S. 1 (2)Hochrisiko-Systemen freilich auf wenige enumerierte Anforderungen, die aus der KI-Verordnung herzuleiten sind. Im Gesamtkontext des Vorschlags überrascht, dass die Betreiber von Nicht-Hochrisikosystemen nicht in den Genuss eines abschließenden Katalogs an für sie maßgebliche Sorgfaltspflichten kommen, wodurch der Eindruck entsteht, die Hochrisikosysteme würden hier gegenüber den Nicht-Hochrisikosystemen privilegiert (so auch Bomhard/Siglmüller, RDi 2022, 506, 511).

Der Kommissionsvorschlag ist vermutlich nicht das letzte Wort in Sachen KI-Haftung. Zu sehr hängt die bis zuletzt umstrittene Nomenklatur der KI-Verordnung mit den im RL-vorschlag adressierten Haftungsfolgen zusammen. Klarstellende Worte zur Reichweite der Kausalitätsvermutung und zum Umfang der Sorgfaltspflichten der Verantwortlichen von KI-System sind indes in jedem Fall – high risk or not – notwendig, wenn der EU-Haftungsrechtsakt zur KI das Bedürfnis nach Rechtssicherheit und das Anliegen der offenen Technikentwicklung miteinander versöhnen möchte.

Prof. Dr. Stefan Müller*

*

Mehr über den Autor erfahren Sie auf Seite III.

 
stats