In der Ausgabe 2/2020 des Fachmagazins für Datenschutz des Berufsverband der Datenschutzbeauftragten Deutschlands (BvD) e.V. erschien kürzlich ein Beitrag von Univ.-Prof. Dr. Wendehorst zu möglichen Regulierungsansätzen bei algorithmischen Systemen. Mehrere Arbeitsgruppen auf nationaler und europäischer Ebene, in denen Univ.-Prof. Dr. Wendehorst auch beteiligt ist, widmen sich aktuell der Ausarbeitung ethischer sowie rechtlicher Leitlinien zur Verwendung von KI (uA die Datenethikkommission, Global Partnership for AI).
Um „physische“ Risiken wie Körperverletzung, Sach- und Umweltschäden bei der Verwendung von KI zu vermeiden, bedarf es eines „digitalen Fitness-Checks“ des geltenden Haftungsrechts. Anpassungen der geltenden Regelungen sind allerdings nicht nur in Bezug auf KI notwendig, sondern generell im Lichte digitaler Ökosysteme (wie zB Software und IoT). Dies umfasst wohl auch die Erweiterung von Regeln der Gefährdungshaftung sowie die Ausweitung der Erfüllungsgehilfenhaftung auf KI. Weitaus schwieriger wird es sein, „soziale“ Risiken, wie Diskriminierung, Überwachung, oder Manipulation, die mit der Verwendung von KI einhergehen, zu beherrschen. Der Gesetzgeber hat einen schwierigen Balanceakt zwischen einem möglichst hohen Schutzniveau und einer überschießenden Verrechtlichung und Bürokratiesierung zu meistern.
Univ.-Prof. Christiane Wendehorst spricht sich daher für einen kombinierten Regelungsansatz aus. Für „Hochrisiko“-Anwendungen sollte ein Ansatz ähnlich jener der DSGVO (Prinzipien, zwingende Anforderungen, Individualrechte, Verfahrensregeln) gewählt werden. Darüber hinaus bzw alternativ könnte der europäischer Gesetzgeber auch eine Liste von missbräuchlichen Geschäftspraktiken (Unfair Algorithmic Practices) festlegen und diese mit Haftungstatbeständen koppeln. Der gesamte Beitrag wird unter https://www.bvdnet.de/bvd-news/ abrufbar sein.