Berlin 2024 – Jetzt kommt die Zeit, jetzt kommt die Stunde: Künstliche Intelligenz rückt zum Ende des Jahres 2024 einem breiten Publikum ins Bewusstsein, im Besonderen den zahlreichen Möglichkeiten und Gefahren.
Jetzt ist die Zeit, da versucht die Europäische Union eine Regelung, die ein wenig daran erinnert, dass immer ein Mensch aufpassen muss auf die Künstliche Intelligenz (KI). In früheren Zeiten war es üblich, dass eine Person bei den Frauen und Kindern im Dorf blieb, um auf sie aufzupassen und das Feuer zu hüten, während die anderen auf die Jagd gingen. Heutzutage bleibt diese Person jedoch nicht mehr am Feuer, sondern betrachtet den Start einer Rakete. Der Fokus betrifft die Frage, was zu regulieren ist, kann ja trotzdem reguliert werden, aber wie hat die EU dies versucht?
Die Europäische Union hat einen bedeutenden Schritt in der Regulierung künstlicher Intelligenz (KI) getan. Mit der Einigung auf ein umfassendes KI-Gesetz, bekannt als der AI Act, positioniert sich die EU als Vorreiter in der globalen Landschaft der Technologiegesetzgebung. Das jüngste KI-Gesetz der Europäischen Union markiert einen Meilenstein in der globalen Regulierung von Künstlicher Intelligenz und legt dabei den Schwerpunkt auf die Balance zwischen Innovation und ethischer Verantwortung. In einem Akt der Weitsicht versucht die EU, nicht nur das Offensichtliche zu regulieren, sondern auch das, was regulierbar erscheint. Die Verordnung definiert klare Kriterien für Hochrisiko-KI-Anwendungen, wie beispielsweise Gesichtserkennung und Biometrie, während sie gleichzeitig einen Raum für Innovation und Entwicklung schafft. Durch einen risikobasierten Ansatz wird die Regulierung auf Bereiche ausgedehnt, in denen potenzielle Schäden oder Diskriminierung wahrscheinlich sind. Das Gesetz sieht auch vor, dass KI-Systeme transparent, nachvollziehbar und erklärt werden müssen, um die Akzeptanz und das Vertrauen der Öffentlichkeit zu stärken. Insgesamt verfolgt die EU einen Prozess, der das komplexe Geflecht der KI reguliert, ohne dabei den Raum für Fortschritt und Innovation einzuschränken. Dieses Gesetz repräsentiert einen der ersten umfassenden Versuche weltweit, den Einsatz einer sich schnell entwickelnden Technologie mit weitreichenden gesellschaftlichen und wirtschaftlichen Auswirkungen zu regulieren.
Hintergrund des Normens
Die Entstehung des KI-Gesetzes ist das Ergebnis eines mehrjährigen Prozesses, der 2018 seinen Anfang nahm. Angesichts der rasanten Entwicklungen in der KI-Technologie und deren potenziellen Auswirkungen auf die Gesellschaft erkannte die EU die Notwendigkeit, regulative Maßnahmen einzuführen. Der erste Entwurf des Gesetzes wurde 2021 veröffentlicht und hat sich seitdem weiterentwickelt, um den technologischen Fortschritt und dessen Implikationen zu berücksichtigen.
Kerninhalte des Gesetzes
Im Fokus des Gesetzes stehen risikoreiche Anwendungen von KI, insbesondere in Bereichen wie Strafverfolgung und kritische Infrastrukturen. Es legt Transparenzanforderungen für KI-Systeme fest, fordert eine klare Kennzeichnung von Chatbots und Deepfakes und beschränkt die Nutzung von Gesichtserkennungssoftware durch Polizei und Regierung. Zuwiderhandlungen gegen das Gesetz können für Unternehmen zu Geldstrafen von bis zu sieben Prozent des weltweiten Umsatzes führen.
Globale Perspektive und Reaktionen
Dieses Gesetz steht im Kontrast zu den Ansätzen anderer Länder wie den USA, Großbritannien, Japan und China, die unterschiedliche Regulierungsstrategien verfolgen. EU-Beamte und politische Entscheidungsträger heben die Bedeutung der EU als globalen Standardsetzer hervor. Insbesondere Thierry Breton, EU-Kommissar, betont die Vorreiterrolle Europas in dieser Hinsicht.
Herausforderungen und Kritik
Trotz des regulatorischen Durchbruchs gibt es Bedenken hinsichtlich der Wirksamkeit und Durchsetzung des Gesetzes. Die Herausforderungen liegen in der schnellen Entwicklung der KI-Technologie und der Balance zwischen Innovationsförderung und Risikoprävention. Zudem wird die Umsetzung des Gesetzes in 27 Ländern eine komplexe Aufgabe sein, und rechtliche Herausforderungen sind zu erwarten.
Schlussfolgerung
Das europäische KI-Gesetz markiert nicht nur einen regulatorischen Meilenstein für die Europäische Union, sondern sendet auch einen klaren globalen Impuls hinsichtlich der Schlüsseltechnologie für die Weltwirtschaft. Als Jurist betrachtet man diese Verordnung nicht nur als wegweisende Initiative zur Bewältigung der ethischen Herausforderungen der Künstlichen Intelligenz, sondern auch als einen präzedenzsetzenden Schritt, der Standards für die globale Regulierung vorgibt. Durch die Festlegung klarer Kriterien für Hochrisiko-Anwendungen und die Betonung von Transparenz und Erklärbarkeit setzt die EU einen internationalen Maßstab für den verantwortungsbewussten Einsatz von KI. Dies könnte zu einem Paradigmenwechsel in der globalen Regulierung von Schlüsseltechnologien führen, indem die EU als Vorreiter für einen ausgewogenen Ansatz zwischen Innovationsförderung und ethischer Kontrolle fungiert. In einer Ära, in der KI die Grenzen der Wirtschaft transformiert, positioniert sich die EU als Impulsgeber für einen rechtlichen Rahmen, der den Fortschritt steuert, ohne die grundlegenden Prinzipien von Ethik und Verantwortung aus den Augen zu verlieren.
Gott geschaffen, der allerdings böse herrscht?
Die rasante Entwicklung der Künstlichen Intelligenz birgt neben zahlreichen Chancen auch erhebliche Risiken. Ethische Überlegungen spielen dabei eine entscheidende Rolle, um sicherzustellen, dass KI zum Wohle der Menschheit eingesetzt wird und nicht zu unerwünschten Folgen führt.
Potenzielle Gefahren der KI
- Diskriminierung: KI-Systeme können unbewusst Diskriminierungen verstärken, wenn sie mit verzerrten Daten trainiert werden. Dies kann zu Benachteiligungen bestimmter Bevölkerungsgruppen in Bereichen wie Kreditvergabe, Strafjustiz oder Personalwesen führen.
- Autonome Waffensysteme: Die Entwicklung autonomer Waffensysteme, die ohne menschliche Kontrolle Entscheidungen über Leben und Tod treffen können, wirft schwerwiegende ethische Fragen auf.
- Datenschutzverletzungen: KI-Systeme sammeln und verarbeiten oft große Mengen an personenbezogenen Daten. Dies birgt das Risiko von Datenschutzverletzungen und Missbrauch dieser Daten.
- Manipulation und Desinformation: KI kann genutzt werden, um Deepfakes zu erstellen und so gezielt Desinformationen zu verbreiten. Dies kann politische Prozesse beeinflussen und das Vertrauen in die Gesellschaft untergraben.
- Existenzielle Risiken: Einige Experten warnen vor dem Szenario, dass sich eine superintelligente KI selbstständig macht und Ziele verfolgt, die nicht mit den menschlichen Werten übereinstimmen.
Ethische Grundsätze für KI
Um diesen Risiken entgegenzuwirken, wurden verschiedene ethische Grundsätze für die Entwicklung und den Einsatz von KI formuliert. Dazu gehören:
- Transparenz: KI-Systeme sollten nachvollziehbar sein, damit Nutzer verstehen können, wie Entscheidungen getroffen werden.
- Verantwortlichkeit: Entwickler und Nutzer von KI-Systemen müssen für die Folgen ihrer Anwendungen verantwortlich gemacht werden können.
- Unvoreingenommenheit: KI-Systeme sollten so entwickelt werden, dass sie keine diskriminierenden Entscheidungen treffen.
- Sicherheit: KI-Systeme müssen so gestaltet sein, dass sie sicher sind und keine unbeabsichtigten Schäden verursachen.
- Datenschutz: Der Schutz personenbezogener Daten muss bei der Entwicklung und dem Einsatz von KI-Systemen oberste Priorität haben.
Hier sind dringend ganz klare Regeln erforderlich, die auch eingehalten werden müssen. Das Buch „Wie Algorithmen unser Leben bestimmen“ (im Original: „Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy“) von Cathy O’Neil untersucht, wie Algorithmen, insbesondere im Bereich von Big Data und maschinellem Lernen, unser tägliches Leben beeinflussen und oftmals negative Auswirkungen haben können. Algorithmen können als „Waffen der Mathematik“ dienen: O’Neil beschreibt Algorithmen als „Waffen der Mathematik“ (Weapons of Math Destruction, WMD), weil sie intransparent, oft fehlerhaft und in ihrer Wirkung weitreichend sind. Sie beeinflussen nicht nur einzelne Menschen, sondern ganze Gesellschaften – etwa durch die Vergabe von Krediten, die Bewertung von Arbeitskräften oder die Strafverfolgung.
Haftung für Schäden durch KI
Im deutschen Recht ist die Haftung für Schäden, die durch Künstliche Intelligenz (KI) verursacht werden, bislang nicht spezifisch geregelt. Stattdessen gelten die allgemeinen Haftungsprinzipien des Bürgerlichen Gesetzbuchs (BGB) und des Produkthaftungsgesetzes. Hier sind die wesentlichen Aspekte der Haftung für KI-Systeme:
Haftungsgrundlagen
1. Haftung nach dem BGB:
– Verwenderhaftung: Der Verwender eines KI-Systems haftet für Schäden, die durch dessen Nutzung entstehen. Dies betrifft insbesondere Unternehmen, die KI-generierte Inhalte verwenden
– Herstellerhaftung: Hersteller können haftbar gemacht werden, wenn ihre Produkte nicht die vertraglich zugesicherte Beschaffenheit aufweisen oder wenn Sicherheitsvorkehrungen fehlen, was zu einem Schaden führt.
2. Produkthaftung:
– KI-Systeme können als Produkte im Sinne des Produkthaftungsgesetzes betrachtet werden, insbesondere wenn sie auf physischen Datenträgern gespeichert sind. Dies bedeutet, dass Hersteller für fehlerhafte Software und KI-Systeme haften können.
– Eine Beweislastumkehr zugunsten der Geschädigten ist vorgesehen, sodass diese nicht nachweisen müssen, dass das Produkt fehlerhaft war; stattdessen müssen Hersteller oder Anbieter nachweisen, dass kein Fehler vorlag.
Zukünftige Entwicklungen
Die EU plant eine Richtlinie zur KI-Haftung, die einen einheitlichen Rechtsrahmen schaffen soll. Diese Richtlinie zielt darauf ab, Schadensersatzansprüche zu erleichtern und die Beweislast für Geschädigte zu verändern. Insbesondere wird eine Kausalitätsvermutung eingeführt, die es Geschädigten erleichtert, Ansprüche geltend zu machen.
Beispiel einer Entscheidung ist z.B. das Landgericht Kiel
LG Kiel 6. Zivilkammer | |
Entscheidungsdatum: | 29.02.2024 |
---|---|
Aktenzeichen: | 6 O 151/23 |
mit der Feststellung, dass der Verwender einer KI für falsche Ergebnisse haftet. Hier hatte die KI gestützte Suche fälscherlicherweise die Reputation eines Unternehmens beschädigt. Es war als wirtschaftlich tot gelistet worden. In Zukunft wird es viele Fälle dieser Art geben.