Rechtshandbuch Artificial Intelligence und Machine Learning
Zusammenfassung
Zum Inhalt:
Künstliche Intelligenz und Maschinelles Lernen sind Technologien, die unser Zeitalter prägen werden.
Das Rechtshandbuch erörtert nach einer Einführung in die technischen Hintergründe ausgewählte Themen für die Rechtspraxis, insbesondere: Haftungs-, Vertrags- und Deliktsrecht, Strafrecht, Immaterialgüterrecht, Datenschutzrecht, Gesellschaftsrecht, Verbraucherschutzrecht, Arbeitsrecht, Insolvenzrecht, Streitbeilegungsrecht, Berufsrecht sowie Finanzaufsichtsrecht.
Technische Hintergründe verständlich erläutert
Übersichtliche Darstellung praxisrelevanter Rechtsfragen
Handbuch von Praktikern für Praktiker
Zu den Autoren: Die Herausgeber Dr. Markus Kaulartz und Tom Braegelmann, LL.M. setzen sich seit Jahren mit dem Recht der Digitalisierung auseinander und haben ein hochkarätiges Team aus Wissenschaft und Praxis zusammengestellt.
- I–XXXVIII Titelei/Inhaltsverzeichnis I–XXXVIII
- 1–14 Kapitel 1. Einführung 1–14
- I. Definitionsversuche
- II. Zur Geschichte der KI
- III. Gang der Darstellung
- 1. KI-Grundlagen und Verständnisbildung zwischen Informatikern und Juristen
- 2. Europarechtliche Perspektive
- 3. Deliktische Haftung und Produkthaftung
- 4. KI-Vertragsrecht
- 5. Rechtsdogmatik
- 6. Geistiges Eigentum
- 7. Datenschutz
- 8. Gesellschaftsrecht
- 9. Weitere Rechtsgebiete: Verbraucherschutz, Arbeitsrecht, Strafrecht, anwaltliches Berufsrecht
- 10. Aufsichtsrecht
- IV. Exkurs: Rechtsanwendung durch KI?
- V. Ausblick
- 15–58 Kapitel 2. Technische Hintergründe 15–58
- Kapitel 2.1. Technische Grundlagen
- I. Einleitung
- II. Die vier technischen Bereiche der „Künstlichen Intelligenz“
- 1. Mustererkennung
- a) Explizit programmierte, analytische Verfahren
- b) Selbstlernende Verfahren der Mustererkennung
- 2. Maschinelles Lernen
- a) Automatische Generierung von Kategorisierungen
- b) Automatische Ermittlung von Zusammenhängen
- c) Neuronale Netze und Deep Learning
- 3. Expertensysteme
- 4. Maschinelles Planen und Handeln
- III. Kritische Eigenschaften von Systemen der Künstlichen Intelligenz
- 1. Schwer vorhersehbare Fehlermöglichkeiten beim Einsatz in komplexen Umgebungsszenarien
- 2. Fähigkeit zum autonomen Handeln
- 3. Einsatzbereiche mit erheblichem Einfluss auf Mensch und Umwelt
- 4. Geringer Grad der Transparenz und Nachvollziehbarkeit von Verhaltensregeln
- 5. Änderbarkeit der Verhaltensregeln im laufenden Betrieb
- 6. Beispiel „Autonomes Fahren“
- IV. Heutige Möglichkeiten und Grenzen von KI
- 1. Automatisierung geistiger und physischer Arbeit
- 2. „Übermenschliche“ kognitive Einzelleistungen
- 3. Grenzen des aktuellen Standes der Technik
- V. Zusammenfassung
- Kapitel 2.2. Trainieren von Machine-Learning-Modellen
- I. Einleitung
- II. Terminologie
- 1. Modell
- 2. Feature
- 3. Label
- 4. Weights
- 5. Trainingsdaten
- 6. Loss
- 7. Training
- 8. Gradient Descent
- III. Trainieren von Modellen
- 1. Supervised Learning
- 2. Unsupervised Learning
- Kapitel 2.3. Federated Learning
- I. Einleitung und Problemaufriss
- II. Föderiertes Lernen/Federated Learning
- III. Technische Hintergründe
- Kapitel 2.4. Nachvollziehbarkeit von KI-basierten Entscheidungen
- I. Explain Yourself: was ist bei KI erklärbar, was weniger?
- II. Wie erklärt sich KI?
- 1. Stufen der Erklärbarkeit
- 2. Datenerklärbarkeit (vor der KI-Modell-Erzeugung, Prä-Entscheidung)
- 3. Erklärbare KI-Modelle
- 4. Erklärungen zu Entscheidungsfindung eines KI-Modells (Post-Entscheidung)
- III. Ausblick und Limitierungen
- Kapitel 2.5. Aktuelle Projektpraxis
- I. KI-Projekte in der Praxis
- II. Unterstützung von Softwaresystemen durch KI-basierte Komponenten
- III. Komplexität KI-unterstützter Systeme
- IV. Besonderheiten von KI-Projekten im Vergleich zu konventionellen Projekten
- V. Rolle von Entwicklungs- und Laufzeitumgebungen
- VI. Trainierte KI im Vergleich zu konventioneller Programmierung
- VII. Fazit und Ausblick
- 59–76 Kapitel 3. Europäische Perspektiven 59–76
- I. Einleitung
- II. Europäische Strategien und Pläne für die Künstliche Intelligenz
- 1. Die Strategie „Künstliche Intelligenz für Europa“
- a) Technologieförderung
- b) Sozioökonomische Konsequenzen des Einsatzes von KI
- c) Ethischer und rechtlicher Rahmen für den Einsatz von KI
- 2. Der „Koordinierte Plan für Künstliche Intelligenz“
- a) Die Inhalte des „Koordinierten Plans für künstliche Intelligenz“
- b) Schlussfolgerungen des Rates zu dem koordinierten Plan für künstliche Intelligenz
- 3. Das Weißbuch der Kommission zur Künstlichen Intelligenz
- III. Die Vorschläge der „Hochrangigen Expertengruppe für Künstliche Intelligenz“
- 1. Die „Ethik-Leitlinien für eine vertrauenswürdige KI“
- a) Grundlagen einer vertrauenswürdigen KI nach den Leitlinien
- b) Umsetzung einer vertrauenswürdigen KI nach den Leitlinien
- 2. Die „Vorschläge zu Politiken und Investitionen für eine vertrauenswürdige KI“
- a) Überblick über die Vorschläge
- b) Vorschläge für einen angemessenen Regulierungsrahmen
- IV. Nächste Schritte
- 77–164 Kapitel 4. Haftungsrecht 77–164
- Kapitel 4.1. Produkthaftung
- I. Einleitung
- II. Anwendungs- und Haftungsszenarien
- III. Deliktische Haftung im Rahmen des § 823 Abs. 1 BGB
- 1. Anwendbarkeit auf Software
- 2. Pflichten des Herstellers
- 3. Konstruktionspflicht
- 4. Verwendungszweck und Fehlgebrauch
- a) Fehlgebrauch
- b) Restriktive Begrenzung des Verwendungszwecks
- c) Nutzung der Möglichkeit von Supercode
- d) Voraussetzungen autonomer Systeme: Rechtmäßiges Umgebungsverhalten
- 5. Risikobewertung
- 6. Einfluss des Standes von Wissenschaft und Technik
- a) AirBag-Urteil des BGH
- b) Zumutbarkeit der Sicherungsmaßnahmen
- c) Nutzen-Risiko-Analyse
- d) Einfluss externer Einflüsse: Anforderungen an eine software robustness
- 7. Updateability by design
- 8. Mindestmaß an Testverfahren: Validierung von Daten
- 9. Fabrikations- und Instruktionsfehler
- a) Fabrikationspflichten
- b) Instruktionspflichten
- 10. Produktbeobachtung
- a) Passive Produktbeobachtungspflicht
- b) Aktive Produktbeobachtungspflicht
- c) Besonderheit Produktkombination und Vernetzung
- 11. Pflegebettenentscheidung des BGH
- 12. Produktrechtliche Einflüsse: EU Cybersecurity Act und 38 IT-Sicherheitsgesetz 2.0
- IV. Produkthaftung nach dem europäisch harmonisierten Produkthaftungsgesetz (ProdHaftG)
- 1. Produktbegriff
- a) Software als Produkt im Sinne des ProdHaftG
- b) Überarbeitung der Produkthaftungsrichtlinie
- 2. Fehlerbegriff des ProdHaftG
- 3. Die Beurteilung des Produktfehlers
- a) Darbietung des Produkts
- b) Der billigerweise zu erwartende Gebrauch
- c) Vorhersehbarer Fehlgebrauch unter Beachtung der Installations- und Gebrauchsanweisung?
- 4. Fehlerverdacht als Fehler
- V. Parallelität von Fehler und Pflichtverletzung
- VI. Darlegungs- und Beweislast: Fehler, Kausalität, Zurechnung und Verschulden
- 1. Fehler
- 2. Kausalität
- 3. Zurechnung
- 4. Verschulden
- 5. Befundsicherungspflicht
- 6. Fehlerverdacht
- 7. Entlastungsbeweis
- VII. Konkurrenzüberlegungen
- VIII. Schadensumfang
- IX. Haftungsadressaten
- X. Übersicht der Haftung für die Herstellung von KI
- XI. Haftung des Betreibers (operator) einer KI
- 1. Problemaufriss
- 2. Haftung des privaten Operators
- 3. Der gewerbliche Operator
- a) § 823 Abs. 1 BGB
- b) § 831 Abs. 1 BGB
- c) § 823 Abs. 2 BGB
- XII. Marktbeobachtung, Marktmaßnahmen und Rückrufe
- 1. Marktbeobachtung und DSGVO
- 2. Marktbeobachtung und Reaktionspflicht des Herstellers
- 3. Mobile Updates im Rückruffall
- XIII. Versicherbarkeit
- 1. Grundlegendes
- 2. Haftpflichtversicherung
- 3. Produkthaftpflichtversicherung
- 4. Pflichtversicherungsmodell
- 5. Unfallversicherung
- 6. Absicherung von Cyberrisiken
- 7. Ausblick
- Kapitel 4.2. Deliktische Haftung de lege ferenda
- I. Einleitung
- II. Ausgangspunkt haftungsrechtlicher Erwägungen
- 1. Risiken autonomer Systeme
- 2. Möglichkeiten und Maßnahmen der Risikobegrenzung
- III. Risikozuordnung
- 1. Casum sentit dominus?
- 2. Notwendigkeit neuer Zurechnungskategorien?
- 3. Einführung einer Gefährdungshaftung
- a) Haftungsadressat
- b) Kritik
- 4. Erfassung potentieller Multikausalität
- a) Bewältigung bestehender Beweisschwierigkeiten
- b) Proportionalhaftung
- 5. Risikokollektivierung
- IV. Ausblick und Fazit
- 165–220 Kapitel 5. Verträge über KI 165–220
- Kapitel 5.1. Für wen lernt die KI? NDAs als früh gezogene Grenzen der zweckkonformen Nutzung von KI-Trainingsdaten
- Kapitel 5.2. AGB-rechtliche Fragen beim Einsatz von KI
- I. AGB-Verträge über den Einsatz Künstlicher Intelligenz
- 1. Vertragstypen
- 2. Relevante Regelungen
- a) Haftungsausschluss und -beschränkung in AGB
- b) Änderungsvorbehalte
- c) Laufzeit bei Dauerschuldverhältnissen
- d) Beweislastregelungen
- 3. Fazit
- II. AGB-Verträge unter Einsatz von Künstlicher Intelligenz
- 1. Zurechnung autonomer Vertragsschlüsse
- a) (Teil-)Rechtsfähigkeit des Softwareagenten
- b) Softwareagent als Bote
- c) Softwareagent als Stellvertreter
- d) Objektiver Empfängerhorizont
- e) Fazit
- 2. AGB-Kontrolle
- a) Vorliegen von AGB
- b) Einbeziehungskontrolle
- c) Inhaltskontrolle
- 3. Fazit und Ausblick
- Kapitel 5.3. Outsourcing in KI
- I. Einleitung
- II. Inhalt und Ziele dieses Kapitels
- III. Wesentliche vertragsrechtliche Besonderheiten
- 1. Vertragstypologische Einordnung und ihre Konsequenzen
- 2. Leistungsbeschreibung
- 3. Trainingsleistung
- 4. Mangelhaftigkeit von KI
- a) Mangelbegriff
- b) Gesetzliche Mängelrechte
- c) Notwendigkeit vertraglicher Justierung in der Praxis
- 5. Vertragsschluss durch KI
- a) Gegenstand der Diskussion
- b) Vertragsgestalterische Herangehensweise
- 6. Gewerbliche Schutzrechte
- a) Die KI-Lösung als solche
- b) Datenbestände des Kunden
- c) KI-gestützte Leistungsergebnisse (Output)
- d) Im Wege der Selbstoptimierung entstandene Verbesserungen
- 7. Know-how Schutz
- 8. Datenschutz
- a) Sachlicher Anwendungsbereich
- b) Räumlicher Anwendungsbereich
- c) Datenschutzrechtliche Besonderheiten von KI as a Service-Lösungen
- d) Datenschutzrechtliche Besonderheiten bei Entwicklung, Training und Betrieb von KI als Managed Service durch einen externen Dienstleister
- 9. IT-Sicherheit
- a) Wesentliche Anforderungen
- b) Voraussetzungen
- c) Weiterverpflichtung des KI-Anbieters
- 10. Haftung
- a) Grundsatz der Verschuldenshaftung
- b) Diskussionsansatz Gefährdungshaftung
- c) Produkthaftung
- d) Vertragsgestalterische Herangehensweise
- 11. Regulatorische Besonderheiten
- 12. Wettbewerbs- und kartellrechtliche Schranken
- IV. Zusammenfassung und Merkposten für die juristische Praxis
- 221–290 Kapitel 6. Verträge mit KI 221–290
- Kapitel 6.1. Rechtsfähigkeit von KI-Systemen
- I. Einleitung
- II. Ausgangspunkt: Die „Verantwortungslücke“ beim Einsatz von KI
- III. „E-Person“ als Lösung?
- 1. Die These von der digitalen Rechtspersönlichkeit („E-Person“)
- 2. Kritik
- a) Funktionen der Verleihung von Rechtsfähigkeit
- b) Abgrenzungsprobleme
- c) Überlebenswille der rechtsfähigen Entität
- d) Weitere Regelungsprobleme
- 3. Fazit
- IV. Teilrechtsfähigkeit als Lösung?
- V. Ausblick: Alternativen zur Rechtsfähigkeit
- Kapitel 6.2. Vertragsschluss mit KI, Anfechtung und Schadensersatz
- I. Einführung
- II. Problemaufriss und Eingrenzung des Betrachtungsgegenstands
- 1. Problemaufriss
- 2. Eingrenzung des Betrachtungsgegenstands
- III. Vertragsschluss mit KI
- 1. Allgemeines
- 2. Die Willenserklärung beim Einsatz eines KI-Systems
- a) Diskussionsstand
- b) Bestandteile der Willenserklärung
- c) Zugang der Willenserklärung
- d) Auslegung der Willenserklärung
- 3. Zwischenergebnis
- IV. Besonderheiten der Anfechtung
- 1. Allgemeines
- 2. Anfechtung wegen Irrtums gemäß § 119 Abs. 1 BGB
- a) Grundlagen
- b) Fallkonstellationen unter Berücksichtigung der Rechtsprechung
- c) Anfechtung wegen Fehlen des Erklärungsbewusstseins
- 3. Anfechtung wegen falscher Übermittlung, § 120 BGB
- 4. Zwischenergebnis
- V. Vertragliche Haftung
- 1. § 280 BGB als zentrale Norm für vertragliche Haftung
- 2. Vertretenmüssen als zentrales Kriterium beim Einsatz von KISystemen
- a) Unmittelbare Anwendung von § 278 BGB auf KI-Systeme
- b) Analoge Anwendung von § 278 BGB auf KI-Systeme
- c) Sorgfaltsmaßstab der vertraglichen Verschuldenshaftung
- 3. Zwischenergebnis
- VI. Zusammenfassung und Ausblick
- Kapitel 6.3. Gestaltung von Verträgen mit KI
- I. Einleitung
- II. Entwicklungsstufen von KI
- 1. Unechte KI (Stufe 1)
- 2. Schwache KI (Stufe 2)
- III. Musterklauseln für Verträge mit KI
- 1. Vertragsparteien und „Erklärungen“ von und gegenüber KI
- a) Allgemeine Hinweise
- b) Allgemeine Klausel
- 2. Information über KI-Einsatz
- a) Allgemeine Hinweise
- b) Allgemeine Klausel
- 3. Möglichkeit zum Opt-out
- a) Allgemeine Hinweise
- b) Musterklausel für verschiedene Vertragsstadien
- c) Formulierungsbeispiele für verschiedene Vertragsstadien
- 4. Vertragsschluss und -änderung
- a) Allgemeine Hinweise
- b) Allgemeine Klausel
- 5. „Befugnisse“ der KI
- a) Allgemeine Hinweise
- b) Formulierungsbeispiele für verschiedene Vertragsstadien
- 6. Handlungsabläufe und Handlungspflichten bei Fehlern/Irregularitäten
- a) Allgemeine Hinweise
- b) Allgemeine Klausel
- c) Formulierungsbeispiel unechte/schwache KI mit rechtlicher Verbindlichkeit
- 7. Haftung und Freistellung
- a) Allgemeine Hinweise
- b) Allgemeine Klauseln
- IV. Tipps zur praktischen Umsetzung
- 1. Einbeziehung von AGB
- 2. Transparenzpflicht
- 3. Verbraucherrechtliche Informationspflichten
- V. Schluss
- 291–335 Kapitel 7. Immaterialgüterrecht 291–335
- Kapitel 7.1. KI und Urheberrecht
- I. Einleitung
- II. Grundlagen
- 1. Grundkonzept Urheberrecht
- 2. Insbesondere: Schöpferprinzip und Werksbegriff
- 3. Leistungsschutzrechte
- 4. Schutzgegenstände mit KI-Relevanz
- III. Schutz von KI durch das Urheberrecht
- 1. Abgrenzung
- 2. Als Computerprogramm (§§ 2 Abs. 1 Nr. 1, 69a UrhG)
- 3. Als Datenbank (§§ 4, 87a ff. UrhG)
- IV. Schutz vor KI durch das Urheberrecht
- 1. Anspruchsgrundlagen und prozessuale Besonderheiten
- 2. Insbesondere: Technische Schutzmaßnahmen § 95a UrhG
- 3. Insbesondere: Schranke des § 60d UrhG
- V. Schutz von Arbeitsergebnissen von KI durch das Urheberrecht
- 1. Schutz als Werk (nur bei hinreichender menschlicher Einflussnahme)
- 2. Leistungsschutzrecht: Datenbank (§§ 87a ff. UrhG)
- 3. Leistungsschutzrecht: Codierung der Arbeitsergebnisse in schutzfähiger Form (§ 85 UrhG)?
- VI. Fazit
- Kapitel 7.2. Lizenzverträge über die Nutzung von KI
- I. Einleitung
- II. Lizenzverträge über KI (Auslizenzierung)
- 1. Algorithmus, Quellcode, technisches Know-how
- 2. Computerprogramme
- 3. KI-Systeme
- III. Lizenzverträge über KI-Input (Einlizenzierung)
- 1. Daten, Inhalte
- a) Quelldaten
- b) Rohdaten
- c) Datenbanken
- d) Sonstige Inhalte
- 2. Programmbibliotheken, Drittsoftware
- IV. Lizenzverträge über KI-Output
- 1. Datenbank
- 2. Sonstige immaterielle Arbeitsergebnisse
- V. Fazit
- Kapitel 7.3. Immaterialgüterrechtlicher Schutz von KI de lege ferenda
- I. Einleitung
- II. „Kern-KI“
- 1. Mögliche Schutzlücken
- 2. Ausschlussgründe in § 1 Abs. 3 Nr. 1 und Nr. 3 iVm Abs. 4 PatG
- 3. Technizität
- 4. Grundsätze der Prüfung von computerimplementierten Erfindungen
- 5. Möglicher Schutz de lege ferenda
- a) Generelle Patentierung von KI als solcher?
- b) Schließung von Schutzlücken
- III. KI-basierte Anwendungen
- 1. Schutz der „fertigen“ Anwendung
- 2. Schutzlücken in der „Implementierungsphase“
- IV. KI als Erfinder oder Schöpfer?
- 1. Schutzfähigkeit des KI-generierten Erzeugnisses
- 2. Erfindereigenschaft
- a) Natürliche Person als Erfinder
- b) KI als Erfinder
- c) Zuordnung
- V. Fazit
- 336–508 Kapitel 8. Datenschutzrecht 336–508
- Kapitel 8.1. Trainieren von KI-Modellen
- I. Einleitung
- II. Trainieren von Modellen als Zweckänderung
- III. Ausschluss des Personenbezugs durch Anonymisierung
- 1. EuGH – Personenbezug von dynamischen IP-Adressen
- 2. EuGH – Nowak
- 3. Personenbezug bei Big Data
- IV. Gängige Anonymisierungstechniken
- 1. Anonymisierung von strukturierten Daten
- a) Randomisierung
- b) Generalisierung
- 2. Anonymisierung von Freitexten
- a) Anonymisierung auf Metaebene
- b) Anonymisierung auf Inhaltsebene
- c) Anonymisierung auf Schreibstilebene
- V. Fazit
- Kapitel 8.2. Rechtsgrundlagen für datenverarbeitende KI
- I. Vorfragen
- 1. Typisierung der Verarbeitungstätigkeiten
- 2. Datenschutzrechtliche Verantwortlichkeit
- II. Rechtfertigung der Verarbeitung
- 1. Gesetzliche Erlaubnistatbestände gem. Art. 6 DSGVO
- a) Einwilligung gem. lit. a
- b) Vertragsdurchführung gem. lit. b
- c) Rechtliche Verpflichtung gem. lit. c
- d) Lebenswichtige Interessen gem. lit. d
- e) Öffentliche Aufgaben oder öffentliche Gewalt gem. lit. e
- f ) Interessensabwägung gem. lit. f
- g) Zweckänderung nach Art. 6 Abs. 4 DSGVO
- 2. Gesetzliche Erlaubnistatbestände gem. Art. 9 DSGVO
- 3. Internationaler Datenverkehr: Übermittlung in Drittländer
- Kapitel 8.3. Datenschutzrechtliche Informationspflichten
- I. Einleitung
- II. Transparenzgebot
- III. Informationspflichten gem. Art. 13, 14 DSGVO
- 1. Verantwortlicher
- 2. Zwecke der Datenverarbeitung
- a) Darstellung des Zwecks
- b) Zweckänderung
- 3. Rechtsgrundlage für die Datenverarbeitung
- a) Einwilligung
- b) Vertragserfüllung
- c) Berechtigte Interessen
- 4. Berechtigte Interessen
- 5. Empfänger und Übermittlung in Drittstaaten
- 6. Speicherdauer
- 7. Betroffenenrechte, Recht auf Widerruf, Beschwerderecht
- a) Auskunftsanspruch
- b) Recht auf Löschung und Widerrufsrecht
- 8. Darstellung der Logik und der Folgen der Datenverarbeitung
- IV. Fazit
- Kapitel 8.4. Automatisierte Entscheidungsfindung (Art. 22 DSGVO)
- I. Einleitung
- II. Voraussetzungen des Art. 22 DSGVO
- 1. Automatisierte Entscheidung
- 2. Wirkung
- 3. Ausnahmen vom Verbot des Art. 22 Abs. 1 DSGVO
- a) Automatisierte Entscheidung für Anbahnung oder Erfüllung eines Vertrages
- b) Öffnungsklausel für nationale Vorschriften zu ADM
- c) Einwilligung in automatisierte Entscheidungsfindung
- d) Betriebsvereinbarungen
- e) angemessene Schutzmaßnahmen
- f ) Rückausnahme für besondere Kategorien personenbezogener Daten
- 4. Profiling
- III. Weitere Bestimmungen der DSGVO zu automatisierter Entscheidungsfindung
- Kapitel 8.5. Einsatz von Auftragsverarbeitern
- I. KI und Auftragsverarbeiter
- II. Verwendung der vom Auftragsverarbeiter verarbeiteten Daten zu eigenen Zwecken
- 1. Vertragliche Regelungen für die Verwendung zu eigenen Zwecken des Auftragsverarbeiters
- 2. Art. 28 Abs. 10 DSGVO
- a) Anonymisierung der Daten (Beispiel 1)
- b) Verwendung personenbezogener Daten (Beispiel 2)
- 3. Relevante eigene Verarbeitungszwecke des Auftragsverarbeiters
- a) Entwicklung und Verbesserung der KI
- b) Bug Fixing
- 4. Relevante Vorgaben der Behörden, Rechtsprechung und juristischen Literatur
- a) Vorgaben der Behörden
- b) Vorgaben der Rechtsprechung
- c) Vorgaben der juristischen Literatur
- Kapitel 8.6. Technische und organisatorische Maßnahmen (TOMs)
- I. Einleitung
- II. Rechtliche Rahmenbedingungen
- III. Technisch-organisatorische Ausgestaltung
- IV. Informationssicherheit durch KI
- V. Informationssicherheit von KI
- VI. Vorgaben aus der technischen Normung und Standardisierung
- VII. Fazit und Ausblick
- Kapitel 8.7. Spannungsverhältnis von KI und Datenschutzrecht
- I. Einleitung
- II. KI und Grundsätze der Datenverarbeitung
- 1. Transparenz
- a) Komplexität und Konkretisierung
- b) Automatisierte Entscheidungen/Recht auf Erklärung
- 2. Zweckbindung/Zweckänderung
- 3. Datenminimierung/Speicherbegrenzung
- 4. Richtigkeit/Integrität und Vertraulichkeit
- 5. Rechtmäßigkeit/Treu und Glauben
- a) Einwilligung
- b) Widerruf
- c) Interessenabwägung
- d) Besondere Datenkategorien
- III. Compliance-Strategien
- 1. Personenbezug
- a) Anonymisierung
- b) Pseudonymisierung
- c) Synthetische Daten
- d) Gemischte Datensätze
- 2. Verantwortlichkeit
- 3. Privacy by Default/Privacy by Design
- 4. Datenschutz-Folgenabschätzung
- 5. Selbstregulierung
- IV. Zusammenfassung
- V. Abschließende Handlungsempfehlungen
- Kapitel 8.8. Datenschutz durch KI
- I. Einleitung
- II. Implementierung KI-basierter Lösungen
- 1. KI-basierte Gesamtlösung
- a) Pflicht aus Art. 25 Abs. 1 DSGVO
- b) Pflicht aus Art. 5 Abs. 1 lit. c DSGVO – Grundsatz der Datenminimierung
- 2. KI-basierte Einzellösungen
- a) „privacy by design“ gemäß Art. 25 Abs. 1 DSGVO
- b) Anonymisierung von personenbezogenen Daten mittels KI
- c) Weitere Beispiele für Datenschutz durch KI
- III. Zusammenfassung und Ausblick
- Kapitel 8.9. Personenbezug von KI-Modellen
- I. Einleitung
- II. Personenbezug von Modellen
- 1. Personenbezug
- 2. Anwendung auf Modelle
- III. Personenbezug von Trainingsdaten
- 1. Anonymisierung
- 2. Synthetische Daten
- 3. Federated Learning
- IV. Rechtsgrundlage für das Trainieren
- 1. Rechtsgrundlage
- 2. Zweckänderung und Kompatibilitätstest
- V. Fazit
- Kapitel 8.10. Hinterlegung und Datentreuhand am Beipiel biometrischer KI-Systeme
- I. Einleitung
- II. Algorithmen als Hinterlegungsgegenstand
- 1. Hinterlegung in KI-Projekten
- 2. Hinterlegung zur Beweissicherung, Wahrung der Transparenz
- III. Daten als Hinterlegungsgegenstand
- 1. Entwicklungsdaten
- 2. Lernstoff für lernende KI
- IV. Biometrische Daten als Hinterlegungsgegenstand
- 1. Biometrische Daten
- 2. Biometrische KI-Systeme
- 3. Herausforderungen im Hinblick auf die Authentizität
- 4. Treuhandverhältnisse
- Kapitel 8.11. Sicht der Datenschutzaufsichtsbehörden
- I. Einleitung
- II. Entwickler als Verantwortliche?
- III. Pflichten der KI-Anwender
- IV. Anforderungen der Aufsichtsbehörden an KI
- 1. Vereinigtes Königreich
- 2. Frankreich
- 3. International Conference of Data Protection & Privacy Commissioners
- 4. Deutschland – Hambacher Erklärung
- a) Anforderung Nr. 1: Ausschluss von Objektivierung
- b) Anforderung Nr. 2: Verfassungsrechtlich legitimierter Zweck und Zweckbindungsgebot
- c) Anforderung Nr. 3: Transparenz, Nachvollziehbarkeit und Erklärbarkeit
- d) Anforderung Nr. 4: Ausschluss von Diskriminierung
- e) Anforderung Nr. 5: Grundsatz der Datenminimierung
- f ) Anforderung Nr. 6: Klarheit der Verantwortlichkeit
- g) Anforderung Nr. 7: Technische und organisatorische Standards
- V. Zusammenfassung
- VI. Ausblick
- 509–522 Kapitel 9. Aktienrechtliche Leistungsverantwortung beim Einsatz künstlicher Intelligenz 509–522
- I. Einordnung
- II. Delegation von Entscheidungsaufgaben
- 1. Zulässigkeit
- 2. Pflicht
- III. Verantwortlichkeit für Fehlentscheidungen
- 1. Grundlagen der Pflichtbindung
- 2. Entfaltung KI-spezifischer („ethischer“) Leitungspflichten
- 3. Intensität der Pflichtbindung?
- IV. Zukunftsperspektive
- 523–538 Kapitel 10. Verbraucherschutzrecht 523–538
- I. Einleitung
- 1. Versorgung und Teilhabe von Verbrauchern durch KI
- 2. KI und allgemeine Schutzzwecke des Verbraucherschutzes
- 3. KI-Compliance – generelle (Verbraucher-)Rechtskonformität als Standard?
- 4. Spezifika des Verbraucherschutzes im Bereich von KI und Machine Learning
- a) Transparenz von KI
- b) Rechtsdurchsetzung und kollektiver Rechtsschutz
- II. Aspekte des Fernabsatzrechts und des E-Commerce
- 1. (Informations-)Pflichten
- a) Informationspflichten im Fernabsatzverkehr
- b) Besondere Pflichten im elektronischen Geschäftsverkehr
- 2. Technische, visuelle und akustische Gestaltung des Bestellprozesses
- III. Aspekte der Nachvollziehbarkeit, Nichtdiskriminierung und Kontrollierbarkeit
- 1. Black Box KI?
- 2. Algorithmen-Ethik?
- 3. Verbraucherschützende Instrumente
- a) Staatliche Kontrolle durch Algorithmen-Checks
- b) Informatorische Qualitätssicherungsmaßnahmen (Siegel etc)
- c) Qualitätsstandards für KI-Anwendungen
- IV. Aspekte des UWG
- 1. Unzulässige Beeinträchtigung von Entscheidungsprozessen
- 2. Irreführung durch Unterlassen
- a) Vorenthalten wesentlicher Informationen
- b) Nichtkenntlichmachen einer geschäftlichen Handlung zu kommerziellen Zwecken
- 3. Unzumutbare Belästigung durch werbliche Ansprache
- V. Fazit
- 539–558 Kapitel 11. Arbeitsrecht 539–558
- I. Bewerber- und Mitarbeiteranalysen
- 1. Zulässigkeit
- 2. Verbot des Ausleuchtens der Persönlichkeit und Besonderheiten des Einsatzes von KI
- a) Bisherige juristische Diskussion
- b) Überwachtes Lernen
- c) Unüberwachtes Lernen
- 3. Auswahlentscheidungen nach sog. Predictive Policing
- a) Deliktsbezogene Analyse versus Erstellung eines Persönlichkeitsprofils
- b) Beschränkung der verwertbaren Daten
- c) Anfälligkeit für Diskriminierungen
- d) Verbot der automatisierten Einzelfallentscheidung
- 4. Grenzen des Einsatzes von KI im Bewerbungsverfahren: Fragerecht des Arbeitgebers
- II. Diskriminierende Auswahlentscheidungen
- 1. Besonderheiten einer KI-basierten Benachteiligung im Sinne des AGG
- a) Unmittelbare Benachteiligung im Sinne von § 3 Abs. 1 AGG
- b) Mittelbare Benachteiligung im Sinne von § 3 Abs. 2 AGG
- 2. Indizien einer Benachteiligung und Herausforderungen im Hinblick auf die Beweislast beim Einsatz von KI-Systemen
- 3. Rechtfertigung einer KI-gesteuerten Benachteiligung
- 4. Vertretenmüssen einer KI-gesteuerten Benachteiligung
- 559–580 Kapitel 12. Strafrecht 559–580
- I. Künstliche Intelligenz und strafrechtliche Verantwortung
- 1. Einleitung
- 2. Voraussetzungen für die strafrechtliche Verantwortung bei KI
- a) Täterschaft
- b) Kausalität und objektive Zurechnung
- c) Vorsätzliche und fahrlässige Taten
- d) Erlaubtes Risiko
- 3. Besonderheiten nach Entwicklungs- und Nutzungsphasen der KI
- a) Entwicklung
- b) Inverkehrbringen
- c) Beobachtung im Markt
- d) Betriebspflege
- 4. Besondere Problemstellungen bei KI
- a) KI im internationalen Kontext
- b) Robotik (Dilemmata)
- 5. Einzelne Straftatbestände
- II. Künstliche Intelligenz als Tatmittel
- III. Künstliche Intelligenz in der Strafrechtspflege
- 1. Beweis
- 2. Allgemeine Anforderungen an den staatlichen Einsatz von KI
- a) Diskriminierung
- b) „Black box“
- c) Verarbeitung personenbezogener Daten
- 3. KI für die analoge und digitale Polizeiarbeit
- 4. KI zur Organisation und Auswertung von (Massen)daten
- IV. Ausblick, Utopien und Dystopien
- 581–616 Kapitel 13. Finanzaufsichtsrecht 581–616
- Kapitel 13.1. KI und Verantwortlichkeit im Rahmen des § 130 OWiG
- I. Einleitung
- II. KI und Verantwortlichkeit im Rahmen des § 130 OWiG
- 1. Grundsätzliches
- 2. Schuldfähigkeit und KI
- 3. Aufsichtspflicht und KI
- 4. Zuwiderhandlung und KI
- III. KI und subjektiver Tatbestand des § 130 OWiG
- IV. Der „Inhaber“ und seine Verantwortlichkeit für regulatorischen Anforderungen genügenden KI Prozesse
- 1. Gesetzlicher Vertreter (§ 9 Abs. 1 OWiG)
- 2. Teilbetriebsleiter (§ 9 Abs. 2 S. 1 Nr. 1 OWiG)
- V. Fazit und Ausblick
- Kapitel 13.2. Robo Advice, Krypto-Token und RegTech
- I. Einleitung
- II. Veröffentlichungs- und Verhaltenspflichten
- III. Aufsicht über Handelsplätze
- 1. KI-getriebene Anlagegegenstände
- 2. KI-getriebene Marktinfrastruktur
- IV. RegTech als Steuerungsmittel zur Einhaltung des aufsichtsrechtlichen Pflichtenprogramms
- V. Fazit – auswirkungsbezogene Regulierung
- 617–650 Kapitel 14. Streitbeilegung 617–650
- Kapitel 14.1. KI in der gerichtlichen Streitbeilegung
- I. Einleitung
- II. Einsatzmöglichkeiten
- 1. Dokumentenanalyse
- 2. Dokumentenerstellung
- 3. Entscheidungsvorhersage
- a) Metadaten-Analyse
- b) Sachverhaltsanalyse
- III. Herausforderungen
- 1. Technische Herausforderungen
- 2. Systemische Herausforderungen
- a) Versteinerungsgefahr
- b) Diskriminierungsgefahr
- c) Black box Problem
- 3. Rechtliche Herausforderungen
- a) Justizgewährungsanspruch (Art. 20 Abs. 3 iVm Art. 2 GG)
- b) Rechtliches Gehör (Art. 103 Abs. 1 GG)
- c) Richterliche Unabhängigkeit (Art. 97 GG)
- IV. Fazit und Ausblick
- Kapitel 14.2. KI und ADR-Verfahren
- I. Einleitung
- II. Streitigkeiten über KI
- III. Streitigkeiten mit KI
- IV. ADR-Verfahren
- 1. Schiedsverfahren
- 2. Schiedsgutachtenverfahren
- 3. Adjudikation
- 4. Schlichtungs- und Mediationsverfahren
- V. Die verschiedenen Automatisierungsstufen in ADR-Verfahren mit KI
- 1. Stufe 1 – Punktueller Einsatz KI für einfache Aufgaben
- 2. Stufe 2 – KI übernimmt komplexe Aufgaben
- 3. Stufe 3 – Vollautomatisierung
- VI. Zulässigkeit der Verwendung von KI im Rahmen von ADR-Verfahren
- 1. Einsatz von KI durch verschiedene Beteiligte eines ADR-Verfahrens
- 2. Einigung über den Einsatz von KI
- 3. Wahl des ADR-Verfahrens
- 4. Art und Weise des Einsatzes von KI
- a) Keine Auslagerung von Kernaufgaben des Schiedsrichters ohne Zustimmung der Parteien
- b) Gewährung rechtlichen Gehörs
- c) Wahrung des Neutralitätsgebots
- d) Verstoß gegen die öffentliche Ordnung (ordre public)
- e) Besondere Anforderungen an die Einbindung von KI auf Stufe 3
- VII. Zusammenfassung
- 651–680 Kapitel 15. KI in der Rechtsberatung 651–680
- Kapitel 15.1. Rechtsdienstleistung durch KI
- I. Einführung
- II. Künstliche Intelligenz in der Rechtspraxis
- 1. Descriptive Analytics
- 2. Predictive Analytics
- III. Big Data im Rechtswesen
- 1. Vertragsdaten
- 2. Schriftsätze
- 3. Urteile
- IV. Rechtsrahmen für künstliche Intelligenz in der Rechtsberatung
- 1. Künstliche Intelligenzen als Rechtsdienstleister
- 2. Transparenz
- 3. Sorgfaltspflichten und Haftung
- a) Haftung der beratenden Anwältin
- b) Haftung der Softwareherstellerin
- c) Haftung der softwaremitgestaltenden Juristin
- 4. Datenschutz und IT-Sicherheit
- V. Ausblick
- Kapitel 15.2. Vertragliche Ausgestaltung von Legal-Tech-Geschäftsmodellen
- I. Das anwaltliche Berufsrecht als Faktor für die Ausgestaltung von Legal Tech Kooperationsmodellen
- II. Die Aufgabenteilung zwischen Technologiedienstleiter und Rechtsanwaltskanzlei
- III. Verbot von Vermittlungsprovisionen und Gewinnbeteiligungen
- IV. Der Rechtsanwalt als Erfüllungsgehilfe
- V. Geheimnis- und Datenschutz
- VI. Ausblick
- Kapitel 15.3. KI in der Insolvenz- und Restrukturierungspraxis
- I. Einführung
- II. Vorteile von KI-Systemen in Insolvenz und Restrukturierung
- 1. Zeitgewinne
- 2. Höherer Objektivierungsgrad
- III. Konkrete Einsatzfelder von KI in Insolvenz, Sanierung und Restrukturierung
- 1. Insolvenzverwaltung
- a) Vorbemerkung
- b) Einsatzbereiche
- 2. Insolvenzgläubiger
- a) Problemaufriss
- b) Lösung durch IT-strukturierte Insolvenzdaten
- IV. Fazit und Ausblick
- 681–700 Sachregister 681–700