Rechtliche Aspekte im Kontext der KI

Mit Prof. Dr. Philipp Hacker

Rechtliche Aspekte im Kontext der KI – Prof. Dr. Philipp Hacker

Vimeo

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von Vimeo.
Mehr erfahren

Video laden

In diesem Expertencall gab Prof. Dr. Philipp Hacker einen fundierten Überblick über die rechtlichen Rahmenbedingungen rund um Künstliche Intelligenz – mit besonderem Fokus auf den EU AI Act und seine praktische Relevanz für Unternehmen und KI-Strategieberater.

Schwerpunkte des Calls

  1. Einordnung des EU AI Act
    • Der AI Act ist verabschiedet, jedoch nur teilweise anwendbar. Viele Detailregelungen folgen noch.
    • Die Verordnung ist risikobasiert strukturiert: verbotene Praktiken, Hochrisiko-Systeme, begrenztes und minimales Risiko.
    • Besonders relevant sind die Hochrisikobereiche wie Personalwesen, Medizin, Kreditvergabe und Bildung.
  2. General Purpose AI und systemische Risiken
    • Modelle wie GPT-4 oder LLaMA 3 gelten als sogenannte GPAI-Modelle.
    • Bei besonders leistungsstarken Modellen (ab 10²⁵ FLOPs Trainingsaufwand) greift eine verschärfte Regulierung (Artikel 55 AI Act).
    • Unternehmen sollten beim Fine-Tuning solcher Modelle vorsichtig sein, da sie dadurch in die Rolle des Anbieters rutschen können.
  3. Anbieter vs. Betreiber
    • Anbieter sind rechtlich stärker reguliert, da sie KI-Systeme entwickeln oder unter eigenem Namen vermarkten.
    • Betreiber nutzen bestehende Systeme. Achtung: Auch Custom GPTs mit Firmenlogo können als Anbieter gelten.
  4. Fine-Tuning und rechtliche Schwelle
    • Bei umfangreichem Fine-Tuning (ab etwa einem Drittel der ursprünglichen Rechenleistung) gelten erweiterte Pflichten.
    • Wird ein Modell in einem Hochrisiko-Kontext genutzt (z. B. zur Bewerberauswahl), wird man automatisch zum Anbieter eines Hochrisiko-Systems – selbst ohne technische Modifikation.
  5. Produkthaftung und Beweislastumkehr
    • Die neue Produkthaftungsrichtlinie der EU bezieht KI ausdrücklich mit ein.
    • Im Schadensfall kann eine Beweislastumkehr greifen. Das bedeutet: Unternehmen müssen nachweisen, dass kein Fehler vorlag.
    • Empfehlung: Compliance-Dokumentation, nachvollziehbare Entscheidungen, Content Moderation.
  6. Urheberrechtliche Fragestellungen
    • Nutzung urheberrechtlich geschützter Trainingsdaten ist problematisch.
    • Nutzer haften in der Regel nicht für das Training, wohl aber für rechtsverletzenden Output.
    • Stilkopien lebender Künstler oder bekannter Werke vermeiden. Plagiatsprüfung vor Veröffentlichung empfohlen.
  7. Transparenzpflichten bei Deepfakes
    • Inhalte, die Menschen, Orte oder Ereignisse realistisch imitieren, müssen ab 2026 verpflichtend gekennzeichnet werden.
    • Dies betrifft nicht nur Bilder und Videos, sondern auch Sprache.
    • Labeling erfolgt über maschinenlesbare Wasserzeichen, nicht für den Endnutzer sichtbar.
  8. Praktische Handlungsempfehlungen
    • Keine Nutzung von KI im Personalbereich ohne rechtliche Absicherung.
    • Eigene Markenkennzeichnung bei KI-Anwendungen sorgfältig abwägen.
    • Interne Richtlinien zur KI-Nutzung und Schulung der Mitarbeitenden sind unerlässlich.
    • Bei Fine-Tuning möglichst auf kleinere, nicht-systemische Modelle setzen.
    • Open Source-Modelle mit europäischem Hosting bieten Vorteile beim Datenschutz.

Fazit

Der AI Act ist nicht nur ein Thema für große Tech-Unternehmen – auch Mittelstand und Beratungen sind unmittelbar betroffen. Wer KI im Unternehmen strategisch einsetzen will, muss die regulatorischen Anforderungen kennen, seine Rolle (Anbieter oder Betreiber) korrekt einordnen und technische sowie rechtliche Perspektiven zusammenführen. KI-Compliance wird zum Pflichtprogramm.

Rechtliche Aspekte im Kontext der KI – Prof. Dr. Philipp Hacker

Vimeo

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von Vimeo.
Mehr erfahren

Video laden

Vimeo

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von Vimeo.
Mehr erfahren

Video laden

Zusammenfassung des Trainingscalls: Rechtliche Aspekte im Kontext von KI

  1. Einführung und Vorstellung
    Im Fokus des Calls stand Professor Dr. Philipp Hacker, ein Experte für die rechtlichen Belange im Bereich künstliche Intelligenz (KI). Er gab Einblicke in aktuelle Regulierungen, darunter den europäischen AI Act, die DSGVO sowie Fragen zur Produkthaftung und Urheberrecht im Zusammenhang mit KI. Der Call richtete sich an Fachleute, die mit KI arbeiten, insbesondere in den Bereichen Beratung, Entwicklung und Implementierung.
  2. Überblick über den AI Act und die KI-Regulierung
  3. a) Grundsätze des AI Acts
  • Risiko-basierte Regulierung: Der AI Act unterscheidet zwischen verschiedenen Risikostufen:
    • Verbotene KI: Z. B. Emotionserkennung am Arbeitsplatz.
    • Hochrisiko-KI: Anwendungen wie Recruiting-Software oder medizinische Diagnostik.
    • Begrenztes Risiko: KI-gestützte Chatbots, die lediglich Menschen unterstützen.
    • Minimales Risiko: Generelle Anwendungen wie Übersetzungssoftware.
  • General Purpose AI (GPAI): Generative Modelle wie ChatGPT oder DALL-E fallen in eine neue Kategorie, da sie flexibel in verschiedenen Kontexten einsetzbar sind.
  • Die Einführung von GPAI stellt Unternehmen vor die Herausforderung, je nach Anwendungszweck als Anbieter oder Betreiber eingestuft zu werden.
  1. b) Rollen und Verantwortlichkeiten
  • Anbieter sind Unternehmen, die KI-Modelle entwickeln oder vertreiben. Sie müssen sicherstellen, dass Modelle den gesetzlichen Anforderungen entsprechen.
  • Betreiber nutzen KI-Modelle in einem spezifischen Kontext, z. B. für Recruiting, und tragen ebenfalls Compliance-Verantwortung.
  • Feintuning von Modellen: Wer bestehende KI-Modelle (z. B. ChatGPT) auf spezifische Anwendungszwecke zuschneidet, könnte rechtlich zum Anbieter werden.
  1. c) Transparenz- und Schulungspflichten
  • Ab 2026 gilt eine Schulungspflicht für alle Mitarbeitenden, die mit KI arbeiten. Diese Schulungen müssen anwendungsspezifisch und dokumentiert sein.
  • Bei der Nutzung von KI müssen Anwender klar darauf hinweisen, wenn sie mit einem KI-System interagieren (z. B. bei Chatbots).
  1. Produkthaftung und Haftungsfragen
  2. a) Produkthaftung
  • Neue Regulierungen erweitern den Produktbegriff, sodass Software, einschließlich KI, unter die Produkthaftung fällt.
  • Unternehmen müssen dokumentieren, dass ihre KI-Systeme sicher und frei von Fehlern sind.
  • Offenlegungspflicht: Anbieter müssen im Falle eines Haftungsanspruchs Trainingsdaten, Modellarchitekturen und Algorithmen offenlegen.
  1. b) Beweislastumkehr
  • Bei Schadensfällen kann die Beweislast auf den Anbieter übergehen. Unternehmen müssen nachweisen, dass sie alle notwendigen Maßnahmen ergriffen haben, um Risiken zu minimieren.
  1. Anwendungsbeispiele und praktische Tipps
  2. a) Beispiele für Hochrisiko-KI
  • Recruiting: Der Einsatz von KI zur Analyse von Bewerbungen fällt unter Hochrisiko-KI. Unternehmen, die solche Systeme nutzen, tragen erweiterte Haftung.
  • Generative KI: Wer generative KI (z. B. für Content-Erstellung) einsetzt, sollte darauf achten, dass die Modelle transparent trainiert wurden und keine Urheberrechte verletzen.
  1. b) Strategische Empfehlungen
  • Verwenden Sie kleinere KI-Modelle (z. B. unterhalb der 10^25 FLOPS-Grenze), um strenge Anforderungen zu umgehen.
  • Feintuning sollte sorgfältig abgewogen werden, um nicht ungewollt in die Anbieterrolle zu geraten.
  • Alternative Ansätze wie Prompt Engineering oder Retrieval-Augmented Generation (RAG) vermeiden Änderungen am KI-Modell und reduzieren rechtliche Risiken.
  1. c) Transparenz bei generierten Inhalten
  • Bilder und Texte, die mit KI generiert wurden, müssen in bestimmten Kontexten als solche gekennzeichnet sein (z. B. „Generated by AI“).
  • Deepfakes: KI-generierte Bilder und Videos, die täuschend echt wirken, müssen deutlich gekennzeichnet werden.
  1. Diskussion und Q&A

Häufige Fragen:

  • Schulungen: Müssen alle Mitarbeitenden geschult werden?
    • Nein, nur jene, die direkt mit KI arbeiten oder Risiken der KI mit beeinflussen können.
  • Feintuning: Wann wird ein Betreiber durch Feintuning zum Anbieter?
    • Sobald der Zweck des Modells erheblich verändert wird (z. B. Einsatz eines generativen Modells für Hochrisiko-Zwecke).
  • Haftung: Wie kann man sich gegen Haftungsansprüche absichern?
    • Durch umfassende Dokumentation, Risikoanalysen und regelmäßige Modellüberprüfungen.
  1. Fazit und nächste Schritte
  • Die Regulierung von KI wird in den nächsten Jahren massiv an Bedeutung gewinnen. Unternehmen sollten sich frühzeitig auf die Anforderungen vorbereiten.
  • Besonders wichtig sind Schulungen, Transparenz bei der Nutzung von KI und ein robustes Compliance-Management.
  • Praktische Tools und Vorlagen (z. B. für Risikoanalysen) wurden von Philipp Hacker bereitgestellt und können bei Bedarf angefragt werden.

Abschluss: Der Call endete mit einem regen Austausch, und die Teilnehmenden bedankten sich für die praxisnahen und tiefgehenden Einblicke. Professor Hacker bleibt als Experte für weitere Fragen verfügbar.