Rechtliche Aspekte im Kontext der KI

Mit Prof. Dr. Philipp Hacker

Rechtliche Aspekte im Kontext der KI – Prof. Dr. Philipp Hacker

Vimeo

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von Vimeo.
Mehr erfahren

Video laden

Vimeo

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von Vimeo.
Mehr erfahren

Video laden

Zusammenfassung des Trainingscalls: Rechtliche Aspekte im Kontext von KI

  1. Einführung und Vorstellung
    Im Fokus des Calls stand Professor Dr. Philipp Hacker, ein Experte für die rechtlichen Belange im Bereich künstliche Intelligenz (KI). Er gab Einblicke in aktuelle Regulierungen, darunter den europäischen AI Act, die DSGVO sowie Fragen zur Produkthaftung und Urheberrecht im Zusammenhang mit KI. Der Call richtete sich an Fachleute, die mit KI arbeiten, insbesondere in den Bereichen Beratung, Entwicklung und Implementierung.
  2. Überblick über den AI Act und die KI-Regulierung
  3. a) Grundsätze des AI Acts
  • Risiko-basierte Regulierung: Der AI Act unterscheidet zwischen verschiedenen Risikostufen:
    • Verbotene KI: Z. B. Emotionserkennung am Arbeitsplatz.
    • Hochrisiko-KI: Anwendungen wie Recruiting-Software oder medizinische Diagnostik.
    • Begrenztes Risiko: KI-gestützte Chatbots, die lediglich Menschen unterstützen.
    • Minimales Risiko: Generelle Anwendungen wie Übersetzungssoftware.
  • General Purpose AI (GPAI): Generative Modelle wie ChatGPT oder DALL-E fallen in eine neue Kategorie, da sie flexibel in verschiedenen Kontexten einsetzbar sind.
  • Die Einführung von GPAI stellt Unternehmen vor die Herausforderung, je nach Anwendungszweck als Anbieter oder Betreiber eingestuft zu werden.
  1. b) Rollen und Verantwortlichkeiten
  • Anbieter sind Unternehmen, die KI-Modelle entwickeln oder vertreiben. Sie müssen sicherstellen, dass Modelle den gesetzlichen Anforderungen entsprechen.
  • Betreiber nutzen KI-Modelle in einem spezifischen Kontext, z. B. für Recruiting, und tragen ebenfalls Compliance-Verantwortung.
  • Feintuning von Modellen: Wer bestehende KI-Modelle (z. B. ChatGPT) auf spezifische Anwendungszwecke zuschneidet, könnte rechtlich zum Anbieter werden.
  1. c) Transparenz- und Schulungspflichten
  • Ab 2026 gilt eine Schulungspflicht für alle Mitarbeitenden, die mit KI arbeiten. Diese Schulungen müssen anwendungsspezifisch und dokumentiert sein.
  • Bei der Nutzung von KI müssen Anwender klar darauf hinweisen, wenn sie mit einem KI-System interagieren (z. B. bei Chatbots).
  1. Produkthaftung und Haftungsfragen
  2. a) Produkthaftung
  • Neue Regulierungen erweitern den Produktbegriff, sodass Software, einschließlich KI, unter die Produkthaftung fällt.
  • Unternehmen müssen dokumentieren, dass ihre KI-Systeme sicher und frei von Fehlern sind.
  • Offenlegungspflicht: Anbieter müssen im Falle eines Haftungsanspruchs Trainingsdaten, Modellarchitekturen und Algorithmen offenlegen.
  1. b) Beweislastumkehr
  • Bei Schadensfällen kann die Beweislast auf den Anbieter übergehen. Unternehmen müssen nachweisen, dass sie alle notwendigen Maßnahmen ergriffen haben, um Risiken zu minimieren.
  1. Anwendungsbeispiele und praktische Tipps
  2. a) Beispiele für Hochrisiko-KI
  • Recruiting: Der Einsatz von KI zur Analyse von Bewerbungen fällt unter Hochrisiko-KI. Unternehmen, die solche Systeme nutzen, tragen erweiterte Haftung.
  • Generative KI: Wer generative KI (z. B. für Content-Erstellung) einsetzt, sollte darauf achten, dass die Modelle transparent trainiert wurden und keine Urheberrechte verletzen.
  1. b) Strategische Empfehlungen
  • Verwenden Sie kleinere KI-Modelle (z. B. unterhalb der 10^25 FLOPS-Grenze), um strenge Anforderungen zu umgehen.
  • Feintuning sollte sorgfältig abgewogen werden, um nicht ungewollt in die Anbieterrolle zu geraten.
  • Alternative Ansätze wie Prompt Engineering oder Retrieval-Augmented Generation (RAG) vermeiden Änderungen am KI-Modell und reduzieren rechtliche Risiken.
  1. c) Transparenz bei generierten Inhalten
  • Bilder und Texte, die mit KI generiert wurden, müssen in bestimmten Kontexten als solche gekennzeichnet sein (z. B. „Generated by AI“).
  • Deepfakes: KI-generierte Bilder und Videos, die täuschend echt wirken, müssen deutlich gekennzeichnet werden.
  1. Diskussion und Q&A

Häufige Fragen:

  • Schulungen: Müssen alle Mitarbeitenden geschult werden?
    • Nein, nur jene, die direkt mit KI arbeiten oder Risiken der KI mit beeinflussen können.
  • Feintuning: Wann wird ein Betreiber durch Feintuning zum Anbieter?
    • Sobald der Zweck des Modells erheblich verändert wird (z. B. Einsatz eines generativen Modells für Hochrisiko-Zwecke).
  • Haftung: Wie kann man sich gegen Haftungsansprüche absichern?
    • Durch umfassende Dokumentation, Risikoanalysen und regelmäßige Modellüberprüfungen.
  1. Fazit und nächste Schritte
  • Die Regulierung von KI wird in den nächsten Jahren massiv an Bedeutung gewinnen. Unternehmen sollten sich frühzeitig auf die Anforderungen vorbereiten.
  • Besonders wichtig sind Schulungen, Transparenz bei der Nutzung von KI und ein robustes Compliance-Management.
  • Praktische Tools und Vorlagen (z. B. für Risikoanalysen) wurden von Philipp Hacker bereitgestellt und können bei Bedarf angefragt werden.

Abschluss: Der Call endete mit einem regen Austausch, und die Teilnehmenden bedankten sich für die praxisnahen und tiefgehenden Einblicke. Professor Hacker bleibt als Experte für weitere Fragen verfügbar.