
Datenschutz, Compliance & Recht
Omnibus, EU AI Act & Urheberrecht – Prof. Dr. Philipp Hacker – 15.12.2025
DOWNLOADS
Zusammenfassung des Trainingscalls
In diesem Trainingscall gibt Prof. Dr. Philipp Hacker einen umfassenden und zugleich hochaktuellen Einblick in die rechtlichen und politischen Entwicklungen rund um Künstliche Intelligenz auf EU-Ebene. Der Fokus liegt auf dem sogenannten Digital Omnibus- bzw. Simplification-Prozess, der den bestehenden Regulierungsrahmen – insbesondere den EU AI Act, die DSGVO und das Urheberrecht – spürbar verändern soll.
Zu Beginn ordnet Prof. Hacker den politischen Kontext ein: Die Europäische Kommission hat erkannt, dass die Vielzahl digitaler Regulierungsakte der letzten Jahre zu erheblicher Komplexität, Überschneidungen und Unsicherheiten geführt hat. Der AI Act wirkt dabei horizontal über bestehende sektorale Regulierungen hinweg, etwa im Medizin-, Finanz- oder Maschinenrecht, was in der Praxis zu Spannungen und Doppelregulierung führt. Hinzu kommen massive Reibungen mit der DSGVO und dem europäischen Urheberrecht – insbesondere beim Training und Einsatz von KI-Systemen.
Der sogenannte Omnibus-Ansatz verfolgt das Ziel, mehrere Gesetze gleichzeitig anzupassen und zu vereinfachen. Konkret stellt Prof. Hacker zwei zentrale Vorhaben vor: den AI-Omnibus zur Vereinfachung der KI-Regulierung sowie den DSGVO-Omnibus, der erhebliche Änderungen im Datenschutzrecht vorsieht. Beide befinden sich noch im Gesetzgebungsverfahren, mit einem ambitionierten Zeitplan bis zum Frühsommer.
Ein zentrales Thema im AI-Omnibus ist die Entlastung bei Hochrisiko-KI-Systemen. Die Kommission schlägt vor, den Start der Hochrisiko-Pflichten („Stop the Clock“) um ein bis zwei Jahre zu verschieben, da notwendige technische Standards bislang nicht ausreichend verfügbar sind. Für Unternehmen bedeutet das potenziell mehr Zeit für Vorbereitung, insbesondere in sensiblen Bereichen wie Recruiting, Kreditwürdigkeitsprüfung oder Versicherungen.
Ein weiterer Schwerpunkt ist die Erlaubnis zur Nutzung sensibler Daten für das sogenannte Debiasing von KI-Systemen. Künftig sollen auch nicht-hochriskante KI-Systeme sensible personenbezogene Daten temporär verwenden dürfen, um Diskriminierung zu erkennen und zu reduzieren. Dies adressiert ein zentrales Praxisproblem: Ohne solche Daten ist eine faire Kalibrierung von KI faktisch kaum möglich.
Ausführlich behandelt wird zudem die Abgrenzung von Anbieter- und Betreiberrollen im AI Act. Prof. Hacker zeigt anhand konkreter Beispiele, wann Unternehmen unbeabsichtigt selbst zum Anbieter werden – etwa durch eigenes Branding, den Einsatz von General-Purpose-AI-Modellen in Hochrisikokontexten oder durch umfangreiches Fine-Tuning. Besonders relevant ist dabei die sogenannte Ein-Drittel-Flop-Grenze, ab der ein Unternehmen rechtlich als neuer Modellanbieter gilt.
Im DSGVO-Teil des Calls werden tiefgreifende geplante Änderungen analysiert. Besonders brisant ist die geplante Neudefinition personenbezogener Daten, die sich am SRB-Urteil des Europäischen Gerichtshofs orientiert. Künftig könnte der Personenbezug situationsabhängig entfallen, wenn ein Empfänger realistischerweise keine Möglichkeit zur Re-Identifikation hat. Prof. Hacker macht deutlich, dass dies zwar KI-Training erleichtert, zugleich aber erhebliche Risiken für IT-Sicherheit und Datenschutzstandards birgt.
Weitere geplante Erleichterungen betreffen:
- die Stärkung des berechtigten Interesses als Rechtsgrundlage für KI-Training,
- eine neue Ausnahme für die Verarbeitung sensibler Daten im Kontext von KI-Entwicklung,
- sowie erleichterte Sekundärnutzung von Daten zu Forschungszwecken.
Im letzten Teil des Calls geht Prof. Hacker auf aktuelle Entwicklungen im Urheberrecht ein. Besonders hervorgehoben wird ein Urteil des LG München I, wonach KI-Modelle selbst als urheberrechtswidrige Vervielfältigungen gelten können, wenn sie geschützte Werke durch einfache Prompts reproduzieren. Diese Entscheidung hat potenziell weitreichende Konsequenzen für KI-Anbieter und Open-Source-Modelle, auch wenn Endnutzer voraussichtlich nicht im Fokus der Rechtsdurchsetzung stehen werden. Für Anwender bleibt jedoch die klare Empfehlung, KI-Outputs vor Veröffentlichung sorgfältig auf mögliche Urheberrechtsverletzungen zu prüfen.
Der Call schließt mit praxisnahen Fragen der Teilnehmenden, insbesondere zu Recruiting-Tools, Custom GPTs, Application-Tracking-Systemen und der Nutzung externer Plattformen wie LinkedIn. Dabei wird deutlich, wie schnell rechtliche Verantwortlichkeiten entstehen können – oft ohne dass es den Anwendern bewusst ist.
Datenschutz, Compliance & Recht – Carsten Wittmann – 02.12.2025
DOWNLOADS
Zusammenfassung:
In diesem Training führt Carsten Wittmann praxisnah in die zentralen Themen Datenschutz, Compliance und aktuelle KI-Regulierung ein. Er zeigt, welche Anforderungen auf Unternehmen zukommen und worauf KI-Berater achten müssen, ohne selbst rechtlich beraten zu dürfen.
Zunächst erklärt er die Grundlagen der DSGVO und warum KI-Verarbeitung besondere Risiken birgt: große Datenmengen, Black-Box-Modelle, globale Anbieterstrukturen und erhöhte Anforderungen an Transparenz, Zweckbindung und Datenminimierung. Er ordnet die Rollen Verantwortlicher und Auftragsverarbeiter ein und erläutert, warum viele KI-Tools im Standardtarif nicht DSGVO-konform nutzbar sind.
Anschließend stellt er neue regulatorische Bausteine vor:
- Data Act: Datenhoheit beim Nutzer, verpflichtender Datenzugang, offene Standards, faire Verträge und Exportmöglichkeiten.
- Cyber Resilience Act: Sicherheitsanforderungen für digitale Produkte, Pflicht zu Updates, strukturiertes Schwachstellenmanagement und technische Maßnahmen wie Verschlüsselung, Zugriffskontrolle und API-Sicherheit.
- erste Orientierung zum EU-AI-Act, der ein umfassendes Risikorahmenwerk für KI einführt.
Ein weiterer Schwerpunkt ist der internationale Datentransfer, insbesondere in die USA. Carsten zeigt die Unterschiede zwischen Data Privacy Framework, Standardvertragsklauseln und Transfer Impact Assessments und erklärt, wie Unternehmen den Einsatz von KI-Tools rechtssicher gestalten können.
Zum Abschluss gibt er konkrete Good-Practice-Ansätze: Daten früh anonymisieren oder pseudonymisieren, nur notwendige Daten nutzen, DSFA bei erhöhten Risiken prüfen, Verträge sauber dokumentieren und klare Abgrenzung der eigenen Rolle als Berater herstellen. Das Training vermittelt Orientierung und Sicherheit für den professionellen Umgang mit KI in regulierten Umgebungen.
