KI-MasterClass - TÜV Prüfung

... Alle wichtigen Inhalte ...

Infosession für den Start der Kohorte vom 18.02.2026

In diesem Trainingscall steht die Ausbildung zum Manager bzw. zur Managerin für angewandte KI-Transformation mit TÜV-Rheinland-Zertifizierung im Mittelpunkt. Der Call dient dazu, Transparenz zu schaffen, Vertrauen aufzubauen und einen realistischen Einblick in Inhalte, Ablauf, Nutzen und Prüfungsanforderungen der kommenden Kohorte zu geben, die am 18. Februar startet.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Zu Beginn wird klar eingeordnet, dass diese Ausbildung Teil der KI-Masterclass ist, während die TÜV-Zertifizierung eine optionale, aber hoch relevante Zusatzqualifikation darstellt. Besonders hervorgehoben wird das neu entwickelte Kompendium: ein professionell lektoriertes Werk mit über 300 Seiten, das sämtliche Module verdichtet abbildet und ab sofort fester Bestandteil der Ausbildung ist. Dieses Kompendium stellt die inhaltliche Basis für Lernen, Wiederholung und Prüfungsvorbereitung dar.

Ein zentrales Signal des Calls ist die außergewöhnlich hohe Erfolgsquote der ersten Kohorte: Von rund 40 Teilnehmenden haben 39 die TÜV-Prüfung im ersten Anlauf bestanden. Diese Quote wird auch vom TÜV Rheinland selbst als herausragend bewertet. Die Kombination aus Tiefe der Inhalte, didaktischer Qualität, Community-Unterstützung und strukturierter Prüfungsvorbereitung wird als Alleinstellungsmerkmal im gesamten DACH-Raum positioniert.

Mehrere Absolventinnen und Absolventen berichten aus erster Hand über ihre Erfahrungen. Besonders betont werden:

  • der ganzheitliche Ansatz (Technik, Strategie, Recht, Ethik, Datenschutz, Management),
  • die Niedrigschwelligkeit trotz Tiefe, auch für Nicht-Techniker,
  • die hohe Qualität der Trainerinnen und Trainer,
  • sowie der enorme Mehrwert der Community, in der Lerntools, Custom GPTs, Prüfungssimulationen und gegenseitige Unterstützung selbstverständlich waren.

Die Ausbildung umfasst 16 Module, gegliedert in vier große Bereiche:

  1. Grundlagen der generativen KI und Large Language Models
  2. Daten, Automatisierung und Tool-Landschaften
  3. Strategie, Management, Governance, Recht, Ethik und Sicherheit
  4. Praxis, Anwendung, Custom Agents, Fine-Tuning, Capstone-Projekte und Trainingsdidaktik

In Summe handelt es sich um 24 Stunden strukturierte Ausbildung, davon 12 Live-Module und 4 Selbstlern-Module, ergänzt durch begleitende Materialien und Lernhilfen. Die Module sind bewusst nicht streng aufeinander aufbauend, um flexible Teilnahme zu ermöglichen.

Die TÜV-Prüfung wird transparent erläutert:

  • Online, Multiple Choice
  • 35 Fragen in 60 Minuten
  • Bestanden ab 24 korrekt beantworteten Fragen
  • Deutschsprachig, ohne Hilfsmittel
  • Proctoring mit Identitätsprüfung

Das erworbene Zertifikat ist international anerkannt, drei Jahre gültig und kann unkompliziert rezertifiziert werden. Zusätzlich erhalten Absolventinnen und Absolventen ein offizielles TÜV-Prüfsiegel mit QR-Code, das öffentlich verifizierbar ist und einen klaren Wettbewerbsvorteil darstellt – insbesondere im deutschen Markt, der stark zertifikatsgetrieben ist.

Ein weiterer wichtiger Aspekt: Die Ausbildung ist auch ohne Prüfungsabsicht wertvoll. Wer jedoch alle Inhalte durchläuft, entwickelt in der Regel automatisch den Anspruch, die Zertifizierung ebenfalls abzulegen. Die Anmeldung zur Prüfung ist bis 31. März möglich, sodass Interessierte zunächst mehrere Module erleben können, bevor sie sich verbindlich entscheiden.

Abschließend wird deutlich: Diese Ausbildung steht für AI Literacy im besten Sinne – also die Fähigkeit, künstliche Intelligenz fachlich fundiert, rechtlich sauber, ethisch reflektiert und organisatorisch wirksam einzusetzen. Sie richtet sich an alle, die KI nicht nur nutzen, sondern verantwortungsvoll gestalten und glaubwürdig vertreten wollen.

Zusammenfassung

Vorstellung der TÜV-zertifizierten Ausbildung „Manager für angewandte KI-Transformation“ als Teil der KI-Masterclass. Hervorgehoben werden Curriculum, Kompendium, 16 Module, hohe Bestehensquote, internationale Anerkennung, Community-Support und praxisnahe Inhalte. Die TÜV-Zertifizierung bietet einen klaren Wettbewerbsvorteil durch überprüfbare, verantwortungsvolle KI-Kompetenz.

 

Wichtige Informationen zur TÜV Prüfung – Aufzeichnung 01.09.2025

Im Rahmen dieses Calls wurde das neue, TÜV-zertifizierte Ausbildungsprogramm „Manager:in für angewandte KI-Transformation“ vorgestellt. Das Programm richtet sich exklusiv an Teilnehmer der KI-MasterClass und wurde in enger Zusammenarbeit mit dem TÜV Rheinland entwickelt.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Inhalte und Struktur der Ausbildung

  • Laufzeit: 12 Wochen, Start am 17. September, Abschlussprüfung im Dezember
  • 11 Live-Online-Sessions (mittwochs 18:00–19:30 Uhr) und 5 ergänzende Videodrops (teilweise live, montags)
  • Ziel: fundierte Vermittlung von Grundlagenwissen, ergänzt durch aktuelle Themen mit Praxisbezug
  • Themen unter anderem: Change Management, Cybersecurity, Datenstrategie, Compliance, Center of Excellence, Low-Code/No-Code, KI-Geschäftsmodelle
  • Durchführung durch insgesamt 12 ausgewählte Experten aus dem Netzwerk des Koerting Instituts

Zertifizierung und Prüfungsablauf

  • TÜV Rheinland-Zertifikat mit persönlichem Eintrag in der Zertipedia-Datenbank (gültig für drei Jahre)
  • Multiple-Choice-Prüfung mit 35 Fragen, 60 % erforderlich zum Bestehen
  • Prüfung voraussichtlich am 10. Dezember (Nachmittagstermin), ggf. zweiter Termin möglich

Teilnahmevoraussetzungen

  • Teilnahme exklusiv für Mitglieder der KI-MasterClass
  • Prüfungscommitment bis spätestens 31. Oktober erforderlich (Kosten: 777 Euro)
  • Teilnahme an mindestens 10–12 der 16 Module wird empfohlen
  • Keine zusätzlichen Lernmaterialien erforderlich, alle Inhalte werden in der Academy bereitgestellt

Organisatorische Hinweise

  • Alle Termine und Materialien werden in den abonnierten MasterClass-Kalender übernommen
  • Wer nicht an der Prüfung teilnimmt, kann die Ausbildung dennoch komplett durchlaufen
  • Voraussetzung für die Teilnahme an der Prüfung ist eine aktive Mitgliedschaft in der MasterClass bis Dezember

Fragen & Antworten im Call

  • Es wird keine Zwischenprüfungen geben, nur eine finale Multiple-Choice-Prüfung
  • Auch Ausbilder können an der Zertifizierung teilnehmen
  • Der durchschnittliche wöchentliche Zeitaufwand liegt bei etwa zwei Stunden
  • Bei Bedarf können individuelle Umstände (z. B. Krankheit) berücksichtigt werden

Corporate-Kunden-Coaching – Keynote,
Workshop, Training – 03.12.2025

Torsten vermittelt in diesem Abschlussmodul den vollständigen Ablauf einer KI-Transformation im Unternehmen. Ziel: Verstehen, an welchen Punkten Transformation entsteht und welche Hebel KI-Manager aktiv setzen müssen.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Zusammenfassung:

Gesamtprozess der KI-Transformation:

Eine Transformation folgt immer denselben Phasen – unabhängig von Branche und Projektumfang:

  • Anbahnung: Erstkontakt, Verständnis, Auftragsklärung
  • Sensibilisierung: Mitarbeitende auf ein gemeinsames Level bringen
  • Umsetzung: Leistungserbringung, konkrete Veränderung
  • Abschluss: Übergabe, Lessons Learned, Ergebnisreflexion

Diese Struktur bildet das Grundgerüst aller späteren Methoden und Prüfungsinhalte.

Anbahnung: Klarheit schaffen und Resonanz erzeugen

Kerninstrument ist der Discovery Call. Hier werden:

  • Status quo, Zielbild und Herausforderungen geklärt
  • Bedürfnisse, Blockaden und Risiken sichtbar gemacht
  • Problembewusstsein hergestellt
  • Investitionsbereitschaft abgefragt
  • Passung zwischen Kunde und Auftrag geprüft

Leitprinzip: 80 % spricht der Kunde, 20 % der Berater.
Ein fundierter Discovery Call ermöglicht ein präzises Angebot und verhindert Fehlprojekte.

Sensibilisierung: Mitarbeitende auf Veränderung vorbereiten

Da KI-Wissen im Unternehmen stark variiert, müssen alle auf ein arbeitsfähiges Niveau gebracht werden. Sonst entstehen Widerstände, Überforderung oder Langeweile.

Wichtige Instrumente:

  1. Keynote / Vortrag
    • Relevante, idealerweise eigene Use Cases
    • Vorgespräch zur Auswahl passender Beispiele
    • Ziel: alle mindestens in die „Verwirrung“ bringen, damit Zusammenarbeit möglich wird
  2. Fragebögen
    • Selbsteinschätzung und Bedarfe
    • KI-gestützte Auswertung erkennt Muster, Reifegrad, Prioritäten
    • Grundlage für zielgerichtete Workshops
  3. Discovery Workshops
    • Intensives Durchdringen von Prozessen, Produkten, Routinen
    • Sichtbar machen von Engpässen und Chancen
  4. Reifegradmodell
    Einordnung des Unternehmens in allen transformationsrelevanten Dimensionen:

    • Geschäftsmodell & Strategie
    • Organisation & Rollen
    • Prozesse (intern & customer-facing)
    • Menschen & Kultur
    • Technologie & Daten
    • Recht & Ethik
      Zeigt, wo das Unternehmen steht, wo KI wirken kann und welche Wechselwirkungen entstehen.

Umsetzung: Struktur, Klarheit und Multiplikation

Der professionelle Kickoff ist der Startpunkt der eigentlichen Veränderung. Er definiert:

  • Zielsetzung und Erwartungshorizont
  • Stakeholder und Verantwortlichkeiten
  • Scope / Out-of-Scope
  • Risiken, Annahmen und mögliche Hürden
  • Arbeitsweisen, Tools, Ablauf

Torsten betont: „Sag mir, wie ein Projekt beginnt, und ich sage dir, wie es endet.“

Community-Aufbau

Um Veränderung in die Breite zu tragen:

  • Silos aufbrechen
  • Wissen teilen und weiterentwickeln
  • Standortübergreifend zusammenarbeiten
  • Evangelisten identifizieren
  • Energie in die Organisation bringen

Dieses Vorgehen kennt die Gruppe aus den eigenen Lerngruppen, Promptatons und der Masterclass – Blaupausen, die sich auch im Corporate-Umfeld bewähren.

Train-the-Trainer / Champions

Ziel:

  • interne Multiplikatoren aufbauen
  • Wissen verteilen
  • Rückmeldungen bündeln
  • best practices zurück in das Zentrum der Transformation bringen
    Sie sind entscheidend, damit die Bewegung nicht an einzelnen Personen hängt.

Skalierung & Standardisierung

Um Transformation nachhaltig und wiederholbar zu machen:

  • Workshops und Formate standardisieren
  • Vorgehen modular denken
  • Klar-Prinzip nutzen (Kontext – Lehren – Aktivieren – Reflektieren)
  • Fokus auf echte Aktivierung statt Frontalwissen

So entstehen skalierbare Bausteine, die sich schnell reproduzieren lassen.

Prüfungsrelevante Inhalte

Besonders wichtig für die TÜV-Prüfung:

  • Kickoff-Struktur
  • Community-Aufbau
  • Train-the-Trainer / Champions
  • Transformationsarchitektur und Reifegradverständnis
  • Elemente der Sensibilisierung (Keynote, Fragebogen, Workshops)
  • Grundlogik von Anbahnung bis Abschluss

KI-Strategie & Geschäftsmodelle – 26.11.2025

Der Call vermittelt ein tiefes Verständnis dafür, wie Manager für angewandte KI-Transformation Unternehmen und Selbstständige aus ihrem aktuellen Zustand („Status quo“) in einen neuen, KI-gestützten Zustand führen. Die Session fokussiert Strategie, Geschäftsmodelle, veritable Geschäftsmodelle und Messbarkeit von Transformation.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Inhalte und Schwerpunkte:

Zu Beginn betont der Torsten, dass KI-Transformation immer das bestehende Geschäftsmodell und die zugrunde liegende Strategie beeinflusst, ob bewusst oder unbewusst. Die Teilnehmenden lernen, dass Geschäftsmodelle dokumentierbar, veränderbar und aktiv weiterentwickelbar sind – und dass KI genau dort einwirkt.

Geschäftsmodelle verstehen und analysieren

Ausführlich erklärt wird das Business Model Canvas nach Osterwalder. Die neun Bausteine – Werteversprechen, Kundensegmente, Kanäle, Kundenbeziehungen, Einnahmequellen, Schlüsselressourcen, Schlüsselaktivitäten, Schlüsselpartner, Kostenstruktur – werden einzeln durchleuchtet.

Wichtig ist die Unterscheidung in Front Stage (sichtbar: Kunden, Kanäle, Einnahmen) und Backstage (unsichtbar: Partner, Ressourcen, Aktivitäten, Kosten).

Die Teilnehmenden sollen verstehen, dass jedes Unternehmen und sogar jede Abteilung ein eigenes Geschäftsmodell besitzt und dieses durch KI zwangsläufig verändert wird.

Torsten zeigt auf, wie der Einsatz von KI, ob durch neue Tools, Automationen oder Sprachmodelle – neue Ressourcen, Partner oder Aktivitäten erzeugt und somit das Geschäftsmodell der Kunden neu formt.

Diese Veränderung passiert oft reaktiv und unbewusst, sollte aber bewusst dokumentiert werden. Alternativ kann die Veränderung auch aktiv herbeigeführt werden – etwa durch SWOT-Analysen oder Trendanalysen.

Strategien verstehen und Strategy-on-a-Page anwenden

Analog zum Geschäftsmodell zeigt der Trainer ein zweites Strukturwerkzeug: „Strategy on a Page“ mit sieben Elementen:

  • Auslöser (Trigger)

  • Vision

  • Mission

  • Ziele & Objectives

  • Vorteile/Nutzen

  • Initiativen/Projekte

  • Risiken

Anhand historischer Beispiele (z. B. NASA/Mondmission) wird verdeutlicht, wie Vision und Mission formuliert werden und wie eine Strategie strukturiert, greifbar und messbar wird.

Auch eine Strategie existiert immer im Status quo und lässt sich durch KI-Initiativen modifizieren oder völlig neu entwickeln.

Das Modell hilft, Strategie klar abzubilden – und ist gleichzeitig ein Werkzeug, das KI optimal unterstützen kann (z. B. beim Formulieren von Mission/Vision).

Veritable Geschäftsmodelle in Zeiten der KI

Ein veritables Geschäftsmodell ist eines, das nachhaltig mehr einbringt als es kostet.

Durch KI geraten bestehende Modelle unter Druck: Dienstleistungen werden schneller, kostengünstiger und komplexer automatisierbar.

Torsten führt ein Matrix-Modell ein:

A) Womit verdienen wir Geld?

  • Single Modal (eine Leistung, eindimensional)

  • Multimodal (Bausteine, Systeme, kombiniert)

  • Software as a Service (SaaS)

B) Wofür wird Geld bezahlt?

  • Zeit

  • Ergebnis

  • Nutzung

  • Nutzen (Erfolg, Value-Based)

Hier lernen die Teilnehmenden, dass traditionelle Zeit-gegen-Geld-Modelle nicht mehr zukunftsfähig sind, weil KI Prozesse radikal beschleunigt.

Ziel ist eine Entwicklung hin zu ergebnis-, nutzungs- oder nutzenbasierten Modellen, die stabilere und nachhaltigere Einnahmen erzeugen.

Es folgen zahlreiche Beispiele aus der Praxis, z. B.:

  • wie ein Telefon-Bot als Produkt + Wartungsmodell zu monatlichen Einnahmen führt

  • wie Workshops multimodal aufbereitet werden können (Vorbereitung, Online-Bausteine, Follow-Up)

  • wie komplexe Automationen (z. B. N8N-Szenarien) als Produkte verkauft werden

Transformation bewusst gestalten

Torsten betont, dass KI-Einführung sowohl bewusst (aktiv gestaltet) wie auch unbewusst (als Nebeneffekt) Transformation bewirkt.

Manager für angewandte KI-Transformation müssen erkennen, dokumentieren und steuern:

  • wo sich Geschäftsmodell oder Strategie verändert

  • wann unbewusste Effekte bewusst gemacht werden müssen

  • wie Entwicklungen auf Abteilungs- oder Unternehmensebene zusammenhängen

Veränderungen messbar machen (KPI-Framework)

Ein großer Teil der Session widmet sich der Frage, wie KI-Erfolge messbar werden.

Dafür werden konkrete KPI-Kategorien vorgestellt:

  • ROI

  • operativer Kostensenkung

  • Automatisierungsgrad

  • Produktivität

  • Durchlaufzeiten

  • Fehlerquote / Ausschuss

  • Servicequalität

  • Nutzerakzeptanz

  • Customer Churn

  • Zahlungseingänge / Forderungsgrad

  • Risikominimierung

  • Output-Qualität

Diese Kennzahlen dienen dazu, Transformation transparent, argumentierbar und prüfungsrelevant zu machen.

Capstone-Workshop & TÜV-Prüfungsvorbereitung – 19.11.2025

In diesem Modul wurden die organisatorischen und inhaltlichen Vorbereitungen für die TÜV-Prüfung zur Ausbildung Manager:in zur angewandten KI-Transformation vermittelt. Die Teilnehmer erhielten detaillierte Informationen zum Ablauf der Online-Prüfung via Alpha View, zur technischen Ausstattung sowie zu den Regeln und formalen Vorgaben der Prüfung. Neben organisatorischen Hinweisen wurde ein inhaltliches Modul mit dem Schwerpunkt auf Lernstrategien und Transfermethoden durchlaufen.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Inhalte und Schwerpunkte:

  • Prüfungsorganisation & Technik:
    Details zur Anmeldung, Technik-Check, Nutzung der Plattform „Alpha View“ und Hinweise zur Identitätsprüfung. Nur wer angemeldet und identifiziert ist, kann teilnehmen. Hilfsmittel sind begrenzt auf Stift, Papier und Wasser. Täuschungsversuche führen zum sofortigen Nichtbestehen.
  • Didaktische Reflexion zur Lernpraxis:
    Vorstellung der vier zentralen Lernbausteine:
    Reflexion, Planung, Anwendung und Selbstüberprüfung – als Begleiter des eigenen Lernprozesses sowie als methodischer Werkzeugkasten für zukünftige Führungsaufgaben in KI-Projekten.
  • Peer-Feedback:
    Strukturierte kollegiale Rückmeldungen zur Qualitätssteigerung im Team. Wichtiges Tool in interdisziplinären KI-Projekten zur Förderung von Lernprozessen, Entscheidungsqualität und Teamvertrauen.
  • Roadmaps:
    Strategisches Instrument zur Visualisierung und Steuerung von KI-Projekten. Klare Zeitachsen, Meilensteine und Nutzenargumentation stehen im Fokus – weniger grafische Perfektion, mehr Verständlichkeit und Management-Relevanz.
  • Capstone-Projekte:
    Abschlussprojekte zur praktischen Anwendung des Gelernten. Zeigen, wie interdisziplinäres Wissen in realen Szenarien eingebracht, kommuniziert und umgesetzt wird. Beweis der Praxistauglichkeit als KI-Manager.
  • Mock-Examen (Prüfungssimulation):
    35 Multiple-Choice-Fragen als Generalprobe. Ziel: Routine aufbauen, Zeitmanagement trainieren und Wissenslücken identifizieren. Ergebnis: Hohe Bestehensquote – alle Teilnehmenden zeigten sich gut vorbereitet.
  • Meta-Ebene der Prüfung:
    Die Prüfung steht sinnbildlich für kontinuierliche Lern- und Verbesserungsprozesse – eine Haltung, die KI-Manager langfristig in Projekten kultivieren sollen.
  • Wert des Zertifikats:
    Das TÜV-Zertifikat dient als sichtbares Qualitätssiegel auf dem Arbeitsmarkt und unterstreicht die professionelle Qualifikation der Absolventen.

Custom Agents, Fine-Tuning & RAG-Workflows – 17.11.2025

In dieser Session wurde systematisch aufgezeigt, wie ein Standard-LLM zu einem firmenspezifischen Arbeitsinstrument weiterentwickelt werden kann – durch drei zentrale Technologien: RAG-Workflows, LoRA-Fine-Tuning und Custom Agents.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Kernthemen des Calls:

RAG – Retrieve, Augment, Generate

  • Ziel: Anbindung von unternehmensinternem Wissen an ein LLM ohne Modellveränderung.
  • Unterschied zwischen parametrischem (gelerntem) und nichtparametrischem Wissen (z. B. HR-Dokumente).
  • Dokumente werden gechunkt, in Embeddings überführt und in einer Vektor-Datenbank gespeichert.
  • Semantische Suche ermöglicht kontextbezogene, präzise Antworten.
  • Unterschied zu SQL: Statt Keyword-Matching erkennt RAG Bedeutungszusammenhänge.
  • Erweiterung durch Graph-RAG für relationale Verknüpfungen von Begriffen.

Fine-Tuning vs. LoRA

  • Full Fine-Tuning verändert das Modell tiefgreifend, benötigt große Datenmengen, ist teuer und risikobehaftet (Stichwort: Catastrophic Forgetting).
  • LoRA (Low-Rank Adaptation) passt nur kleine Teilbereiche des Modells an und bleibt effizient, kostengünstig und reversibel.
  • Optimal für das Training auf Stil, Tonalität oder Format (z. B. unternehmensspezifische Schreibweise).
  • Bereits mit 100–500 Beispielen umsetzbar.

Custom Agents

  • Agenten agieren autonom und führen Aufgaben aus – z. B. Recherche, Datenbankzugriffe, Terminbuchung.
  • Tool-Integration erfolgt über Schnittstellen wie LangChain.
  • Guardrails sichern den Agentenbetrieb auf drei Ebenen ab:
    • Input Guardrails: Prüfung von Anfragen (z. B. keine Passwörter)
    • Output Guardrails: Kontrolle der Ausgaben (z. B. keine sensiblen Informationen)
    • Monitoring: Nachvollziehbarkeit aller Schritte und Entscheidungen

Weitere Kernthemen

  • Wichtigkeit semantischer Suche zur Kontextbegrenzung im Prompt.
  • Bedeutung von Metadaten, Re-Rankern und Datenstrategien für Qualität und Wartbarkeit.
  • Diskussion zu Microsoft Copilot als Alternative im Konzernkontext.
  • Praxisimpulse zur Aktualisierung und Pflege von Wissensdatenbanken im RAG-Setup.

Cyber Security & Privacy in KI-Deployments – 17.11.2025

In diesem spannenden Modul führt Hristo Stefanov in die essenziellen Sicherheitskonzepte ein, die beim Einsatz von Künstlicher Intelligenz (KI) in Unternehmensumgebungen eine zentrale Rolle spielen. Der Trainingscall ist praxisorientiert, prüfungsrelevant und gespickt mit Live-Demonstrationen, konkreten Angriffsszenarien sowie fundierten Handlungsempfehlungen.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Kernthemen des Calls:

  • Einführung in Cyber Security in der KI

    Grundlagen der IT-Sicherheit mit Fokus auf die CIA-Triad: Integrität, Vertraulichkeit und Verfügbarkeit.

  • Live-Demo: KI-gestützter Angriff auf eine Web-Applikation

    Beispiel für gespeichertes Cross-Site Scripting und wie KI-basierte Systeme wie LLMs Sicherheitsmaßnahmen ungewollt umgehen können.

  • Zero Trust Architektur

    Warum klassischer Perimeter-Schutz nicht mehr ausreicht und welche Prinzipien (z.B. kontinuierliche Authentifizierung, Mikrosegmentierung, Least Privilege) heute notwendig sind.

  • Secure Machine Learning Life Cycle (MLSecOps)

    Schutzmaßnahmen über den gesamten Lebenszyklus eines KI-Modells hinweg: von Planung, Design, Training bis Monitoring und kontinuierlicher Absicherung.

  • Threat Modeling (inkl. STRIDE-Analyse)

    Systematische Bedrohungsanalyse und Risikobewertung im Kontext von KI-Systemen.

  • Privacy Enhancing Technologies (PETs)

    Praktische Tools zum Datenschutz wie Differential Privacy, Federated Learning, Homomorphic Encryption und Synthetic Data.

  • Data Loss Prevention (DLP)

    Strategien, um Datenverluste oder unautorisierte Offenlegungen sensibler Informationen zu vermeiden.

  • Input/Output Sanitization & Jailbreak Prevention

    Schutzmechanismen zur Filterung gefährlicher Nutzereingaben und Output-Validierung bei LLMs.

  • Kontinuierliches Monitoring & Logging

    Bedeutung von Echtzeitüberwachung, Audit Logs und Alerting zur Angriffserkennung und Rückverfolgung.

  • Penetration Testing vs. automatisierte Scans

    Warum Pen-Tests auch bei KI-Anwendungen unerlässlich sind und automatisierte Tools diese nicht ersetzen.

Bonus-Input aus der Runde:

Echte Erfahrungsberichte zu Ransomware-Attacken und ethischen Gefahren durch KI verdeutlichen die gesellschaftliche und betriebliche Relevanz des Themas.

KI-Reifegradmodell – Standortbestimmung &
Entwicklungspfade
12.11.2025

In diesem Modul führt Michael Schmid durch das KI-Reifegradmodell zur Standortbestimmung und Entwicklungsplanung für Unternehmen auf dem Weg zur KI-Transformation. Anhand der Metapher eines Navigationssystems wird praxisnah erklärt, wie Unternehmen ihren Standort bestimmen, realistische Ziele setzen und sinnvolle Entwicklungspfade formulieren können – ohne sich in Tool-Diskussionen zu verlieren.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Zusammenfassung: 

Inhalte & Schlüsselthemen:

  1. Ziel des Moduls:
    Unternehmen bei der Selbsteinschätzung ihres KI-Reifegrads unterstützen und daraus ableitbare Entwicklungsschritte strategisch planen.
  2. Das Reifegradmodell als GPS:
    Die Analogie dient als Leitbild:

    • Standort bestimmen
    • Route wählen
    • Ziel definieren
      Mit dem Ziel, pragmatisch, wirksam und teamorientiert den KI-Transformationsprozess zu gestalten.
  3. Sieben Dimensionen des Modells:
    • Geschäftsmodell & Strategie
    • Organisation & Prozesse
    • Menschen & Kultur
    • Kundenprozesse & KI-Wahrnehmung
    • Governance, Recht & Ethik
    • Datenschutz & Compliance
    • Technologie & Daten
  4. Fünf Reifegrad-Stufen:
    Von der Initiierung (Stufe 1) bis zur vollständigen Geschäftsmodell-Integration (Stufe 5). Visualisierungen wie Ampelmodelle oder Spinnendiagramme helfen bei der Einschätzung.
  5. Praxisübung:
    In Gruppenarbeit wurde anhand einer fiktiven Firma (LogiSmart GmbH) der aktuelle Reifegrad ermittelt und zwei Dimensionen (z. B. „Menschen & Kultur“ sowie „Strategie“) tiefergehend analysiert. Anschließend wurden konkrete Zielzustände für sechs Monate formuliert („In sechs Monaten ist…“).
  6. Kriterien zur Bewertung & Erfolgsmessung:
    • Messbare KPIs: z. B. Durchlaufzeiten, Fehlerquoten, Kosten, Servicelevels
    • Prozess-Transparenz, Datenverfügbarkeit, Governance
    • Kulturelle Indikatoren: Lernkultur, Sharing-Formate, Retrospektiven
      Wichtig: Schwächste Dimension begrenzt den Gesamtreifegrad.
  7. Typische Herausforderungen:
    • Diskrepanz zwischen technologischem Fortschritt und Mitarbeiterkompetenz
    • Schatten-KI & Datenschutzrisiken
    • Mangel an strategischer Ausrichtung trotz operativer Fortschritte
  8. Best Practices aus der Beratung:
    • Reifegradmodell als Diskussions- und Beratungsgrundlage
    • Interdependenzen erkennen (z. B. Strategie ↔ Befähigung)
    • Sechs-Monats-Ziele für praktikable Transformation festlegen
    • Stakeholdergerecht kommunizieren – intern wie extern
  9. Prüfungsrelevantes:
    • Fokus auf die fünf Kernpunkte zur Navigation (Standort, Route, Ankunft etc.)
    • Kenntnis über Dimensionen & Reifegradstufen
    • Fähigkeit, Ziele klar und messbar zu formulieren
  10. Zusätzlicher Hinweis:
    Tools wie ChatGPT können in der Praxis unterstützend beim Scoring, der Zieldefinition und bei der Strategieentwicklung eingesetzt werden – allerdings bleibt die menschliche Erfahrung und Intuition essenziell.

Datenstrategie & Datenmanagement für KI 10.11.2025

Carsten Wittmann (KI-Compliance) und Stefan Weimar zeigen in diesem fokussierten Training, wie du Datenlandschaften KI-ready machst… praxisnah, verständlich und direkt anwendbar.Am Ende bist du in der Lage, Datenlandschaften bei Kunden strukturiert zu bewerten, konkrete Handlungsempfehlungen abzuleiten und bist optimal vorbereitet auf die TÜV-Prüfung zum KI-Transformationsmanager.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

In dieser fokussierten Trainingseinheit geben die Experten Carsten Wittmann und Stefan Weimar einen tiefgehenden Einblick in das Fundament jeder erfolgreichen KI-Transformation: die Datenstrategie und das Datenmanagement.

Schon zu Beginn wird deutlich: Wer KI wirkungsvoll einsetzen will, muss seine Daten im Griff haben. Saubere, aktuelle und zugängliche Daten sind Grundvoraussetzung… unabhängig davon, ob diese aus einem klassischen ERP-System, aus Excel-Listen oder einem modernen Data Lake stammen.

Zentrale Inhalte des Trainingscalls:

Warum Datenqualität, Datenzugriff und Governance die entscheidenden Faktoren sind, um KI-Projekte überhaupt möglich zu machen.

Was sind Data Warehouse und Data Lake?
Anhand eingängiger Analogien wie „Werkstattregal vs. Fotoschublade“ wird erklärt, wann welches Konzept sinnvoll ist – und warum Unternehmen in der Praxis oft beides kombinieren (Stichwort: Data Lakehouse).

Governance & Verantwortlichkeiten klar regeln:
Wer ist Data Owner (Hausbesitzer), wer ist Data Steward (Hausmeister)? Nur mit klaren Zuständigkeiten lassen sich Datenschutz, Qualitätssicherung und Zugriffskontrollen effektiv umsetzen.

Zugriffskontrolle durch RBAC – Role-Based Access Control:
Nicht die Person bekommt Rechte, sondern die Rolle. Damit wird das DSGVO-konforme Need-to-know-Prinzip strukturiert umsetzbar.

Die vier Metriken zur Datenqualität:
Aktualität, Konsistenz, Vollständigkeit und Korrektheit. Und welche dieser Aspekte sich automatisiert überprüfen lassen – und welche nicht.

Datenkataloge & Lineage:
Wie ein Inventar für eure Datenstruktur helfen kann, Überblick und Kontrolle zu behalten – besonders für KI-Projekte oder bei DSGVO-Anfragen.

Praxisbeispiel „Lieferstatus-Chatbot“:
Ein konkreter Quick-Check mit fünf Kernfragen zur Bewertung der Datenreife. Ergebnis: Ohne klare Rollen, aktuelle Daten und Zugriffskontrollen ist KI-Einsatz nicht tragfähig.

DSGVO-Recap:
Vier zentrale Prinzipien (Zweckbindung, Rechtsgrundlage, Datenminimierung, Privacy by Default) und wie diese in Governance und KI-Projekte integriert werden müssen.

Erfahrungsaustausch & Live-Q&A:
Teilnehmer teilen ihre Herausforderungen aus der Praxis – etwa mit der Identifikation von Data Ownern in dynamischen Organisationen.

Das Training liefert nicht nur Wissen für die Praxis, sondern bereitet zielgerichtet auf die TÜV-Prüfung zum KI-Transformationsmanager vor – inklusive Mini-Glossar, Checklisten und Prüfungsfallen.

Didaktik / Train-the-Trainer – Aufzeichnung 05.11.2025 

Das Modul „Train-the-Trainer“ vermittelt, wie man KI-Trainings und -Workshops wirkungsvoll konzipiert – mit dem Ziel, echte Transformationen im Unternehmen zu ermöglichen. Im Fokus steht, wie Inhalte nachhaltig vermittelt, Teilnehmende aktiviert und Formate abwechslungsreich und praxisnah gestaltet werden.

Teil 01

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Teil 02

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Struktur und Inhalte im Detail

Einstieg und Haltung

  • Workshops und Trainings sollen begeistern und echten Mehrwert stiften.
  • Ein klar strukturierter Einstieg ist essenziell: Teilnehmer aktivieren, den Rahmen setzen, Legitimation zeigen, „Warum“ klären.
  • Die ersten Minuten entscheiden über den Verlauf des gesamten Formats.
  • 11 Einstiegselemente wurden vermittelt, z.B. Gruppenaktivierung, Agenda vorstellen, Rahmenbedingungen kommunizieren, Wertevereinbarungen („Code of Honor“) treffen.

Unterschied zwischen Training und Workshop

  • Training: Wissenstransfer steht im Vordergrund, Fokus liegt auf dem Trainer.
  • Workshop: Die Gruppe steht im Zentrum, der Facilitator hält den Raum für kollektives Lernen und Transformation.
  • Sichtbarer Rollenwechsel zwischen Moderator und Inputgeber wird empfohlen (z. B. „Themenhut“ aufsetzen).

Gestaltung von Micro-Learning-Einheiten

  • Einsatz des KARL– oder KLAR-Prinzips:
    • Kontext schaffen
    • Aktivierung (optional vorgezogen oder nachgestellt)
    • Reflektieren
    • Lehren (Wissen vermitteln)
  • Jede Micro-Unit braucht ein klares Lernziel und einen Transfer in die Praxis.
  • Lernziele müssen realistisch in 5–15 Minuten vermittelbar sein.

Bloom’sche Taxonomie

  • Sechs Stufen des Lernens: Wissen – Verstehen – Anwenden – Analysieren – Bewerten – Erschaffen.
  • Ziel ist, Lernprozesse so zu gestalten, dass Teilnehmende zur höchsten Ebene geführt werden: eigene Lösungen erschaffen.
  • Beispielhafte Anwendung auf KI-Themen (z. B. Einsatz von ChatGPT, ethische Fragestellungen).

Methoden zur Aktivierung von Teilnehmern

  • Think – Pair – Share: Nachdenken, Austausch zu zweit, Teilen im Plenum.
  • Fishbowl-Diskussion: Rotierender Austausch im inneren Kreis.
  • Live-Quiz via Mentimeter: Interaktiv Meinungen abfragen, Einstieg ins Thema oder Check des Vorwissens.

Storytelling und Metaphern

  • Komplexe Inhalte werden durch persönliche Geschichten oder narrative Strukturen greifbar.
  • Varianten: Heldenreise, Vorher-Nachher-Geschichten, STAR-Methode (Situation – Task – Action – Result).
  • Metaphern als kraftvolle Unterstützung, unterstützt durch Custom GPT für passende Vorschläge.

Feedback geben mit gewaltfreier Kommunikation

  • Feedback ist ein zentrales Instrument für Entwicklung und sollte immer:
    1. Auf Beobachtungen beruhen,
    2. Gefühle benennen,
    3. Bedürfnisse ausdrücken und
    4. Bitten formulieren.
  • Kein Vorwurf, keine Bewertung der Person – nur Verhalten oder Aussagen werden adressiert.

Blended Learning & Produktgestaltung

  • Aufbau modularer, multimodaler Formate wird empfohlen: Kombination aus Offline-, Online-, Selbstlern- und Coaching-Elementen.
  • Fokus auf „Wert gegen Geld“ statt „Zeit gegen Geld“.
  • Beispiele: Onboarding-Videos, Live-Workshops, Lernnuggets, Nachbereitungs-Coachings, Abschluss-Events.

Checklisten & Toolboxen

  • Teilnehmer erhalten mehrere unterstützende Tools:
    • Checkliste zur Konzeption von Micro-Learnings
    • Lernzielgenerator zur Bloom’sche Taxonomie
    • Toolbox für Workshop-Aktivierungen (inkl. Mentimeter-Fragen, Fishbowl, Think–Pair–Share etc.)

Praktische Anregungen aus dem Teilnehmeraustausch

  • Vielfältige Einstiegsformate wurden geteilt, z.B. „Zwei Wahrheiten, eine Lüge“, Stimmungsabfrage per Tieranalogie, Steckbriefe, Bewegungsspiele.
  • Mentale Einstimmung und Präsenz durch eigene Routinen (Musik, Atemübungen, Power-Posing).
  • Reflexionsphasen bewusst einsetzen, um Tiefgang zu erzeugen.

Zusätzliche Learnings & Impulse

  • Klarheit in der eigenen Rolle ist entscheidend für Führung im Workshop.
  • Umgang mit schwierigen Situationen (z. B. Online-Trainings mit suboptimaler Technik) erfordert bewusste Vorab-Kommunikation, eventuell Co-Facilitator vor Ort.
  • Flexibles Anpassen von Formaten an Dauer, Teilnehmerzahl und Zielgruppe.

Low-/No-Code Automation & Tool-Landscape – Aufzeichnung 03.11.2025 

In diesem Trainingscall geht es um den zentralen Baustein für die KI-Transformation: Automatisierung. Der Fokus liegt auf Low-Code- und No-Code-Plattformen, Workflow-Logiken, Tool-Vergleichen, Risiken sowie auf dem Aufbau skalierbarer Prozesse mit Mensch-in-der-Schleife-Ansätzen.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Zentrale Inhalte:

  • Automatisierung als Fundament für KI: Ohne durchdachte, automatisierte Prozesse ist KI nicht skalierbar einsetzbar. Zunächst steht das manuelle Prozessverständnis im Vordergrund.

  • Werkzeuge & Tools im Vergleich:

    • Zapier, Power Automate, Make, N8n, Node-RED

    • Unterschied zwischen Low-Code (leichte Programmierung möglich) & No-Code (komplett visuell)

  • Workflow-Grundlagen & Architektur:

    • Trigger → Filter → Action → Router → Konnektoren

    • Fehlerhandling, Monitoring, Logging als essenzielle Bestandteile

  • Risiken und typische Anti-Patterns:

    • Schatten-IT, unverschlüsselte Daten in der Cloud, unsichere Konnektoren, fehlende Überwachung

    • Gefahren durch Copy-Paste-Workflows statt flexibler, skalierbarer Lösungen

  • Praxisbeispiele mit N8n:

    • Automatisierte Verarbeitung von Dateien, E-Mails, Transkripten (z. B. Hady), Blog-Content-Generierung mit KI-Unterstützung

    • Einsatz von Codenotes für individuelle Logiken & Fehlerprüfungen

    • Integration von Human-in-the-Loop zur Kontrolle

  • Technische Live-Demo: Aufbau, Ausführung und Fehlererkennung in einem exemplarischen Workflow-Prozess (Datei wird über LamaPass analysiert, Ergebnis gespeichert)

  • TÜV-Prüfungsvorbereitung:

    • Verständnis zentraler Begriffe: Trigger, Action, Konnektor, End-to-End-Automatisierung, Anti-Pattern

    • Multiple-Choice-Struktur (keine Freitextfelder), Fokus auf Begriffswissen und Prozessverständnis

  • Erweiterte Diskussionen & Community-Impulse:

    • Erfahrungen und Mini-Projekte (z. B. Kalender-Sync, Transkriptverarbeitung)

    • Vorstellung eines komplexen Vibe-/Hybrid-Coding-Workflows

    • Empfehlungen zu Tools wie NotebookLM und Quizsystemen zur Prüfungsvorbereitung

Prozessanalyse & Automatisierungsberatung – Aufzeichnung 22.10.2025

In diesem Modul wurde praxisnah vermittelt, wie Unternehmen Prozesse analysieren, bewerten und gezielt für KI-basierte Automatisierung vorbereiten können. Carsten Wittmann, erfahrener Lean Six Sigma- und Compliance-Experte, führte durch zentrale Methoden und Denkweisen der Prozessoptimierung – immer mit Bezug zur Anwendung von Künstlicher Intelligenz.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Kerninhalte der Session:

  • Zielsetzung der Prozessanalyse im KI-Kontext:
    KI soll nicht Selbstzweck sein, sondern zur Lösung konkreter Geschäftsprobleme beitragen (z. B. Effizienzsteigerung, Engpassbeseitigung, Kundenzufriedenheit).
  • Grundlagenverständnis:
    Ein Prozess ist eine Abfolge von Aktivitäten, die Wert erzeugen – auch wenn er nicht dokumentiert ist. Reale Prozesse unterscheiden sich oft vom Soll-Zustand. Wichtig: „Go to Gemba“ – analysiere dort, wo Prozesse tatsächlich stattfinden.
  • Methoden zur Prozessdarstellung:
    • SIPOC: High-Level-Übersicht über Prozesse, Stakeholder, Inputs & Outputs.
    • BPMN: Standardisierte, detaillierte Modellierung von Prozessen mit Aktivitäten, Entscheidungen und Swimlanes.
    • Value Stream Mapping (VSM): Zeigt End-to-End-Prozesse, Warte- und Liegezeiten – ideal zur Durchlaufzeitreduktion.
  • Kennzahlen zur Prozessbewertung:
    • Effektivität: Qualität, Termintreue, Kundenzufriedenheit.
    • Effizienz: Bearbeitungszeit, Ressourceneinsatz, First-Pass-Yield, Ausschussquoten.
    • Beispielrechnungen zeigten, wie auch kleine Fehlerquoten sich auf den Gesamterfolg summieren.
  • Verschwendungsarten (Muda) nach Lean-Prinzipien:
    Überproduktion, Defekte, Bestände, Transport, Bewegung, Wartezeit, Overengineering – als Ansatzpunkte zur Optimierung.
  • Wertschöpfungsanalyse:
    Unterscheidung zwischen wertschöpfenden, nicht-wertschöpfenden und wertermöglichenden Prozessschritten – Grundlage für zielgerichtete Prozessverbesserung.
  • KI-Potenzial identifizieren:
    Kombination aus Prozesslabeling (Value Add vs. Non-Value Add) und Automatisierungsgrad (manuell, IT, KI-gestützt) zur Priorisierung.
  • Business Case & ROI-Berechnung:
    • Schritt-für-Schritt-Rechnung eines KI-basierten Automatisierungsprojekts (Rechnungsverarbeitung).
    • Fokus auf Einsparungen, Investitionskosten, laufende Kosten, Amortisationsdauer und ROI.
    • Ergebnis: KI-Projekte können bereits nach wenigen Monaten einen positiven ROI erzielen.
  • Priorisierung von Automatisierungspotenzialen:
    • Quick-Wins vs. strategische Projekte: Matrix aus Aufwand und Nutzen.
    • Einführung einer gewichteten Ideenmatrix zur Projekt-Priorisierung nach Kriterien wie Nutzen, Machbarkeit, Bereitschaft, Risiken.
  • Prozesskultur & Reifegradmodell:
    Prozessdokumentation → Standardisierung → Optimierung → Automatisierung → KIsierung.
    Ziel: Kulturwandel von reaktiver Funktionalorientierung hin zu aktiver Prozessverantwortung.
  • Abschluss:
    Ergänzt wurde die Session durch ein interaktives Tool zur eigenen SIPOC-Erstellung („Morgenroutine“) und ein Miniglossar zur Prüfungsvorbereitung.

KI-Competence Center & Operating Model – Aufzeichnung 15.10.2025

In diesem Trainingscall vermittelt Frank Petermann praxisnah und strukturiert, warum ein KI-Kompetenzzentrum (Center of Excellence, CoE) eine entscheidende Rolle bei der erfolgreichen Einführung und Skalierung von Künstlicher Intelligenz in Unternehmen spielt.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Zusammenfassung des Trainingscalls

Frank beleuchtet, wie Unternehmen von Use-Case-getriebener KI-Einführung hin zu einem strategisch gesteuerten und verantwortungsvoll organisierten Vorgehen gelangen können. Dafür ist das CoE das organisatorische Rückgrat: Es sorgt für Standards, Wissenstransfer, Governance-Vorbereitung, Schulungen, Budgettransparenz und die zentrale Koordination von KI-Vorhaben.

Er zeigt an einem anschaulichen Stadtbeispiel („KI-Stadt Kiel“), was passiert, wenn Unternehmen KI ohne organisatorische Rahmen einführen: Unsicherheit, Schatten-KI und fehlende Kontrolle. Das CoE schafft hier Ordnung, Sicherheit und Orientierung – auch für Führungskräfte.

Ein zentrales Element des Calls ist die Abgrenzung zwischen KI-Governance Board und dem Center of Excellence: Während das CoE operativ wirkt, Projekte vorbereitet und Know-how verteilt, ist das Governance Board das entscheidende Gremium für Richtlinien, Budgets und Entscheidungen.

Weitere wichtige Themen:

  • Vier Säulen eines CoE: Koordinieren, Standardisieren, Befähigen, Skalieren
  • Aufgaben: Portfolio-Management, Standardsetzung, Governance-Readiness, Schulungskonzepte, KPI-Reporting
  • Varianten von Operating Models: Zentrale Einheit, Hub-and-Spoke-Modell, föderierte Modelle
  • Konkrete Rollen und Besetzungsmodelle eines CoE (inkl. IT, Betriebsrat, HR, Einkauf etc.)
  • Diskussionen zu Budgetverantwortung, Mitbestimmung, Schulungsarchitektur und Skalierung

Frank appelliert immer wieder für pragmatische, unternehmensgerechte Lösungen: Auch kleine Firmen sollen mit einem „Kümmerer“ starten können, nicht jedes CoE braucht eine Abteilung. Entscheidend ist, dass Kompetenzen gebündelt, Zuständigkeiten klar definiert und Prozesse etabliert sind.

Zum Abschluss werden mögliche Prüfungsrelevante Themen hervorgehoben und eine Canvas-Vorlage zur Selbsterarbeitung vorgestellt.

Governance, Recht und Ethik – Compliance & sichere KI-Nutzung in Organisationen – Aufzeichnung 13.10.2025

Carsten Wittmann, Compliance-Experte am Koerting Institute und erfahrener Unternehmensberater, führt durch dieses Modul mit Fokus auf rechtssicheren, verantwortungsvollen und ethisch fundierten KI-Einsatz in Organisationen.

Im Mittelpunkt: Datenschutz (DSGVO), Compliance-Strukturen, Risikomanagement und die neue EU-KI-Verordnung (AI Act).

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Einführung & Zielsetzung

Ziel des Moduls: Verständnis, wie Unternehmen KI sicher, DSGVO-konform und ethisch verantwortungsvoll einsetzen können.

Carsten zeigt praxisnah, wie Datenschutz, Governance und Ethik zu Fundamenten einer belastbaren KI-Strategie werden.

Lernziele:

  • Risiken beim KI-Einsatz erkennen und steuern

  • Datenschutz- und Compliance-Pflichten umsetzen

  • Grundlagen des KI-Managements in Organisationen anwenden

Datenschutz & DSGVO im KI-Kontext

Kernprinzipien der DSGVO:
Rechtmäßigkeit, Transparenz, Zweckbindung, Datenminimierung, Speicherbegrenzung, Integrität & Vertraulichkeit, Rechenschaftspflicht.

„Privacy by Design & by Default“:

Datenschutz von Beginn an mitdenken statt nachträglich reparieren.

Projekte werden effizienter, wenn Datenschutz direkt in Entwicklung und Prozesse integriert wird.

Praxisbeispiele:

  • Facebook Pixel: erlaubt nur mit vorheriger Einwilligung

  • Testsysteme: keine Produktivdaten verwenden

  • Zugriffskontrolle: nur für berechtigte Rollen

  • Multifaktor-Authentifizierung & Verschlüsselung als Standards

Auftragsverarbeitung:

Wer Kundendaten im Auftrag verarbeitet, gilt als Auftragsverarbeiter → schriftlicher Auftragsverarbeitungsvertrag (AVV) erforderlich.

Keine Einbindung von Drittanbietern ohne AVV oder klare Zweckbindung.

Rechtsgrundlagen & internationale Datentransfers

Zulässigkeit von Datenverarbeitung:

Nur mit gültiger Rechtsgrundlage nach Art. 6 DSGVO – typischerweise Vertrag, Einwilligung oder berechtigtes Interesse.

Einwilligung:

Muss freiwillig, informiert, eindeutig und widerrufbar sein. Minderjährige unter 16 Jahren benötigen Zustimmung der Eltern.

Datentransfer in Drittländer:

  • Innerhalb der EU: grundsätzlich zulässig

  • USA: nur bei Anbietern mit Data Privacy Framework (DPF)

  • Sonstige Länder: nur mit Standardvertragsklauseln und Transfer Impact Assessment (TIA)

Empfehlung:

Keine personenbezogenen Daten an nicht-zertifizierte KI-Anbieter senden (z. B. Free-Modelle von OpenAI ohne Enterprise-Vertrag).

Datenschutz-Folgenabschätzung & Risikoanalysen

Datenschutz-Folgenabschätzung (DSFA):

Pflicht bei hohem Risiko für Betroffene – etwa bei Profiling, Scoring oder Überwachung.

Bewertung der Risiken, Abwägung von Grundrechten, Maßnahmen zur Risikominderung.

Transfer Impact Assessment (TIA):

Analyse des Schutzniveaus in Drittländern – inklusive Rechtslage, Subdienstleister, technischer und organisatorischer Maßnahmen (TOMs).

EU AI Act – Der neue Ordnungsrahmen für Künstliche Intelligenz

Ziel:

Schutz von Grundrechten, Sicherheit und Vertrauen in KI-Systeme.

Er schafft klare Regeln für Anbieter, Importeure und Anwender von KI in der EU.

Risikoklassifizierung:

  1. Verbotene KI: Social Scoring, Massenüberwachung, manipulative Systeme

  2. Hochrisiko-KI: Medizin, Justiz, Kreditvergabe, kritische Infrastrukturen

  3. Begrenztes Risiko: Transparenzpflicht (z. B. Chatbots, Deepfakes)

  4. Minimales Risiko: z. B. Spamfilter, Übersetzungstools

Pflichten für Unternehmen & Entwickler

Für Hochrisiko-KI gelten:

  • Kontinuierliches Risikomanagement

  • Daten- und Modell-Governance

  • Technische Dokumentation & Logging

  • Transparenz & Benutzerinformation

  • Human in the Loop / On the Loop / In Command

  • Cybersecurity & Robustheit

Meldepflichten:

Schwerwiegende Vorfälle (z. B. Grundrechtsverletzungen, Gesundheitsschäden) müssen binnen 15 Tagen gemeldet werden.

Strafen:

  • Verbotene KI: bis 7 % des Jahresumsatzes

  • High-Risk-Verstöße: bis 15 Mio € oder 3 % Umsatz

Ethik, Bias & Governance

Ethik & Fairness:

Vermeidung von Diskriminierung, Transparenz über Entscheidungslogiken, Sicherstellung menschlicher Kontrolle.

Bias-Mitigation:

Ausgewogene Datensätze, kontinuierliches Monitoring und Dokumentation.

Governance-Strukturen:

  • AI Officer / Compliance Manager: Koordination, Monitoring, Reporting

  • Ethikboard: Bewertung von Fairness, Verantwortung, gesellschaftlichem Impact

  • Governance Board: Strategische Aufsicht & Schnittstelle zur Geschäftsführung

KI-Kompetenz & Schulung

Der AI Act fordert „angemessene KI-Kompetenz“ – keine formale Zertifizierung, aber nachweisbare Schulung.

Schulungen sollten Rolle, Risiko und Use Case berücksichtigen.

Fehlende Kompetenz kann bei Verstößen zu höheren Bußgeldern führen.

Schluss & Quintessenz

Datenschutz, Ethik und Governance sind keine Hürden, sondern Voraussetzung für vertrauenswürdige KI.

Carsten zeigt klar:

„KI darf kein blinder Automatismus sein – Verantwortung bleibt immer menschlich.“

KI-Modelle & Technologien – Text, Code & Kommunikation – Aufzeichnung 08.10.2025

Stefan Weimar und Peter Raehse vermitteln in dieser Session praxisnah, wie KI im Coding (Explain-Then-Write, Unit Tests, Linter) und in Wissenssystemen via RAG sicher eingesetzt wird. Gezeigt werden Foundation- vs. Code-Modelle, Guardrails, Kontextmanagement und Tokenökonomie. Ziel: KI produktiv, nachvollziehbar und DSGVO-konform nutzen – mit Fokus auf Datenhoheit, Effizienz und menschlicher Verantwortung.

 
 

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Coding & RAG-Systeme – Praktische Anwendung von KI im Unternehmenskontext – Aufzeichnung 08.10.2025

Stefan Weimar und Peter Raehse führen durch eine technisch fundierte, praxisnahe Session zu KI-gestütztem Coding und RAG-Systemen („Retrieve, Augment, Generate“) – ein zentraler Baustein für die sichere Nutzung interner Unternehmensdaten in Chatbots und Codeprozessen.

Anhand von Live-Demos mit ChatGPT, GitHub Copilot und Anything LLM zeigen sie, wie KI-Codeassistenz, Testautomatisierung und Wissenssysteme in Unternehmen eingesetzt werden, ohne Kontrolle und Datenhoheit zu verlieren. Dabei wird Theorie mit konkreten Anwendungsbeispielen aus Softwareentwicklung, Automatisierung und Wissensmanagement verbunden.

Inhalte & Schwerpunkte der Session

Einführung & Zielsetzung

  • Rückblick auf Modul 1 (Grundlagen der LLMs), Einstieg in Modul 2 mit Fokus auf Coding mit KI und RAG-Systeme.

  • Ziel: Verständnis, wie KI produktiv, sicher und nachvollziehbar in Entwicklungs- und Wissenssystemen eingesetzt wird.

  • Stefan bringt die theoretische Struktur, Peter demonstriert die technische Umsetzung in Echtzeit.

Modelle & Anwendungslogik

  • Unterschied zwischen Foundation Models (Allrounder wie GPT, Claude, Gemini) und Code Models (Spezialisten wie Mistral Codestral, DeepSeek Coder).

  • Foundation Models = „Schweizer Taschenmesser“ (breit einsetzbar), Code-Modelle = „Chirurgenskalpell“ (präzise, lokal hostbar, sicher für Firmencode).

  • Entscheidungskriterium: Welches Modell für welchen Zweck?

KI im Coding-Alltag

  • Drei typische Anwendungen: Autocomplete, Kontextvervollständigung, Testgenerierung.

  • Demonstration der Explain-Then-Write-Methode: Erst Logik erklären, dann Code generieren – erhöht Nachvollziehbarkeit und Review-Qualität.

  • Live-Vergleich von ChatGPT vs. GitHub Copilot (Python-Beispiel: Slug-Generator).

  • Bedeutung von Spezifizierung (z. B. Python 3.12), Standards (PEP 8, Clean Code) und Input/Output-Beispielen für stabile Ergebnisse.

  • Unit Tests als Qualitätsanker – KI kann sie generieren, aber menschliches Review bleibt Pflicht.

  • Linter als „Code-Aufräumer“: Sicherstellung von Format, Konventionen und Lesbarkeit im Team.

Key Learnings im Coding-Kontext

  • Sprache & Version angeben.

  • Standards & Linter definieren.

  • Input/Output-Beispiele mitgeben.

  • Explain-Then-Write anwenden.

  • Rahmenbedingungen (z. B. Code-Länge, Bibliotheken) festlegen.

RAG-Systeme & Wissensintegration

  • Einführung in das RAG-Pattern (Retrieve – Augment – Generate):

    • Retrieve: Relevante Inhalte aus Wissensdatenbank abrufen.

    • Augment: Kontextdaten an den Prompt anfügen.

    • Generate: Antwort auf Basis interner Dokumente generieren.

  • Demonstration: Anything LLM mit interner Wissensbasis („KI Scherzartikel GmbH“) im Vergleich zu ChatGPT ohne Kontext.

  • RAG liefert präzise, DSGVO-konforme Antworten… keine Halluzinationen, da Quellen kontrolliert werden.

Technische Aspekte von RAG

  • Chunking: Aufteilung von Dokumenten in sinnvolle Textabschnitte (Chunks) zur besseren Suchgenauigkeit.

  • Vektordatenbanken: Speicherung semantischer Textrepräsentationen zur Relevanzsuche.

  • Guardrails & Systemprompts: Festlegung, welche Themen erlaubt sind, wie Datenschutz gehandhabt wird, wie mit Passwörtern oder sensiblen Daten umgegangen wird.

  • Human in the Loop: Bei Unklarheiten oder sensiblen Themen automatische Übergabe an Menschen.

Kontextmanagement & Tokenökonomie

  • Erklärung des Kontextfensters (Arbeitsspeicher des Modells): Begrenzung verhindert Vergessen und Kostenexplosion.

  • Praxis-Tipps: Regelmäßige Zusammenfassungen, externe Speicherung von Code & Architekturentscheidungen.

  • Kostenbewusstsein: Tokenverbrauch bei API-Nutzung, Effizienz durch reduzierte Chunks und kleinere Modelle.

  • Vergleichsrechnung: Unterschiede von wenigen Euro bis zu mehreren Tausend € jährlich je nach Modell (z. B. GPT Nano vs. Claude Opus).

Multimodalität & Modellwahl

  • Definition: Verarbeitung verschiedener Datentypen (Text, Bild, Audio, Video).

  • Aktuelle Lage: Text/Bild-Modelle (GPT, Claude, Gemini) dominieren; Audio/Video vorrangig bei Gemini.

  • Open-Source-Modelle sind oft textbasiert – Lizenzprüfung und Leistungsabgleich sind Pflicht.

Sicherheit, Datenhoheit & Compliance

  • RAG ermöglicht volle Kontrolle über Unternehmenswissen – keine Datenübertragung an Dritte.

  • Wichtig: Offenlegung von Trainingsdaten, Bias-Prüfung, DSGVO-Konformität.

  • Guardrails und Passwortfilter als Sicherheitsbarriere.

Fehlannahmen & Praxischeck

  • KI schreibt nicht fehlerfreien Code.

  • RAG findet nicht automatisch die besten Dokumente.

  • Mehr Kontext ist nicht immer besser.

  • Regel: KI schlägt vor – der Mensch entscheidet.

Schluss & Reflexion

  • Wiederaufnahme der Einstiegsbeispiele:

    • Chaos im Code: durch Explain-Then-Write, Unit Tests und Linter vermeidbar.

    • Vergesslicher Chatbot: durch RAG, Kontextsteuerung und Guardrails beherrschbar.

  • Kernaussage: KI ist Werkzeug, kein Autopilot. Kontrolle, Review und Verantwortung bleiben menschlich.

Projekt- & Change- Management für KI – Aufzeichnung 01.10.2025

In dieser Session zeigt Thomas Brunner, wie KI-Projekte durch gezieltes Projektmanagement, agile Methoden und professionelles Change Management erfolgreich umgesetzt werden. Dabei wird deutlich: 95 % der KI-Projekte scheitern nicht an der Technik – sondern an Führung, Integration und Akzeptanz. Anhand praxisnaher Beispiele werden zentrale Frameworks wie CRISP-DM, Scrum, Design Thinking und AI Design Sprints erläutert und in Beziehung gesetzt. Zusätzlich lernen die Teilnehmer, wie sie Stakeholder professionell einbinden, Widerstände abbauen und Schulungsmaßnahmen gezielt einsetzen – inklusive interaktiver Gruppenübung mit Miro.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Inhalte und Struktur der Session

Fokus: Agiles Projektmanagement, Change Management und Stakeholder-Kommunikation für erfolgreiche KI-Projekte

Dozent: Thomas Brunner – Unternehmensberater, Change- und Prozessexperte mit 20+ Jahren Erfahrung

Themenübersicht:

  1. Herausforderung in KI-Projekten: Nur 5 % erzielen messbaren Nutzen – häufige Ursachen sind mangelndes Projekt- und Change-Management
  2. Agilität als Schlüssel: Warum iterative, nutzerzentrierte Ansätze (Scrum, Design Thinking) für KI-Projekte essenziell sind
  3. CRISP-DM Framework: Standardprozess für datengetriebene Projekte – von Business Understanding über Data Preparation bis Deployment
  4. Scrum Essentials: Rollen (Scrum Master, Product Owner, Development Team), Artefakte (Backlogs, Increments, Definition of Done), Events (Sprint Planning, Daily, Review, Retrospective)
  5. Design Thinking: Nutzerzentrierung, kreative Lösungsfindung, Prototyping und Testen – auch mit KI als Sparringspartner
  6. AI Design Sprint & Google Sprint: Strukturierte Formate zur schnellen Entwicklung KI-gestützter Lösungen mit Praxisbeispiel (Onboarding-Prozess)
  7. Change Management:
  • Widerstände erkennen & überwinden
  • Stakeholder-Analyse & -Matrix (Einfluss vs. Interesse)
  • Kommunikationsplanung mit dem WISE-Modell (What’s in for me, Impact, Safety, Evidence)
  • Schulungsplanung & -formate für nachhaltigen Kompetenzaufbau

Praxis-Elemente:

  • Gruppenarbeit in Breakout-Rooms mit Miro: Stakeholder-Matrix, Kernbotschaften & Kommunikationsplanung für Predictive-Maintenance-Use Case im Maschinenbau
  • Diskussion zu realen Herausforderungen bei Führung, Widerstand & agilen Missverständnissen
  • Tipps zur Anwendung der Methoden in kleinen und großen Projekten

Ziel der Session

Vermittlung praxisnaher Frameworks zur strukturierten Umsetzung von KI-Projekten mit hoher Nutzerakzeptanz. Teilnehmer:innen lernen, wie sie agile, kreative und menschzentrierte Ansätze miteinander kombinieren, Stakeholder einbinden und Veränderung strategisch gestalten – ideal zur Vorbereitung auf die TÜV-Zertifizierung.

Fragen & Diskussion im Call

  • Wie lassen sich klassische Projektmanagement-Elemente mit agilen Frameworks kombinieren?
    → Flexibler Einsatz je nach Projektgröße und Zielsetzung – Dogmatismus vermeiden
  • Was sind typische Stakeholder bei KI-Projekten?
    → Neben GF und IT auch Betriebsrat, Operatoren, Nutzer – Einfluss & Interesse analysieren
  • Wie überzeuge ich Führungskräfte von KI-Initiativen?
    → Frühzeitig einbinden, Nutzen konkret benennen, Sorgen ernst nehmen
  • Welche Schulungsformate eignen sich?
    → Kombination aus synchron/asynchron, individuell/gruppenbasiert, on/offline

Organisatorische Hinweise zur Session

  • Arbeitsmaterialien und Templates (z. B. Miro Board für AI Design Sprint) stehen digital zur Verfügung
  • Die Session ist Bestandteil der TÜV-Vorbereitung
  • Die gezeigten Methoden können je nach Projektumfang skaliert oder vereinfacht angewendet werden

KI-Modelle & Technologien – Bild, Video & Kreation –  Aufzeichnung 24.09.2025

Nicole Angela Buck gibt einen umfassenden und praxisnahen Überblick über den Einsatz kreativer KI-Tools im Bereich Bild- und Videogenerierung. Anhand eigener Beispiele und Erfahrungen zeigt sie, wie KI-gestützte Tools wie HeyGen, Flux, Fal AI, Midjourney, Gamma und weitere Plattformen effizient für die Content-Kreation, Markenkommunikation und Präsentation genutzt werden können.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Inhalte & Schwerpunkte der Session

Einführung & Haltung zur KI:

  • Die Dozentin nutzt KI-Tools intensiv aus ihrer Design- und Agenturpraxis.
  • Sie vergleicht KI mit einem „Lego-Baukasten“: Zunächst wird nach Anleitung gearbeitet, später freier und individueller.
  • Die Entwicklung in KI-Tools ist rasant – Nutzer sollten mit Veränderung und Unsicherheit umgehen lernen.

Tool-Strategie & Auswahl:

  • Wichtig ist eine bewusste Tool-Auswahl: Nicht alles ausprobieren, sondern Tools nutzen, die zum eigenen Arbeitsalltag passen.
  • Unterscheidung zwischen Tools zur Bildgenerierung, Videoproduktion, Präsentationsgestaltung und Social Media Automation.
  • Tools wie ChatGPT und Claude sind eher textlastig; HeyGen und Flux für Video- und Bild-Avatare.

Avatare & Bildgenerierung:

  • Eigene Avatare können rechtssicher und konsistent über Plattformen wie Flux und Fal AI erstellt werden.
  • Nicole empfiehlt Fal AI + Flux für hochwertige Porträts mit konsistentem Stil.
  • Für realistische oder stilisierte Bilder empfiehlt sie Midjourney, mit Fokus auf Qualität durch präzises Prompting.

Rechtliche Aspekte & Ethik:

  • Keine Nutzung realer Personen ohne deren Zustimmung – egal ob Mitarbeiter oder Prominente.
  • Lizenzen & Rechte müssen geklärt werden, auch bei gekauften Avataren oder Stockmaterial.
  • Bei KI-generierten Inhalten: Transparenz, schriftliche Freigaben und dokumentierte Prozesse sind essenziell.

Qualitätskontrolle & Marken-Integration:

  • Bilder sollten auf Authentizität, Stil, Konsistenz, Zielgruppenrelevanz und CI-Konformität geprüft werden.
  • Beispielhafte Szenarien sensibilisieren für rechtliche Grauzonen, etwa bei der Nutzung bekannter Marken oder Stile (z. B. Apple, Van Gogh).
  • Dokumentation der Prompts und Seeds empfohlen – vor allem für Kundenprojekte.

Midjourney & Prompting:

  • Midjourney als vielseitiges Tool mit umfangreichen Anpassungsmöglichkeiten (Stil, Format, Lichtstimmung etc.).
  • Mit Seeds, Style References und Custom GPTs lässt sich die Konsistenz in Bildserien gezielt steuern.
  • Bildqualität wird durch iterative Prompt-Anpassung stetig verbessert.

Gamma für Präsentationen & Social Media:

  • Gamma ist ein vielseitiges Präsentationstool mit KI-Funktionalität, um Inhalte effizient zu visualisieren.
  • Empfehlungen:
    • Erst mit LLM (z. B. ChatGPT) die Inhalte vorbereiten, dann in Gamma importieren.
    • Gamma eignet sich besonders gut zur Verdichtung und visuellen Aufbereitung bestehender Texte.
  • Auch Social-Media-Formate können über Gamma erzeugt werden.
  • Einschränkungen: Wenig Kontrolle über finale Designs, insbesondere im Präsentationsmodus (z. B. Logos, CI).

Praxistipps:

  • Dokumentation: Prompts, Seeds und Freigaben zu KI-generierten Inhalten sichern.
  • Brand-Guidelines einhalten: Farben, Fonts, Bilder konsistent verwenden.
  • Kritische Prüfung bei Bildinhalten, Zielgruppenwirkung und rechtlicher Nutzbarkeit.
  • Nachvollziehbare Freigabeprozesse mit Kund*innen oder im Unternehmen aufsetzen.
  • Verantwortungsvoll handeln – ethisch, transparent und rechtlich abgesichert.

 

Grundlagen generativer KI und gezielte Steuerung von LLMs – Aufzeichnung 17.09.2025

In diesem Call zeigen unsere Experten Peter Raehse und Stefan Weimar, wie du große Sprachmodelle präzise steuerst und zuverlässige Ergebnisse erzielst… von Tokens und Kontextfenstern bis zu Temperature, Top-P und System-Prompts. Die Session verbindet Grundlagenwissen mit praktischen Demos und zeigt, wie du Halluzinationen, Bias und Fine-Tuning-Alternativen wie RAC sicher einordnest. Perfekt zur Vorbereitung auf die TÜV-Zertifizierung.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Inhalte und Struktur der Session

  • Fokus: Grundlagen generativer KI, zielgerichtete Steuerung von LLMs und Vorbereitung auf die TÜV-Zertifizierung

  • Dozenten:

    • Peter Raehse – KI-Consultant, Experte für intelligente Kommunikation

    • Stefan Weimar – KI-Architekt mit Fokus auf lokale, DSGVO-konforme Systeme

  • Themenübersicht:

    • Unterschiedliche Arten von KI (symbolisch, neuronale Netze, generative KI)

    • Transformer-Architektur und der „Attention“-Mechanismus

    • Tokens und Kontextfenster als Gedächtnis der KI

    • Steuerung durch Temperature und Top-P: Einfluss auf Varianz und Präzision

    • Unterschied zwischen System-Prompt und User-Prompt

    • Few-Shot-Prompting zur Output-Konsistenz

    • Verwendung von JSON zur strukturierten Ausgabe (v.a. in Automationen)

    • Verständnis von Halluzinationen und Bias anhand eindrucksvoller Beispiele

    • Abgrenzung: Prompting vs. Fine-Tuning

    • Einsatz von RAC-Systemen (Retrieval Augmented Generation) als Alternative zum Fine-Tuning

Ziel der Session

  • Vermittlung zentraler Steuerungsmechanismen in LLMs für präzise und verlässliche Ergebnisse

  • Technisches und konzeptionelles Grundverständnis für generative KI vertiefen

  • Vorbereitung auf prüfungsrelevantes Wissen im Rahmen der TÜV-Zertifizierung

  • Differenzierung zwischen verschiedenen KI-Modellen und deren Anwendungsszenarien (Cloud vs. On-Premise, Public vs. Fine-Tuned)

Fragen & Antworten im Call

Können LLMs auch andere Formen generativer KI abdecken?

→ Ja, z. B. auch Audio, Bild, Video – LLMs sind ein Teilbereich der generativen KI.

Was ist der Unterschied zwischen Prompting und Fine-Tuning?

→ Prompting steuert Verhalten dynamisch, Fine-Tuning verändert das Modell dauerhaft – letzteres ist aufwändig, teuer und eher für hochspezialisierte Fälle geeignet.

Wann wird der Playground verwendet?

→ Vor allem bei Automationen zur exakten Steuerung von Temperature, Top-P und JSON-Output – nicht in der regulären ChatGPT-Oberfläche.

Wozu dienen Few-Shot-Prompts?

→ Sie helfen, die Struktur und Qualität der KI-Antworten konsistent und verlässlich zu halten.

Was bewirken System-Prompts?

→ Sie definieren das Verhalten und die Rolle der KI und sind oft wirkungsvoller als Temperature-Einstellungen.

Was ist RAG und wann ist es sinnvoll?

→ Retrieval-Augmented Generation bindet externe Wissensquellen dynamisch ein – ideal für aktuelles Wissen, ohne das Modell anpassen zu müssen.

Was sind Halluzinationen und Bias?

→ Halluzinationen sind plausible, aber falsche Ausgaben. Bias entsteht durch kulturell oder sprachlich verzerrte Trainingsdaten. Beide Effekte sind systemimmanent.

Organisatorische Hinweise zur Session

  • Die gezeigten Tools (OpenAI Playground, Tokenizer etc.) erfordern separate Zugänge und ggf. API-Credits.

  • Live-Demos basierten auf GPT-3.5/4 – in GPT-5 ist die Parametrierung z. T. nicht mehr verfügbar.

  • Alle Inhalte werden aufgezeichnet und in der Academy zur Verfügung gestellt.

  • Zahlreiche praktische Beispiele wurden gezeigt – etwa zur JSON-Generierung, Steuerung von Bedeutung durch System-Prompts, oder Varianzkontrolle durch Parameter.