KI-MasterClass - TÜV Prüfung

... Alle wichtigen Inhalte ...

TÜV Rheinland Zertifizierung

Im Kontext KI-Strategieberater & Manager für angewandte KI-Transformation

Dieser Trainingscall gibt einen tiefen Einblick in die strategische Partnerschaft mit dem TÜV Rheinland und beleuchtet die Hintergründe, Qualitätsmaßstäbe und die Bedeutung einer Personenzertifizierung im stark wachsenden KI-Markt.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
  1. Kontext & Zielsetzung des Calls

Der Call findet mitten im Launch des KI-Strategieberaters statt. Ziel ist es:

  • Transparenz über die TÜV-Zertifizierungen zu schaffen
  • Einordnung im „Zertifizierungs-Dschungel“ zu geben
  • Unterschiede zu anderen Marktangeboten klarzustellen
  • Orientierung für angehende Absolventen zu geben
  • Perspektiven zur Weiterentwicklung der Programme aufzuzeigen

Mit Thomas Schmidt, Produktmanager für Personenzertifizierung beim TÜV Rheinland, wird ein direkter Einblick „behind the scenes“ ermöglicht.

  1. Wie entsteht eine TÜV-Zertifizierung?

Eine TÜV-Personenzertifizierung ist kein Label, das „verliehen“ wird – sie ist das Ergebnis eines mehrstufigen Qualitätsprozesses:

  1. a) Prüfung des Ausbildungsanbieters
  • Reputation und Erfahrung des Instituts
  • Fachliche Expertise (Subject Matter Experts)
  • Didaktik, Methodik und Trainerqualifikation
  • Interaktive Gestaltung (keine reine Videoausbildung)
  • Qualitätssicherung und Weiterentwicklung

Der Anbieter wird „auf Herz und Nieren“ geprüft.

  1. b) Prüfung des Ausbildungskonzepts
  • Klare Lernziele („Kennen“ und „Können“)
  • Strukturierte Curricula
  • Methodische Tiefe
  • Praxisbezug
  • Transparente Prüfungsanforderungen

Gemeinsam wird ein maßgeschneidertes Prüfungsdesign entwickelt.

  1. Unterschied: Teilnahmebescheinigung vs. Personenzertifikat

Ein zentraler Teil des Calls ist die klare Differenzierung:

Teilnahmebescheinigung TÜV-Personenzertifikat
Bestätigung der Anwesenheit Bestätigung geprüfter Kompetenz
Vom Ausbildungsinstitut Von neutraler Instanz
Keine Leistungsprüfung Objektive Prüfung
Geringe Marktdurchschlagskraft Hohe Vertrauenswirkung

Kernbotschaft:
Ein Zertifikat dokumentiert überprüfte Kompetenz – nicht nur Teilnahme.

Gerade im KI-Markt, der von vielen Anbietern geprägt ist, schafft die TÜV-Zertifizierung:

  • Vertrauenswürdigkeit
  • Markttransparenz
  • Differenzierung
  • Türöffner-Effekt

Aber: Es ist kein Auftragsgarant – sondern ein kraftvolles Fundament.

  1. Die beiden Programme im Vergleich

Manager für angewandte KI-Transformation

Level: Intermediate
Fokus: Umsetzung & Integration
Prüfung:

  • 35 Multiple-Choice-Fragen
  • Bestehensquote: 60 %
  • Digitale, beaufsichtigte Prüfung

Ziel: Werkzeuge anwenden und KI ganzheitlich im Unternehmen implementieren.

KI-Strategieberater

Level: Advanced
Fokus: Strategieentwicklung & Beratung
Prüfung dreiteilig:

  1. Hausarbeit
  2. Multiple-Choice-Test
  3. Mündliche Prüfung

Ziel: Eigenständige Entwicklung von KI-Strategien und Beratungsfähigkeit.

  1. Prüfungsrealität & Erfolgsfaktoren

Wichtige Hinweise aus der Praxis:

  • Erste Antworten sind oft richtig – nicht aus Nervosität „kaputt korrigieren“
  • Fragen vollständig durchgehen und markieren
  • Lernteams bilden
  • Mitschriften austauschen
  • Begleitmaterialien intensiv nutzen
  • Keine „Ich probiere es mal“-Mentalität

Erfolg entsteht durch strukturierte Vorbereitung – nicht durch Zufall.

  1. Rezertifizierung (nach 3 Jahren)

Nachweise erforderlich:

  • 16 Unterrichtseinheiten fachrelevante Weiterbildung
  • Selbstauskunft über berufliche Tätigkeit im Bereich KI
  • Digitale Einreichung
  • Gebühr: 195 €

Keine erneute Prüfung.

Die Programme sind bewusst so aufgebaut, dass prüfungsrelevante Inhalte stabil bleiben (z. B. Grundlagen von LLMs), während nicht prüfungsrelevante Module kontinuierlich weiterentwickelt werden.

  1. Strategische Weiterentwicklung: Instant Prototyping

Ein zukunftsweisender Teil des Calls ist die Integration von:

  • Claude Code
  • KI-gestütztem Prototyping
  • Automatisierungskompetenz
  • Realtime-Meeting-Assistenz
  • KI-Strategie-Sprint

Vom Rapid Prototyping zum Instant Prototyping:
Während der Kunde noch diskutiert, entsteht bereits ein funktionierender Prototyp.

Kernbotschaft:
Die Kombination aus
Fachexpertise + Prozessbegleitung + KI-Kompetenz + Instant Prototyping
schafft einen massiven Wettbewerbsvorteil.

  1. Meta-Ebene: Change vs. Run

Zertifizierte Programme brauchen:

  • Initiale Entwicklungsarbeit („Change the Organization“)
  • Kontinuierliche Weiterentwicklung („Run the Organization“)

Qualität ist kein einmaliger Akt, sondern ein dauerhaft gepflegtes System.

  1. Haltung & Mission

Was deutlich spürbar wird:

  • Qualität vor Geschwindigkeit
  • Tiefe statt Hype
  • Substanz statt Marketing-Versprechen
  • Exzellenz als Anspruch

Die TÜV-Partnerschaft ist kein Marketinginstrument – sondern ein Qualitätsversprechen.

Fazit

Dieser Trainingscall zeigt eindrucksvoll:

  • Wie seriöse Personenzertifizierung entsteht
  • Warum sie im KI-Markt ein starkes Differenzierungsmerkmal ist
  • Wie Prüfungen aufgebaut sind
  • Wie man sich optimal vorbereitet
  • Wie Weiterentwicklung strategisch gedacht wird
  • Und wie durch Instant Prototyping eine neue Beratungsdimension entsteht

Wer hier durchgeht, bekommt nicht nur ein Zertifikat –
sondern geprüfte Kompetenz, strukturiertes Know-how und einen echten Wettbewerbsvorteil.

 

Zusammenfassung

Partnerschaft mit TÜV Rheinland: Qualitätssicherung, mehrstufiger Zertifizierungsprozess, klare Differenz zwischen Teilnahmebescheinigung und Personenzertifikat. Zwei Programme (Intermediate & Advanced) mit unterschiedlichen Prüfungsformaten. Transparente Kriterien, 3-jährige Rezertifizierung. Strategische Weiterentwicklung durch Instant Prototyping. Ziel: geprüfte KI-Kompetenz, Differenzierung im Markt und nachhaltiger Wettbewerbsvorteil.

Infosession für den Start der Kohorte vom 18.02.2026

In diesem Trainingscall steht die Ausbildung zum Manager bzw. zur Managerin für angewandte KI-Transformation mit TÜV-Rheinland-Zertifizierung im Mittelpunkt. Der Call dient dazu, Transparenz zu schaffen, Vertrauen aufzubauen und einen realistischen Einblick in Inhalte, Ablauf, Nutzen und Prüfungsanforderungen der kommenden Kohorte zu geben, die am 18. Februar startet.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Zu Beginn wird klar eingeordnet, dass diese Ausbildung Teil der KI-Masterclass ist, während die TÜV-Zertifizierung eine optionale, aber hoch relevante Zusatzqualifikation darstellt. Besonders hervorgehoben wird das neu entwickelte Kompendium: ein professionell lektoriertes Werk mit über 300 Seiten, das sämtliche Module verdichtet abbildet und ab sofort fester Bestandteil der Ausbildung ist. Dieses Kompendium stellt die inhaltliche Basis für Lernen, Wiederholung und Prüfungsvorbereitung dar.

Ein zentrales Signal des Calls ist die außergewöhnlich hohe Erfolgsquote der ersten Kohorte: Von rund 40 Teilnehmenden haben 39 die TÜV-Prüfung im ersten Anlauf bestanden. Diese Quote wird auch vom TÜV Rheinland selbst als herausragend bewertet. Die Kombination aus Tiefe der Inhalte, didaktischer Qualität, Community-Unterstützung und strukturierter Prüfungsvorbereitung wird als Alleinstellungsmerkmal im gesamten DACH-Raum positioniert.

Mehrere Absolventinnen und Absolventen berichten aus erster Hand über ihre Erfahrungen. Besonders betont werden:

  • der ganzheitliche Ansatz (Technik, Strategie, Recht, Ethik, Datenschutz, Management),
  • die Niedrigschwelligkeit trotz Tiefe, auch für Nicht-Techniker,
  • die hohe Qualität der Trainerinnen und Trainer,
  • sowie der enorme Mehrwert der Community, in der Lerntools, Custom GPTs, Prüfungssimulationen und gegenseitige Unterstützung selbstverständlich waren.

Die Ausbildung umfasst 16 Module, gegliedert in vier große Bereiche:

  1. Grundlagen der generativen KI und Large Language Models
  2. Daten, Automatisierung und Tool-Landschaften
  3. Strategie, Management, Governance, Recht, Ethik und Sicherheit
  4. Praxis, Anwendung, Custom Agents, Fine-Tuning, Capstone-Projekte und Trainingsdidaktik

In Summe handelt es sich um 24 Stunden strukturierte Ausbildung, davon 12 Live-Module und 4 Selbstlern-Module, ergänzt durch begleitende Materialien und Lernhilfen. Die Module sind bewusst nicht streng aufeinander aufbauend, um flexible Teilnahme zu ermöglichen.

Die TÜV-Prüfung wird transparent erläutert:

  • Online, Multiple Choice
  • 35 Fragen in 60 Minuten
  • Bestanden ab 24 korrekt beantworteten Fragen
  • Deutschsprachig, ohne Hilfsmittel
  • Proctoring mit Identitätsprüfung

Das erworbene Zertifikat ist international anerkannt, drei Jahre gültig und kann unkompliziert rezertifiziert werden. Zusätzlich erhalten Absolventinnen und Absolventen ein offizielles TÜV-Prüfsiegel mit QR-Code, das öffentlich verifizierbar ist und einen klaren Wettbewerbsvorteil darstellt – insbesondere im deutschen Markt, der stark zertifikatsgetrieben ist.

Ein weiterer wichtiger Aspekt: Die Ausbildung ist auch ohne Prüfungsabsicht wertvoll. Wer jedoch alle Inhalte durchläuft, entwickelt in der Regel automatisch den Anspruch, die Zertifizierung ebenfalls abzulegen. Die Anmeldung zur Prüfung ist bis 31. März möglich, sodass Interessierte zunächst mehrere Module erleben können, bevor sie sich verbindlich entscheiden.

Abschließend wird deutlich: Diese Ausbildung steht für AI Literacy im besten Sinne – also die Fähigkeit, künstliche Intelligenz fachlich fundiert, rechtlich sauber, ethisch reflektiert und organisatorisch wirksam einzusetzen. Sie richtet sich an alle, die KI nicht nur nutzen, sondern verantwortungsvoll gestalten und glaubwürdig vertreten wollen.

Zusammenfassung

Vorstellung der TÜV-zertifizierten Ausbildung „Manager für angewandte KI-Transformation“ als Teil der KI-Masterclass. Hervorgehoben werden Curriculum, Kompendium, 16 Module, hohe Bestehensquote, internationale Anerkennung, Community-Support und praxisnahe Inhalte. Die TÜV-Zertifizierung bietet einen klaren Wettbewerbsvorteil durch überprüfbare, verantwortungsvolle KI-Kompetenz.

 

Train the Trainer – Wirksame Gestaltung von Workshops und Trainings – Aufzeichnung 25.03.2026

In diesem Trainingsmodul vermittelt Kathrin Friedl einen klar strukturierten und praxisnahen Ansatz, um Trainings und Workshops so zu konzipieren, dass sie nicht nur Wissen vermitteln, sondern echte Transformation bei den Teilnehmenden auslösen.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Der Einstieg als entscheidender Erfolgsfaktor

Der Beginn eines Workshops bestimmt maßgeblich dessen Wirkung. Mit einer 11-stufigen Struktur lernst du, wie du:

  • sofort Verbindung zur Gruppe aufbaust
  • alle Teilnehmenden aktivierst
  • Nutzen und Erwartungen klar kommunizierst
  • einen sicheren und wertschätzenden Rahmen schaffst

So entsteht von Anfang an eine produktive Lernatmosphäre.

Klare Rollen: Trainer vs. Facilitator

Ein zentrales Element ist die Unterscheidung zwischen zwei Rollen:

  • Als Trainer vermittelst du Wissen
  • Als Facilitator ermöglichst du Erkenntnisse aus der Gruppe

Du lernst, bewusst zwischen diesen Rollen zu wechseln und Workshops als Raum für Entwicklung und eigenständige Lösungen zu gestalten.

Wie Erwachsene wirklich lernen

Die Bloom’sche Taxonomie zeigt die sechs Stufen wirksamen Lernens:

  1. Wissen aufnehmen
  2. Verstehen
  3. Anwenden
  4. Analysieren
  5. Bewerten
  6. Neues erschaffen

Nachhaltiges Lernen entsteht erst, wenn alle Stufen durchlaufen werden.

Micro-Learning und didaktische Klarheit

Effektive Trainings bestehen aus kurzen, klar definierten Lerneinheiten (5–15 Minuten), die immer einem Prinzip folgen:

  • Kontext schaffen
  • Aktivierung ermöglichen
  • Reflexion anstoßen

Dieses Vorgehen erhöht Aufmerksamkeit, Beteiligung und Transfer in die Praxis.

Aktivierung als zentraler Erfolgshebel

Konkrete Methoden sorgen dafür, dass alle Teilnehmenden eingebunden werden:

  • Think–Pair–Share
  • Fishbowl-Diskussion
  • Live-Umfragen (z. B. Mentimeter)

Ziel ist es, passives Zuhören zu vermeiden und aktive Beteiligung zu fördern.

Storytelling und Metaphern

Komplexe Inhalte werden durch Geschichten und bildhafte Sprache verständlicher und greifbarer.
Das erleichtert nicht nur das Verstehen, sondern sorgt auch dafür, dass Inhalte langfristig im Gedächtnis bleiben.

Konstruktives Feedback

Durch die Prinzipien der gewaltfreien Kommunikation lernst du, Feedback klar, respektvoll und wirksam zu formulieren.
So können auch kritische Stimmen produktiv in den Workshop integriert werden.

Vom Workshop zum Produkt

Ein wichtiger Perspektivwechsel:
Nicht Zeit verkaufen, sondern Ergebnisse und Transformation.

Du lernst, wie du:

  • Workshops in größere Lernformate integrierst
  • Online-Elemente, Materialien und Coaching kombinierst
  • nachhaltige und wertbasierte Angebote entwickelst

Fazit

Das Modul liefert einen umfassenden Werkzeugkasten, um Trainings und Workshops professionell zu gestalten, Gruppen wirksam zu führen und nachhaltige Lern- und Veränderungsprozesse zu ermöglichen.

 

Kurzfassung

Trainings werden wirksam durch einen starken Einstieg, klare Rollen (Trainer vs. Facilitator) und strukturierte Micro-Learning-Einheiten. Die Bloom’sche Taxonomie zeigt, wie nachhaltiges Lernen entsteht. Aktivierung, Storytelling und Feedback sind zentrale Hebel für Beteiligung und Transformation. Ziel ist es, Workshops als ganzheitliche Lernprodukte zu denken statt als reine Wissensvermittlung.

Prozessanalyse & Automatisierungsberatung – Aufzeichnung 18.03.2026

In diesem Modul wird ein zentrales Fundament für erfolgreiche KI-Projekte gelegt: das Verständnis, die Analyse und die gezielte Optimierung von Prozessen. Von Beginn an wird deutlich: KI ist kein Selbstzweck, sondern ein Werkzeug zur Lösung realer Business-Probleme.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Warum Prozessanalyse der Schlüssel ist

Erfolgreiche Automatisierung beginnt nicht mit Technologie, sondern mit dem Prozess selbst.
Ein ineffizienter Prozess wird durch KI nicht besser – sondern lediglich schneller ineffizient ausgeführt.

Daher gilt:

  • Zuerst Prozesse verstehen und optimieren, dann automatisieren
  • Fokus auf messbaren Mehrwert für Unternehmen und Kunden
  • Vermeidung unnötiger Komplexität

Wie Prozesse wirklich funktionieren

Prozesse werden in mehreren Ebenen betrachtet:

  1. End-to-End-Prozesse (Gesamtüberblick)
  2. Teilprozesse
  3. Abläufe mit Rollen (Swimlanes)
  4. Detaillierte Aktivitäten

Entscheidend ist:
Der dokumentierte Prozess entspricht selten der Realität.
Echte Erkenntnisse entstehen durch die Analyse der tatsächlichen Abläufe im Unternehmen.

Zentrale Methoden der Prozessdarstellung

Im Call werden drei wesentliche Werkzeuge vermittelt:

  • SIPOC: Überblick über Start, Ende, Inputs und Outputs
  • BPMN: Detaillierte Visualisierung inkl. Entscheidungen und Schleifen
  • Value Stream Map: Analyse von Durchlaufzeiten, Engpässen und Verschwendung

Kern-Erkenntnis:
Der größte Teil der Ineffizienz entsteht durch Wartezeiten und Übergaben, nicht durch die eigentliche Bearbeitung.

Die wichtigsten Prozesskennzahlen

Unterschieden wird zwischen zwei Perspektiven:

Effektivität (Kundensicht):

  • Qualität
  • Durchlaufzeit
  • Termintreue

Effizienz (Unternehmenssicht):

  • Bearbeitungszeit
  • Ressourceneinsatz
  • First Pass Yield (fehlerfreie Durchführung beim ersten Durchlauf)

Wichtiger Insight:
Auch bei guten Einzelwerten kann die Gesamtqualität deutlich sinken, wenn Fehler sich entlang der Prozesskette multiplizieren.

Business Case und Wirtschaftlichkeit

Jede Automatisierung benötigt eine klare wirtschaftliche Bewertung.

Nutzen:

  • Zeitersparnis
  • Kostenreduktion
  • Kapazitätssteigerung
  • Qualitätsverbesserung

Kosten:

  • Implementierung
  • laufende Nutzung (z. B. KI-Kosten)
  • Schulung und Integration

Zentrale Kennzahlen:

  • Return on Investment (ROI)
  • Amortisationszeit

Praxisbeispiel zeigt:
Eine Automatisierung kann sich bereits nach wenigen Monaten amortisieren.

Priorisierung von Maßnahmen

Nicht jede Idee sollte umgesetzt werden.

Bewertung erfolgt anhand von:

  • Nutzen
  • Aufwand

Kategorien:

  • Quick Wins: hoher Nutzen, geringer Aufwand
  • Strategische Projekte: hoher Nutzen, hoher Aufwand
  • Niedriger Nutzen: bewusst zurückstellen oder eliminieren

Reifegrad und Prozesskultur

Unternehmen entwickeln sich typischerweise über mehrere Stufen:

  1. Dokumentation
  2. Management
  3. Optimierung und Automatisierung
  4. Proaktive Neugestaltung

Langfristiger Erfolg erfordert:

  • datengetriebene Entscheidungen
  • kontinuierliche Verbesserung
  • bereichsübergreifendes Denken

Fazit

Die Qualität der Prozesse bestimmt maßgeblich den Erfolg von KI-Initiativen.
Wer Prozesse richtig versteht, misst und priorisiert, kann gezielt Mehrwert schaffen, fundierte Business Cases entwickeln und Automatisierung wirtschaftlich einsetzen.

Von KI-Use-Cases zu KI-Unternehmenskompetenz – Aufzeichnung 11.03.2026

Warum wir ein KI Center of Excellence brauchen

In diesem Trainingscall zeigt Frank Petermann, warum Unternehmen beim Einsatz von Künstlicher Intelligenz über einzelne Experimente hinausgehen müssen. Der Fokus liegt darauf, wie aus einzelnen KI-Use-Cases eine echte KI-Unternehmenskompetenz entsteht – und welche Rolle dabei ein AI Center of Excellence spielt.

Viele Unternehmen starten aktuell mit einzelnen KI-Anwendungen in verschiedenen Abteilungen. Dabei entstehen schnell isolierte Lösungen, unterschiedliche Tools und sogenannte Schatten-KI – also KI-Nutzung außerhalb klarer Regeln oder Strategien. Ohne Struktur kann das zu Sicherheitsrisiken, ineffizienten Projekten und ungenutztem Potenzial führen.

Ein AI Center of Excellence (CoE) hilft Unternehmen dabei, KI systematisch zu steuern und langfristig erfolgreich einzusetzen

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Warum ein AI Center of Excellence entscheidend ist

Das Ziel eines AI Center of Excellence ist es, KI nicht nur als Tool, sondern als strategische Unternehmenskompetenz aufzubauen.

Dabei übernimmt das CoE mehrere zentrale Funktionen:

  • Bündelung von KI-Kompetenzen im Unternehmen
  • Koordination von KI-Initiativen und Use-Cases
  • Aufbau von Standards, Prozessen und Governance
  • Sicherstellung von Datenschutz, Compliance und Qualität
  • Förderung von Wissenstransfer und Schulungen

So entsteht aus einzelnen Experimenten eine strukturierte KI-Transformation im Unternehmen.

Zentrale Bausteine eines AI Center of Excellence

Im Call werden mehrere wichtige Bausteine vorgestellt, die ein CoE im Unternehmen aufbauen kann:

KI-Strategie und Use-Case-Portfolio

Definition einer klaren KI-Strategie und systematische Priorisierung von Use Cases.

Governance und KI-Richtlinien

Aufbau einer KI-Policy mit Regeln für:

  • Datenschutz
  • Sicherheit
  • Tool-Nutzung
  • Verantwortlichkeiten

Budget- und Ressourcensteuerung

Strukturierte Planung von KI-Investitionen, Projekten und laufenden Betriebskosten.

Schulung und Kompetenzaufbau

Entwicklung einer Lernarchitektur, um Mitarbeitende gezielt für den Einsatz von KI zu qualifizieren.

Erfolgsmessung und Reporting

Messung der Wirkung von KI-Projekten anhand von KPIs und Business-Ergebnissen.

Der wichtigste Erfolgsfaktor: Der KI-„Kümmerer“

Ein zentraler Punkt im Vortrag ist die Rolle einer Person oder eines Teams, das die Verantwortung für KI im Unternehmen übernimmt.

Dieser „Kümmerer“:

  • bündelt Wissen rund um KI
  • koordiniert Projekte und Initiativen
  • verbindet Business, IT und Management
  • sorgt für Struktur und Orientierung

Gerade im Mittelstand kann diese Rolle der entscheidende Hebel sein, um KI erfolgreich zu etablieren.

Organisationsmodelle für ein AI Center of Excellence

Je nach Unternehmensgröße können unterschiedliche Modelle eingesetzt werden:

  • Zentrales Modell – ein Team steuert alle KI-Projekte
  • Hub-and-Spoke-Modell – zentrale Koordination, Umsetzung in Fachbereichen
  • Dezentrales Modell – KI-Initiativen entstehen in den Fachbereichen mit übergreifenden Richtlinien

Wichtig ist dabei:
Ein AI Center of Excellence ist kein starres Organisationsmodell, sondern ein flexibler Baukasten.

Fazit

Der Weg von einzelnen KI-Anwendungen hin zu echter KI-Unternehmenskompetenz erfordert Struktur, Verantwortlichkeiten und klare Prozesse.

Ein AI Center of Excellence schafft genau diese Grundlage und hilft Unternehmen dabei, KI:

  • strategisch einzusetzen
  • Risiken zu kontrollieren
  • Kompetenzen aufzubauen
  • und langfristigen Mehrwert zu schaffen.

No Code & Low Code Automatisierung – Grundlagen, Praxis und Grenzen mit Axel Beckert – Aufzeichnung 04.03.2026

In diesem Trainingscall wird ein praxisnaher Einstieg in die Welt der No-Code- und Low-Code-Automatisierung vermittelt. Ziel ist es, ein klares Verständnis dafür zu entwickeln, wie Unternehmen Prozesse automatisieren können, ohne umfangreiche Programmierkenntnisse zu benötigen – und wie Automatisierung als Fundament der KI-Transformation dient.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Inhalte und Struktur der Session

Automatisierung als Einstieg in die KI-Transformation

Viele Unternehmen beschäftigen sich zwar mit KI, doch nur ein kleiner Teil nutzt sie bereits produktiv. Ein effektiver Einstieg ist daher Prozessautomatisierung, da sie konkrete Probleme löst und gleichzeitig den Weg für KI-gestützte Systeme ebnet.

Dabei gilt eine zentrale Regel:

Automatisierung sollte nicht um ihrer selbst willen entstehen, sondern nur dann eingesetzt werden, wenn ein Prozess klar definiert, wiederholbar und skalierbar ist.

Der strukturierte Weg zur Automatisierung

1. Den richtigen Prozess identifizieren

Bevor ein Tool eingesetzt wird, sollte der Anwendungsfall klar beschrieben werden:

  • Wer nutzt den Prozess?

  • Welches Ziel soll erreicht werden?

  • Welche Daten sind beteiligt?

  • Was existiert bereits?

  • Wie hoch ist Nutzen vs. Aufwand?

Diese Analyse verhindert, dass man direkt mit Tools startet, ohne den eigentlichen Prozess zu verstehen.

2. Prozesse visuell modellieren

Ein einfacher, aber extrem wirkungsvoller Schritt ist die Visualisierung des Prozesses, z. B. auf einem Whiteboard oder Miro-Board.

Dabei wird dargestellt:

  • Startpunkt eines Prozesses

  • Zwischenschritte

  • mögliche Entscheidungen oder Verzweigungen

  • Ergebnis bzw. Output

Diese Methode schafft Klarheit und ermöglicht auch nicht-technischen Teams, aktiv an der Prozessgestaltung mitzuwirken.

Grundlogik von Automatisierungs-Workflows

Ein Workflow besteht grundsätzlich aus drei Elementen:

Trigger

Der Trigger ist das Ereignis, das den Workflow startet. Beispiele:

  • Eingang einer E-Mail

  • ein Zeitplan

  • ein Formular

  • eine manuelle Auslösung

Actions

Actions sind die Verarbeitungsschritte, die nach dem Trigger ausgeführt werden.

Beispiele:

  • Daten abrufen

  • API aufrufen

  • Dateien erstellen

  • E-Mails versenden

  • Datenbanken aktualisieren

Output

Der Output ist das Ergebnis eines Workflows, etwa:

  • eine Nachricht

  • ein aktualisierter Datensatz

  • ein erzeugtes Dokument

  • eine Information in einem System

Diese Logik bildet die Grundlage aller Automatisierungstools.

Wichtige Workflow-Bausteine

Konnektoren

Konnektoren verbinden Automatisierungsplattformen mit anderen Systemen wie:

  • Slack

  • CRM-Systemen

  • Datenbanken

  • Cloud-Diensten

Sie ermöglichen die Integration verschiedenster Tools ohne eigene Programmierung.

HTTP Requests

Ein HTTP Request ist ein universeller Mechanismus, um externe Systeme über APIs anzusprechen.

Damit lassen sich auch Dienste integrieren, für die kein fertiger Konnektor existiert – allerdings erfordert dies mehr technisches Verständnis.

Filter und Router

Diese Komponenten steuern die Logik eines Workflows.

Filter

  • prüfen Bedingungen

  • entscheiden, ob ein Prozess fortgesetzt wird

Router / Verzweigungen

  • leiten Daten abhängig vom Ergebnis in unterschiedliche Prozesspfade weiter

Praxisbeispiel: Automatische Angebotsverarbeitung

Im Training wird ein konkreter Workflow demonstriert:

  1. Eine E-Mail mit Angebots-PDF trifft ein

  2. Die Datei wird automatisch ausgelesen

  3. Inhalte werden strukturiert extrahiert

  4. Daten werden in ein CRM-System übertragen

  5. Der Nutzer wird über Slack informiert

So können selbst Angebote mit 60 oder mehr Positionen automatisch vorbefüllt werden, während die finale Prüfung weiterhin durch einen Menschen erfolgt.

Low-Code vs. No-Code

No-Code

  • vollständig visuelle Erstellung

  • keine Programmierung notwendig

  • ideal für einfache Automatisierungen

Low-Code

  • erlaubt zusätzlichen Code (z. B. JavaScript oder Python)

  • bietet mehr Flexibilität

  • geeignet für komplexere Integrationen

KI kann dabei helfen, Code automatisch zu generieren und zu debuggen.

Vorteile von Automatisierung

Low-Code- und No-Code-Automatisierung ermöglicht:

  • schnelle Prototypenentwicklung

  • Entlastung der IT-Abteilung

  • direkte Umsetzung durch Fachabteilungen

  • hohe Flexibilität bei Prozessanpassungen

Damit können Fachbereiche eigenständig Lösungen entwickeln, ohne auf lange IT-Projekte warten zu müssen.

Grenzen von Automatisierung

Trotz aller Vorteile gibt es klare Grenzen.

Automatisierungen werden problematisch wenn:

  • Prozesse zu komplex werden

  • zu viele Entscheidungslogiken existieren

  • Systeme nicht stabil integrierbar sind

  • Skalierung sehr hoch ist

In solchen Fällen sind klassische Softwarelösungen oft sinnvoller.

Risiken und wichtige Governance-Themen

Datenschutz

Besonders kritisch wird es, wenn:

  • Cloud-KI verwendet wird

  • sensible Unternehmensdaten übertragen werden

Eine mögliche Lösung ist der Einsatz lokaler Modelle, um Daten innerhalb der eigenen Infrastruktur zu halten.

Monitoring und Wartung

Automatisierungen müssen überwacht werden. Wichtige Aspekte sind:

  • Logging der Prozesse

  • Fehlerhandling

  • Performance-Monitoring

  • Alert-Systeme

Ohne Monitoring können Automatisierungen stillstehen, ohne dass jemand es bemerkt.

Dokumentation

Eine häufig unterschätzte Herausforderung ist die Wartbarkeit.

Wichtige Fragen:

  • Wer ist verantwortlich für den Workflow?

  • Wer übernimmt Wartung und Updates?

  • Was passiert, wenn der Entwickler das Unternehmen verlässt?

Dokumentation und Versionierung sind deshalb essenziell.

Human-in-the-Loop

Nicht jeder Prozess sollte vollständig automatisiert werden.

Ein Human-in-the-Loop bedeutet:

  • ein Mensch überprüft kritische Schritte

  • sensible Entscheidungen werden manuell freigegeben

  • Fehler können früh erkannt werden

Besonders bei:

  • Kundenkommunikation

  • Vertragsdokumenten

  • finanziellen Prozessen

ist menschliche Kontrolle weiterhin wichtig.

Fazit

No-Code- und Low-Code-Automatisierung ermöglicht es Unternehmen, Prozesse schnell zu digitalisieren und effizienter zu gestalten.

Durch klare Workflow-Strukturen mit Triggern, Actions und Outputs lassen sich viele wiederkehrende Aufgaben automatisieren – von Dokumentenverarbeitung bis hin zu Marketing- und CRM-Prozessen.

Der Schlüssel zum Erfolg liegt jedoch nicht im Tool selbst, sondern in:

  • sauberer Prozessanalyse

  • durchdachter Architektur

  • Datenschutz und Monitoring

  • klarer Verantwortlichkeit

Richtig eingesetzt, bildet Automatisierung eine starke Grundlage für skalierbare KI-Anwendungen im Unternehmen.

KI-Modelle & Technologien – Text, Code & Kommunikation – Aufzeichnung 25.02.2026

Die Session widmete sich dem Verständnis moderner KI-Modelllandschaften, dem sicheren Einsatz von Code-Assistenz sowie dem Aufbau stabiler, verlässlicher RAG-Systeme. Ziel war es, die Teilnehmer in die Lage zu versetzen, Modelle einzuordnen, Chatbots abzusichern, Konversationen zu steuern und Kosten sowie Kontextmanagement professionell zu beherrschen.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Inhalte und Struktur der Session

1. Einstieg: Modelllandschaft, Coding-Praxis und zwei zentrale Problemszenarien

Zu Beginn wurde eingerahmt, dass sich die Modellwelt rasant verändert hat. Das Modul vermittelt:

  • Überblick über Foundation Models

  • Verständnis von RAG-Systemen

  • Sicherer Einsatz von Coding-Prinzipien

  • Rollenwechsel: Peter demonstriert Coding-Praxis live

Dazu wurden zwei reale Szenarien vorbereitet:

Szenario 1: Unkontrolliertes Coding mit Cloud-Tools

Entwickler arbeiten begeistert mit Cloud-Code, jedoch ohne Qualitätskontrolle. Die Folgen:

  • Sicherheitslücken

  • Inkonsistenter Code

  • Fehlende Tests

Szenario 2: Der vergessliche interne Chatbot

Mitarbeiter bauen Chatbots in Microsoft-Bordmitteln, diese vergessen jedoch Kontexte oder geben unerwünschte Informationen preis.

Ziel ist zu verstehen:

  • Warum passiert das?

  • Wie verhindert man es?

2. Foundation Models vs. Spezialmodelle

Foundation Models sind universelle Modelle wie Claude, GPT, Gemini oder Groq – vergleichbar mit einem Schweizer Taschenmesser. Sie können Texte, Analysen, Code, Übersetzungen und mehr. Trainiert auf Büchern, Websites, Code-Repositories.

Demgegenüber stehen Spezialmodelle („Chirurgenskalpelle“), z.B.:

  • Mistral Codestral

  • DeepSeek Coder

  • Qwen3 Coder (Open Source, lokal ausführbar, nahe an Claude Opus Codequalität)

Spezialisierte Modelle:

  • sind nur auf eine Aufgabe optimiert

  • benötigen lokale Hardware, sparen aber hohe Cloud-Tokenkosten

  • eignen sich für Firmenpolicies, die verbieten, Code nach außen zu senden

  • helfen besonders bei alten Programmiersprachen (Fortran etc.)

Essenz: Für generelles Coding reichen Foundation Models meist aus – Spezialmodelle punkten bei Kosten, Datenschutz und spezifischen Sprachen.

3. Praktischer Coding-Teil: Explain-Then-Write, Autocomplete, Kontextvervollständigung

Peter demonstriert live, wie man mit KI effizient und sicher Code erzeugt.

Das Fundament bildet der Explain-Then-Write-Ansatz:

  1. KI erklärt zuerst strukturiert, wie sie das Problem lösen würde

  2. Danach schreibt sie den Code

Das verbessert:

  • Nachvollziehbarkeit

  • Reviewbarkeit

  • Strukturqualität

  • Vermeidung von „magischem Code“

Im Beispiel wurde eine Python-Funktion entwickelt, die beliebige Titel in sichere Dateinamen umwandelt (inkl. Transliterierung).

4. Unit Tests automatisch generieren

Unit Tests sind traditionell unbeliebt, aber essenziell – KI automatisiert sie zuverlässig.

Wesentliche Weisheiten:

  • Unit Tests decken Fehlerfälle und Edge-Cases ab

  • KI kann sie schreiben, aber der Mensch muss sie prüfen

  • KI identifiziert oft Inkonsistenzen im Code sofort

  • Ergebnis: saubere, vollständig getestete Funktionen

Realistische Fehler (z.B. falsche Umlaute) zeigten live, wie wertvoll KI-gestützte Korrekturen sind.

5. Linter: Sauberkeit & Standards im Code

Linter stellen sicher, dass Code Standards folgt (z.B. Einrückungen, Schreibweisen).

Wichtig:

  • Firmen haben oft konkrete Policies

  • Linter verbessern Team-Lesbarkeit

  • Hilft, Fehler früh zu erkennen

Ein essenzieller Bestandteil von robustem Coding – und Bestandteil der TÜV-Prüfung.

6. Best Practices für robusten KI-Code

Sechs essenzielle Prinzipien:

  1. Sprache + Versionsnummer exakt spezifizieren

  2. Coding-Standards und Linter nennen

  3. Input- / Output-Beispiele geben

  4. Architektur zuerst gemeinsam mit der KI planen

  5. „Explain then Write“ konsequent nutzen

  6. Rahmenbedingungen + Ausschlüsse klar formulieren

Für größere Projekte:

Zuerst im Chat planen, dann das Briefing für Cloud Code erzeugen.

7. RAG-Systeme: Funktionsweise, Strategien und Grenzen

RAG = Retrieve → Augment → Generate

Ein internes RAG verhindert Halluzinationen, indem:

  • Daten intern kontrolliert werden

  • nur Firmenwissen als Antwortbasis dient

  • aktuelle und präzise Antworten entstehen

  • sensible Informationen nicht nach außen gelangen

Ein Playground zeigte:

  • Chunking (Aufteilen in Dokumenthäppchen)

  • Embedding (Umwandeln in Vektoren)

  • Vektor-Ähnlichkeitssuche

Praxisbeispiel: AnythingLLM wurde live demonstriert (Urlaubsregelung, Richtlinien).

Zentrale technische Bausteine:

  • Vektor-Datenbank

  • Embedding-Modell

  • LLM zur Antwortgenerierung

Unterscheidung wichtig:

Embedder ≠ LLM.

Der Embedder wandelt Text in Bedeutungsvektoren – das LLM formuliert die Antwort.

8. Chunking-Strategien

Gute RAG-Antworten stehen und fallen mit gutem Chunking.

Arten:

  • Fixed-Size (einfach, zuverlässig)

  • Rekursives Chunking (Strukturerhalt: Absätze, Listen etc.)

  • Semantisches Chunking (bedeutungsorientiert, ideal für Transkripte)

Parameter:

  • Chunk-Größe

  • Overlap

Merksatz: Schlechte Chunks → schlechte Antworten.

9. Guardrails für sichere Chatbots

Damit interne Chatbots keine vertraulichen Informationen preisgeben, braucht es Guardrails:

  • Themenbeschränkungen

  • Output-Validierung

  • DSGVO-Filter

  • Passwort-Filter (zentrale Prüfungsanforderung)

  • Protokollierung (Auditfähigkeit)

  • Eskalation an Menschen bei Unsicherheit

Merksatz:

RAG + Guardrails = sichere Chatbots

10. Kontextfenster verstehen (Coding & RAG)

Beim Coding:

Coding erzeugt viel Text → Fenster schnell voll → KI vergisst Kontext oder verschlechtert Codequalität.

Strategien:

  • Entscheidungen zusammenfassen

  • externe Dateien nutzen

  • Aufgaben in kleine Schritte zerlegen

Merksatz:

Kleine abgeschlossene Schritte liefern bessere Codequalität als große Kontextblöcke.

Beim RAG:

Langes Chatfenster ist sogar kontraproduktiv, weil Themenwechsel den Anfragevektor verwässern.

→ kurze Chatkontexte bringen präzisere Ergebnisse.

11. Temperature: Kreativität steuern

Hohe Temperature = hohe Kreativität = Risiko für Halluzinationen.

Empfehlung:

  • Coding: 0.1 – 0.3

  • RAG: 0.2 – 0.4

Merksatz:

Niedrige Temperature + RAG = verlässliche Antworten.

12. Tokenkosten verstehen & steuern

Tokenkosten entstehen durch:

  • jede Eingabe

  • die Chunks

  • jeden Output

Strategien zur Kostenkontrolle:

  • minimale Kontextlänge

  • optimale Chunkgröße

  • kleine Modelle bevorzugen

  • lokale Modelle prüfen

Kostenbeispiel: Unterschiede zwischen Modellen können von wenigen Euro auf mehrere Tausend pro Monat steigen.

13. Modellwahl: Kosten, Qualität, Multimodalität

Entscheidungskriterien:

  • Budget / Tokenkosten

  • Qualitätsanforderungen

  • benötigte Modalitäten (Text / Bilder / Audio / Video)

  • Datenschutzanforderungen

Hinweis: Viele kleine Modelle sind für RAG völlig ausreichend.

14. Fehlannahmen & kritische Prüfpflichten

Fehlannahmen:

  1. KI schreibt fehlerfreien Code → falsch

  2. RAG findet immer die richtigen Dokumente → falsch

  3. Großes Kontextfenster ist immer besser → falsch

Prüfpflichten:

  • Code Review

  • Unit Tests

  • Chunkqualität prüfen

  • Guardrails prüfen

KI arbeitet, Menschen entscheiden.

Grundlagen generativer KI und gezielte Steuerung von LLMs – Aufzeichnung 18.02.2026

In dieser Auftaktsession lernst du, wie moderne KI-Modelle wirklich denken und wie du sie so steuerst, dass sie präzise, verlässlich und reproduzierbar liefern. Peter und Stefan führen dich in die Grundlagen von Tokens, Kontextfenstern, Prompting, System-Prompts, Temperature & Top-P sowie strukturierten JSON-Ausgaben ein. Mit praxisnahen Live-Demos, greifbaren Beispielen und prüfungsrelevantem Wissen erhältst du ein fundamentales Verständnis für die Mechanik von LLMs – die Basis für jede professionelle KI-Transformation.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Inhalte und Struktur der Session

1. Einordnung der Ausbildung & Mehrwert der TÜV-Zertifizierung

Zu Beginn begrüßen Peter und Stefan die Teilnehmer und übergeben an TJ und anschließend an Michael Schmidt, der die Entstehung der TÜV-Zertifizierung erläutert:

  • Die Zusatzqualifizierung entstand aus dem Wunsch der Masterclass-Teilnehmenden nach einem offiziell anerkannten Kompetenznachweis.

  • Der TÜV Rheinland stellte ein Basiscurriculum, das das Körting-Institut erweitert und veredelt hat.

  • Ergebnis: 16 Module, tiefes Grundlagenwissen, praxisnah, mit klaren Hinweisen, was prüfungsrelevant ist.

  • Die Prüfung kann freiwillig bis zum 31.3. gebucht werden; ein vorbereitendes Modul folgt später.

  • Montag (19 Uhr) gibt es ein zusätzliches Special mit dem TÜV-Projektmanager Thomas Schmidt.

Die erste Kohorte erzielte eine Bestehensquote von 97 %, was die Qualität der Ausbildung unterstreicht.

2. Vorstellung der Dozenten: Peter Rhaese & Stefan Weimar

Beide Dozenten sind Experten des Koerting-Instituts:

  • Stefan: TÜV-zertifizierter KI-Architekt, spezialisiert auf datensouveräne KI-Lösungen, bekannt aus dem Crashkurs „Lokale KI“.

  • Peter: Schwerpunkt Conversational AI, langjährige Erfahrung in Software- und KI-Kommunikation, ebenfalls TÜV-zertifiziert, bekannt für präzise Analysen und leise, aber treffsichere Impulse.

3. Storyline des Abends: „Wie steuere ich KI-Modelle zielgerichtet?“

Der gesamte Call steht unter der Leitfrage:

Wie funktionieren LLMs wirklich — und wie steuere ich sie so, dass sie verlässlich, strukturiert und reproduzierbar liefern?

Die Dozenten bauen das Verständnis systematisch auf — beginnend bei den KI-Generationen, über Tokens, Aufmerksamkeit und Wahrscheinlichkeiten bis hin zu Prompting-Techniken und JSON-Strukturierung.

4. Die vier KI-Paradigmen – vom Regelwerk zur generativen KI

Peter führt in das Spektrum der KI-Arten ein:

  1. Symbolische / regelbasierte KI

    „Wenn A, dann B“ – wenig flexibel.

  2. Neuronale Netze / Machine Learning

    Mustererkennung, aber eng begrenzt auf die Trainingsaufgabe.

  3. Generative KI (LLMs)

    enorm leistungsfähig – Texte, Bilder, Code –, aber hoher Steuerungsbedarf.

  4. AGI (hypothetisch)

    Selbstlernend, bewusstseinsähnlich – existiert heute nicht.

Die zentrale Erkenntnis:

Je mächtiger die KI, desto präziser muss der Mensch steuern.

5. Das Transformer-Prinzip & „Attention“ – wie KI denkt

Mit der Koch-Analogie wird deutlich:

  • Alte KI: Schritt-für-Schritt-Abarbeitung, kein Gedächtnis.

  • Transformer-KI: kann alle Zutaten gleichzeitig sehen, versteht Zusammenhänge mittels Attention Mechanism.

Beispiel:

„Der Hund, der gestern bellte, schläft.“

→ KI erkennt korrekt das Subjekt, weil sie den ganzen Satz überblickt.

6. Tokens & Tokenizer – die kleinsten Bedeutungseinheiten

Stefan demonstriert live den OpenAI-Tokenizer:

  • Tokens sind Bausteine (Wörter, Wortteile, Satzfragmente).

  • KI rechnet intern ausschließlich in Token-IDs (Zahlen).

  • Modelle lernen, welche Tokens wie stark miteinander verknüpft sind (Vektoren mit 3.000–4.000 Beziehungen).

  • Trainingsprozesse großer Modelle benötigen Monate auf Tausenden GPUs.

7. Kontextfenster — das Arbeitsgedächtnis der KI

Wichtige Grundregel:

„Die KI behält nur so viele Tokens im Kopf, wie das Kontextfenster erlaubt.“

Wenn es voll ist → alte Inhalte werden zusammengefasst oder fallen heraus.

Deshalb entstehen manchmal Zusammenfassungs-Meldungen bei Claude oder GPT.

Tools wie RAG oder Projekte / GPTs / Gems dienen dazu, KI externes Wissen zugänglich zu machen, ohne das Kontextfenster zu überladen.

8. Temperature & Top-P — Wahrscheinlichkeitssteuerung

Stefan zeigt live, wie Parameter das Verhalten verändern:

Temperature

  • steuert Kreativität / Varianz

  • niedrig (0.0–0.2) = präzise, deterministisch

  • hoch (0.8–1.0) = kreativ, variabel

Top-P

  • steuert, wie groß „der Spielraum“ der Wahrscheinlichkeiten ist

  • niedrig = sehr eingeschränkt → nur die wahrscheinlichsten Worte

  • hoch = breiter Auswahlkorridor

Analogie:

  • Temperatur = wie sehr zittert deine Hand beim Dartwurf

  • Top-P = wie groß ist die Zielscheibe?

Wichtig:

Nie beide Parameter gleichzeitig stark verändern.

9. System Prompt vs. User Prompt — wer hat die Macht?

Klare Unterscheidung:

  • System Prompt: unsichtbare Leitplanken, Identität, Regeln, Werte, Rollenlogik

  • User Prompt: die konkrete Aufgabe

Live-Beispiel:

„Schreibe einen Werbetext für die beste Bank der Stadt.“

→ Ohne System Prompt: immer Finanzinstitut

→ Mit System Prompt („Bank = Sitzbank“): ausschließlich Sitzbank-Interpretationen

Regel: System Prompt schlägt User Prompt.

10. Few-Shot Prompting — Lernen durch Beispiele

Stefan demonstriert:

  • Ohne Beispiele: LLM formuliert chaotisch unterschiedlich.

  • Mit 1–5 Beispielen: stabiler Stil, feste Struktur, reproduzierbare Ergebnisse.

Einsatzgebiete:

  • Amazon-Bewertungen

  • Tabellen

  • Newsletter-Strukturen

  • Tonalität / Schreibstil

  • Content-Frames

11. JSON-Ausgaben — strukturiertes Denken für Maschinen

JSON ermöglicht:

  • zuverlässige Datenstrukturen

  • maschinelle Weiterverarbeitung

  • saubere Übergaben an CRM / Automation / N8N / Make

Die KI wird über:

  • Few-Shot Beispiele

  • oder System Prompt („verwende diese JSON-Struktur“)

    zu stabilen Ausgaben geführt.

12. Halluzinationen & Bias — systemische Grenzen der KI

Wesentliche Erkenntnisse:

Halluzinationen

  • entstehen durch Wahrscheinlichkeitslogik

  • KI lügt nicht, sie ist eine Wahrscheinlichkeitsmaschine

  • veraltete Daten → falsche Antworten (z. B. VDE-Norm)

Bias / Verzerrung

Stefans eindrückliches Beispiel: Bildgenerierung einer „weiß gekleideten Businessfrau“

  • Deutsch → europäisches Modell

  • Schwedisch → blonde Frau

  • Japanisch → asiatische Frau

  • Arabisch → Mann oder verschleierte Frau

Ursache:

kulturelle Trainingsdaten + menschliche Bewertungssysteme.

Update: neue Modelle korrigieren, aber Verzerrungen bestehen.

13. Prompting vs. Feintuning — was ist wirklich Training?

Entscheidend für die Prüfung:

Prompting

  • schnell

  • flexibel

  • reicht für 95 % aller Anwendungsfälle

Feintuning

  • verändert das Modell selbst

  • teuer, komplex, hoher Datenbedarf (1000+ Beispiele)

  • nur sinnvoll, wenn KI strukturelle Fähigkeiten nicht besitzt

    (z. B. Schweizerdeutsch-Spracherkennung, Domänenlogiken)

Wissenserweiterung erfolgt nicht durch Feintuning, sondern durch RAG.

14. Offene Fragerunde & Klärungen

Teilnehmerfragen verdeutlichten:

    • System Prompt = das interne Regelwerk des Modells

    • Temperature/Top-P variieren je nach Use Case (z. B. Programmieren: niedrige Werte)

    • JSON ist essenziell für Automationen

    • Bias ist abhängig von Trainingsdaten & Herkunft des Modells

    • Prüfung: voraussichtlich Anfang Juni, Entscheidung bis 31.3.

Datenstrategie & Datenmanagement für KI 

Carsten Wittmann (KI-Compliance) und Stefan Weimar zeigen in diesem fokussierten Training, wie du Datenlandschaften KI-ready machst… praxisnah, verständlich und direkt anwendbar.Am Ende bist du in der Lage, Datenlandschaften bei Kunden strukturiert zu bewerten, konkrete Handlungsempfehlungen abzuleiten und bist optimal vorbereitet auf die TÜV-Prüfung zum KI-Transformationsmanager.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Ladet euch hier gerne die Präsentation herunter:

In dieser fokussierten Trainingseinheit geben die Experten Carsten Wittmann und Stefan Weimar einen tiefgehenden Einblick in das Fundament jeder erfolgreichen KI-Transformation: die Datenstrategie und das Datenmanagement.

Schon zu Beginn wird deutlich: Wer KI wirkungsvoll einsetzen will, muss seine Daten im Griff haben. Saubere, aktuelle und zugängliche Daten sind Grundvoraussetzung… unabhängig davon, ob diese aus einem klassischen ERP-System, aus Excel-Listen oder einem modernen Data Lake stammen.

Zentrale Inhalte des Trainingscalls:

Warum Datenqualität, Datenzugriff und Governance die entscheidenden Faktoren sind, um KI-Projekte überhaupt möglich zu machen.

Was sind Data Warehouse und Data Lake?
Anhand eingängiger Analogien wie „Werkstattregal vs. Fotoschublade“ wird erklärt, wann welches Konzept sinnvoll ist – und warum Unternehmen in der Praxis oft beides kombinieren (Stichwort: Data Lakehouse).

Governance & Verantwortlichkeiten klar regeln:
Wer ist Data Owner (Hausbesitzer), wer ist Data Steward (Hausmeister)? Nur mit klaren Zuständigkeiten lassen sich Datenschutz, Qualitätssicherung und Zugriffskontrollen effektiv umsetzen.

Zugriffskontrolle durch RBAC – Role-Based Access Control:
Nicht die Person bekommt Rechte, sondern die Rolle. Damit wird das DSGVO-konforme Need-to-know-Prinzip strukturiert umsetzbar.

Die vier Metriken zur Datenqualität:
Aktualität, Konsistenz, Vollständigkeit und Korrektheit. Und welche dieser Aspekte sich automatisiert überprüfen lassen – und welche nicht.

Datenkataloge & Lineage:
Wie ein Inventar für eure Datenstruktur helfen kann, Überblick und Kontrolle zu behalten – besonders für KI-Projekte oder bei DSGVO-Anfragen.

Praxisbeispiel „Lieferstatus-Chatbot“:
Ein konkreter Quick-Check mit fünf Kernfragen zur Bewertung der Datenreife. Ergebnis: Ohne klare Rollen, aktuelle Daten und Zugriffskontrollen ist KI-Einsatz nicht tragfähig.

DSGVO-Recap:
Vier zentrale Prinzipien (Zweckbindung, Rechtsgrundlage, Datenminimierung, Privacy by Default) und wie diese in Governance und KI-Projekte integriert werden müssen.

Erfahrungsaustausch & Live-Q&A:
Teilnehmer teilen ihre Herausforderungen aus der Praxis – etwa mit der Identifikation von Data Ownern in dynamischen Organisationen.

Das Training liefert nicht nur Wissen für die Praxis, sondern bereitet zielgerichtet auf die TÜV-Prüfung zum KI-Transformationsmanager vor – inklusive Mini-Glossar, Checklisten und Prüfungsfallen.

Governance, Recht und Ethik – Compliance & sichere KI-Nutzung in Organisationen

Carsten Wittmann, Compliance-Experte am Koerting Institute und erfahrener Unternehmensberater, führt durch dieses Modul mit Fokus auf rechtssicheren, verantwortungsvollen und ethisch fundierten KI-Einsatz in Organisationen.

Im Mittelpunkt: Datenschutz (DSGVO), Compliance-Strukturen, Risikomanagement und die neue EU-KI-Verordnung (AI Act).

 

 

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Ladet euch hier gerne die Präsentation herunter:

Einführung & Zielsetzung

Ziel des Moduls: Verständnis, wie Unternehmen KI sicher, DSGVO-konform und ethisch verantwortungsvoll einsetzen können.

Carsten zeigt praxisnah, wie Datenschutz, Governance und Ethik zu Fundamenten einer belastbaren KI-Strategie werden.Lernziele:

  • Risiken beim KI-Einsatz erkennen und steuern
  • Datenschutz- und Compliance-Pflichten umsetzen
  • Grundlagen des KI-Managements in Organisationen anwenden

Datenschutz & DSGVO im KI-Kontext

Kernprinzipien der DSGVO:
Rechtmäßigkeit, Transparenz, Zweckbindung, Datenminimierung, Speicherbegrenzung, Integrität & Vertraulichkeit, Rechenschaftspflicht.„Privacy by Design & by Default“:

Datenschutz von Beginn an mitdenken statt nachträglich reparieren.

Projekte werden effizienter, wenn Datenschutz direkt in Entwicklung und Prozesse integriert wird.Praxisbeispiele:

  • Facebook Pixel: erlaubt nur mit vorheriger Einwilligung
  • Testsysteme: keine Produktivdaten verwenden
  • Zugriffskontrolle: nur für berechtigte Rollen
  • Multifaktor-Authentifizierung & Verschlüsselung als Standards

Auftragsverarbeitung:

Wer Kundendaten im Auftrag verarbeitet, gilt als Auftragsverarbeiter → schriftlicher Auftragsverarbeitungsvertrag (AVV) erforderlich.

Keine Einbindung von Drittanbietern ohne AVV oder klare Zweckbindung.

Rechtsgrundlagen & internationale Datentransfers

Zulässigkeit von Datenverarbeitung:

Nur mit gültiger Rechtsgrundlage nach Art. 6 DSGVO – typischerweise Vertrag, Einwilligung oder berechtigtes Interesse.Einwilligung:

Muss freiwillig, informiert, eindeutig und widerrufbar sein. Minderjährige unter 16 Jahren benötigen Zustimmung der Eltern.Datentransfer in Drittländer:

  • Innerhalb der EU: grundsätzlich zulässig
  • USA: nur bei Anbietern mit Data Privacy Framework (DPF)
  • Sonstige Länder: nur mit Standardvertragsklauseln und Transfer Impact Assessment (TIA)

Empfehlung:

Keine personenbezogenen Daten an nicht-zertifizierte KI-Anbieter senden (z. B. Free-Modelle von OpenAI ohne Enterprise-Vertrag).

Datenschutz-Folgenabschätzung & Risikoanalysen

Datenschutz-Folgenabschätzung (DSFA):

Pflicht bei hohem Risiko für Betroffene – etwa bei Profiling, Scoring oder Überwachung.

Bewertung der Risiken, Abwägung von Grundrechten, Maßnahmen zur Risikominderung.Transfer Impact Assessment (TIA):

Analyse des Schutzniveaus in Drittländern – inklusive Rechtslage, Subdienstleister, technischer und organisatorischer Maßnahmen (TOMs).

EU AI Act – Der neue Ordnungsrahmen für Künstliche Intelligenz

Ziel:

Schutz von Grundrechten, Sicherheit und Vertrauen in KI-Systeme.

Er schafft klare Regeln für Anbieter, Importeure und Anwender von KI in der EU.Risikoklassifizierung:

  1. Verbotene KI: Social Scoring, Massenüberwachung, manipulative Systeme
  2. Hochrisiko-KI: Medizin, Justiz, Kreditvergabe, kritische Infrastrukturen
  3. Begrenztes Risiko: Transparenzpflicht (z. B. Chatbots, Deepfakes)
  4. Minimales Risiko: z. B. Spamfilter, Übersetzungstools

Pflichten für Unternehmen & Entwickler

Für Hochrisiko-KI gelten:

  • Kontinuierliches Risikomanagement
  • Daten- und Modell-Governance
  • Technische Dokumentation & Logging
  • Transparenz & Benutzerinformation
  • Human in the Loop / On the Loop / In Command
  • Cybersecurity & Robustheit

Meldepflichten:

Schwerwiegende Vorfälle (z. B. Grundrechtsverletzungen, Gesundheitsschäden) müssen binnen 15 Tagen gemeldet werden.Strafen:

  • Verbotene KI: bis 7 % des Jahresumsatzes
  • High-Risk-Verstöße: bis 15 Mio € oder 3 % Umsatz

Ethik, Bias & Governance

Ethik & Fairness:

Vermeidung von Diskriminierung, Transparenz über Entscheidungslogiken, Sicherstellung menschlicher Kontrolle.Bias-Mitigation:

Ausgewogene Datensätze, kontinuierliches Monitoring und Dokumentation.Governance-Strukturen:

  • AI Officer / Compliance Manager: Koordination, Monitoring, Reporting
  • Ethikboard: Bewertung von Fairness, Verantwortung, gesellschaftlichem Impact
  • Governance Board: Strategische Aufsicht & Schnittstelle zur Geschäftsführung

KI-Kompetenz & Schulung

Der AI Act fordert „angemessene KI-Kompetenz“ – keine formale Zertifizierung, aber nachweisbare Schulung.

Schulungen sollten Rolle, Risiko und Use Case berücksichtigen.

Fehlende Kompetenz kann bei Verstößen zu höheren Bußgeldern führen.

Schluss & Quintessenz

Datenschutz, Ethik und Governance sind keine Hürden, sondern Voraussetzung für vertrauenswürdige KI.

Carsten zeigt klar:

„KI darf kein blinder Automatismus sein – Verantwortung bleibt immer menschlich.

Cyber Security & Privacy in KI-Deployments 

In diesem spannenden Drop Modul führt Hristo Stefanov in die essenziellen Sicherheitskonzepte ein, die beim Einsatz von Künstlicher Intelligenz (KI) in Unternehmensumgebungen eine zentrale Rolle spielen. Der Trainingscall ist praxisorientiert, prüfungsrelevant und gespickt mit Live-Demonstrationen, konkreten Angriffsszenarien sowie fundierten Handlungsempfehlungen.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Ladet euch hier gerne die Präsentation herunter:

Kernthemen des Calls:

  • Einführung in Cyber Security in der KI

    Grundlagen der IT-Sicherheit mit Fokus auf die CIA-Triad: Integrität, Vertraulichkeit und Verfügbarkeit.

  • Live-Demo: KI-gestützter Angriff auf eine Web-Applikation

    Beispiel für gespeichertes Cross-Site Scripting und wie KI-basierte Systeme wie LLMs Sicherheitsmaßnahmen ungewollt umgehen können.

  • Zero Trust Architektur

    Warum klassischer Perimeter-Schutz nicht mehr ausreicht und welche Prinzipien (z.B. kontinuierliche Authentifizierung, Mikrosegmentierung, Least Privilege) heute notwendig sind.

  • Secure Machine Learning Life Cycle (MLSecOps)

    Schutzmaßnahmen über den gesamten Lebenszyklus eines KI-Modells hinweg: von Planung, Design, Training bis Monitoring und kontinuierlicher Absicherung.

  • Threat Modeling (inkl. STRIDE-Analyse)

    Systematische Bedrohungsanalyse und Risikobewertung im Kontext von KI-Systemen.

  • Privacy Enhancing Technologies (PETs)

    Praktische Tools zum Datenschutz wie Differential Privacy, Federated Learning, Homomorphic Encryption und Synthetic Data.

  • Data Loss Prevention (DLP)

    Strategien, um Datenverluste oder unautorisierte Offenlegungen sensibler Informationen zu vermeiden.

  • Input/Output Sanitization & Jailbreak Prevention

    Schutzmechanismen zur Filterung gefährlicher Nutzereingaben und Output-Validierung bei LLMs.

  • Kontinuierliches Monitoring & Logging

    Bedeutung von Echtzeitüberwachung, Audit Logs und Alerting zur Angriffserkennung und Rückverfolgung.

  • Penetration Testing vs. automatisierte Scans

    Warum Pen-Tests auch bei KI-Anwendungen unerlässlich sind und automatisierte Tools diese nicht ersetzen.

Bonus-Input aus der Runde:

Echte Erfahrungsberichte zu Ransomware-Attacken und ethischen Gefahren durch KI verdeutlichen die gesellschaftliche und betriebliche Relevanz des Themas.

Custom Agents, Fine-Tuning & RAG-Workflows

In dieser Session wurde systematisch aufgezeigt, wie ein Standard-LLM zu einem firmenspezifischen Arbeitsinstrument weiterentwickelt werden kann – durch drei zentrale Technologien: RAG-Workflows, LoRA-Fine-Tuning und Custom Agents.

Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Ladet euch hier gerne die Präsentation herunter:

Kernthemen des Calls:

RAG – Retrieve, Augment, Generate

  • Ziel: Anbindung von unternehmensinternem Wissen an ein LLM ohne Modellveränderung.
  • Unterschied zwischen parametrischem (gelerntem) und nichtparametrischem Wissen (z. B. HR-Dokumente).
  • Dokumente werden gechunkt, in Embeddings überführt und in einer Vektor-Datenbank gespeichert.
  • Semantische Suche ermöglicht kontextbezogene, präzise Antworten.
  • Unterschied zu SQL: Statt Keyword-Matching erkennt RAG Bedeutungszusammenhänge.
  • Erweiterung durch Graph-RAG für relationale Verknüpfungen von Begriffen.

Fine-Tuning vs. LoRA

  • Full Fine-Tuning verändert das Modell tiefgreifend, benötigt große Datenmengen, ist teuer und risikobehaftet (Stichwort: Catastrophic Forgetting).
  • LoRA (Low-Rank Adaptation) passt nur kleine Teilbereiche des Modells an und bleibt effizient, kostengünstig und reversibel.
  • Optimal für das Training auf Stil, Tonalität oder Format (z. B. unternehmensspezifische Schreibweise).
  • Bereits mit 100–500 Beispielen umsetzbar.

Custom Agents

  • Agenten agieren autonom und führen Aufgaben aus – z. B. Recherche, Datenbankzugriffe, Terminbuchung.
  • Tool-Integration erfolgt über Schnittstellen wie LangChain.
  • Guardrails sichern den Agentenbetrieb auf drei Ebenen ab:
    • Input Guardrails: Prüfung von Anfragen (z. B. keine Passwörter)
    • Output Guardrails: Kontrolle der Ausgaben (z. B. keine sensiblen Informationen)
    • Monitoring: Nachvollziehbarkeit aller Schritte und Entscheidungen

Weitere Kernthemen

  • Wichtigkeit semantischer Suche zur Kontextbegrenzung im Prompt.
  • Bedeutung von Metadaten, Re-Rankern und Datenstrategien für Qualität und Wartbarkeit.
  • Diskussion zu Microsoft Copilot als Alternative im Konzernkontext.
  • Praxisimpulse zur Aktualisierung und Pflege von Wissensdatenbanken im RAG-Setup.