
KI-Kickstart Aufzeichnungen
Der Einstieg
Zusammenfassung: Einstieg in den KI-Kickstart
Der KI-Kickstart eröffnet mit einem energiegeladenen Auftakt durch Torsten und Katrin. Die Teilnehmenden erhalten nicht nur Zugang zu fundiertem Wissen, sondern auch zu exklusiven Inhalten wie dem eigens verfassten Buch „Mit jedem Prompt ein Wow“ sowie einem umfangreichen Workbook, das als Leitfaden durch den Tag dient.
Ziele des Workshops
- Begeisterung für den Einsatz künstlicher Intelligenz wecken
- Eigenständige Anwendungsfälle identifizieren und KI daraufhin anwenden
- Verständnis für Methoden, Tools und Denkweisen im Kontext KI entwickeln
- Impuls zur praktischen Umsetzung im eigenen Arbeitsalltag liefern
Inhalte & Methodik
- Einführung in das Thema Künstliche Intelligenz inkl. persönlicher Anwendungsfälle (z. B. Buch schreiben, LinkedIn-Beiträge, Coachingprozesse)
- Arbeiten mit dem Workbook Schritt für Schritt
- Vermittlung eines praxisorientierten Rahmens: von Prompt-Gestaltung bis Kontext-Engineering
- Keine rein theoretische Wissensvermittlung – alle Inhalte werden direkt auf individuelle Use-Cases der Teilnehmenden angewendet
Didaktischer Rahmen
- Interaktive Gestaltung: Musik, Pausen mit Energie, Live-Coaching auf der virtuellen Bühne
- Iterative Vorgehensweise: Prozesse werden mehrfach exemplarisch durchgespielt
- Raum für individuelle Bedürfnisse: flexible Pausenregelung, respektvoller Umgang im Chat, Community-Integration via WhatsApp-Gruppe
Kontext & Philosophie
- Fokus auf „Kontext statt Prompt“: Ziel ist es, die KI durch relevante Hintergrundinformationen wirksam zu machen
- Betonung auf Gesprächsqualität mit der KI: Wer im echten Leben keine klaren Gespräche führen kann, wird es auch mit der KI schwer haben
- Strukturierter Aufbau: von Grundlagen, über Tools, bis hin zu CustomGPTs und rechtlichen Aspekten
Highlights des Tages (Vorschau)
- Erarbeitung individueller Anwendungsfälle
- Vertiefung in Prompt-Design & Kontext-Engineering
- Vorstellung und Anwendung praktischer Bordmittel & Tools
- Erstellung eigener CustomGPTs anhand einer Assistenten-Konfiguration
- Input-Slot zu rechtlichen Aspekten durch Carsten Wittmann (EU-AI-Act, Datenschutz)
- Optional: Multiple-Choice-Test zur Erlangung des „KI-Kompetenz-Zertifikats“ des Koerting Institute
Transparenz & Haltung
- Keine versteckten Verkaufsabsichten – voller Geld-zurück-Service über den gesamten Tag hinweg
- Einladung zur offenen, konstruktiven Haltung – auch bei bereits bekannten Inhalten
- Gemeinsames Ziel: Menschen befähigen, KI sicher, wirksam und eigenständig anzuwenden
Die 4 + 3 Räume der Veränderung
Zusammenfassung:
In diesem Abschnitt des KI-Kickstarts nimmt Torsten die Teilnehmenden mit auf eine erkenntnisreiche Reise durch die individuelle Auseinandersetzung mit dem Thema Künstliche Intelligenz. Anhand eines erweiterten Modells der Veränderung – den „4+3 Räumen“ – wird deutlich, wie unterschiedlich Menschen auf die rasante technologische Entwicklung reagieren und welche Rolle das persönliche Bewusstsein dabei spielt.
- Exponentielle Entwicklung der KI – und ihre Konsequenzen
- Die Möglichkeiten der KI wachsen exponentiell – laut Google-CEO alle 3,5 Monate eine Verdopplung.
- Im Gegensatz dazu verläuft unser Bewusstsein für konkrete Anwendungsfälle nur linear.
- Zwischen diesen beiden Linien entsteht eine wachsende Lücke, die viele überfordert.
- Ziel des Workshops: diese Lücke sichtbar machen, einordnen – und handhabbar machen.
- Das Modell der Veränderung – die 4 klassischen Räume
Basierend auf dem bekannten Veränderungsmodell nach Claes Janssen:
- Schock: Erstarrung durch die Konfrontation mit der neuen Technologie (z. B. ChatGPT).
- Verneinung: Ablehnung oder Hoffnung, dass es „wieder verschwindet“.
- Verwirrung: Erste Fragen entstehen, Unsicherheit breitet sich aus.
- Akzeptanz: Erkenntnis, dass die Veränderung nicht mehr aufzuhalten ist.
Torsten teilt offen seine eigene Entwicklung von Schock bis zur Akzeptanz – mit der Veröffentlichung von ChatGPT und seinen persönlichen Erfahrungen beim Schreiben eines KI-unterstützten Buchs.
- Die Erweiterung: +3 Räume
Da die klassische Betrachtung nicht ausreicht, wird das Modell erweitert:
- Raum der Ahnungslosigkeit: Viele Menschen wissen (noch) gar nichts über die aktuelle KI-Entwicklung – dieser Raum ist nach wie vor „proppenvoll“.
- Integration: Die bewusste und praktische Nutzung der KI beginnt – experimentell, spielerisch, neugierig.
- Transformation: KI wird gezielt für bedeutungsvolle und qualitativ hochwertige Ergebnisse eingesetzt. Hier findet echtes Wachstum statt.
Der Workshop zielt insbesondere auf Integration und Transformation ab – spielerisch, konkret, wirksam.
- Standortbestimmung im Raum
Die Teilnehmenden werden eingeladen, sich selbst einzuordnen:
Wo befinde ich mich auf dieser Reise?
Viele befinden sich laut Chat im Raum der Integration, einige auch bereits in der Transformation – einige wenige noch im Schock oder der Verwirrung. Ziel ist es, alle mitzunehmen, niemanden zurückzulassen.
- Persönlicher Umgang mit Wandel
- Der Weg durch die Räume ist dynamisch – man kann auch zurückfallen, z. B. durch eine neue Entwicklung (wie Custom GPTs).
- Je öfter man durch die Räume geht, desto schneller gelingt der Übergang.
- Bildhafte Anekdote: selbst Torsten fällt gelegentlich durch eine neue Info zurück in den Schock – entscheidend ist, schnell wieder in produktive Räume zu wechseln.
- Verantwortung und Achtsamkeit
- Die Workshop-Teilnehmenden befinden sich in einer privilegierten Position – viele Menschen „da draußen“ (z. B. Kollegen, Familie, Bekannte) haben noch keine oder nur geringe Berührungspunkte mit KI.
- Es ist wichtig, sich dieser Blase bewusst zu sein und empathisch zu kommunizieren.
- Gleichzeitig: nicht verunsichern lassen durch Hypes und laute Stimmen in sozialen Medien. Fokus auf die eigene Entwicklung – nicht auf vermeintlich weiter fortgeschrittene andere.
Kernaussagen dieses Abschnitts
- KI verändert alles – aber wir müssen bewusst und individuell darauf reagieren.
- Der bewusste Umgang beginnt mit der Selbstverortung im Modell der Veränderung.
- Ziel des Workshops ist die Förderung echter Integration und Transformation.
- „Du gehörst zu den 1–2 %, die sich aktiv mit KI auseinandersetzen – nutze diese Position verantwortungsvoll.“
Deine eigenen Anwendungsfälle
Zusammenfassung:
Nach dem Einstieg in das exponentielle Wachstum der KI und der Standortbestimmung mit dem Modell der 4+3 Räume, folgt nun der nächste logische Schritt: Die Identifikation eigener Anwendungsfälle. Dieser Abschnitt bildet den methodischen Auftakt für alle weiteren Inhalte des Tages.
Warum Anwendungsfälle so entscheidend sind
- Die Vermittlung von Wissen allein reicht nicht – erst die Verbindung zu einem konkreten Kontext schafft echte Wirksamkeit.
- Ziel ist es, die Teilnehmenden nicht nur zu inspirieren, sondern sie in die Umsetzung zu bringen.
- Die eigene Idee – sei es ein Buch, ein neues Angebot, ein optimierter Prozess oder eine persönliche Herausforderung – wird zum Ankerpunkt für alles, was im Laufe des Tages gelernt wird.
Vom Konsum zur Umsetzung
- Viele Menschen konsumieren KI-Inhalte, probieren Tools aus – aber verankern sie nicht im eigenen Alltag.
- Der Workshop setzt bewusst darauf, die Inhalte nicht abstrakt zu halten, sondern auf den eigenen Business-Kontext zu übertragen.
- Statt Aufgaben „für später“ gibt es direkte Anwendung im Live-Workshop.
Prozess: So wird der eigene Use Case entwickelt
- Angeleitet durch das Workbook (Seitenzahl wird von Katrin im Chat geteilt), geht es darum, einen oder mehrere Anwendungsfälle zu identifizieren.
- Fragefokus:
→ Was beschäftigt dich gerade wirklich?
→ Wo möchtest du Fortschritt erzielen?
→ Was könnte ein KI-unterstütztes Projekt sein? - Beispielhafte Use Cases, die Torsten anspricht:
- Ein Buch schreiben
- LinkedIn-Beiträge strukturieren und schreiben
- Podcast-Show-Notes automatisieren
- Coachingprozesse mit KI reflektieren
- Kundenkommunikation und Auswertung optimieren
Lernstruktur des Tages
- Alle kommenden Inhalte (Prompt-Design, Tools, CustomGPTs, rechtliche Aspekte etc.) bauen auf diesen Use Cases auf.
- Das macht den Workshop nicht nur praxisnah, sondern auch individuell relevant.
- Für jeden Teilnehmer entsteht so ein personalisierter Lernpfad mit einem klaren Ziel vor Augen.
Ein neuer Standard im Kickstart
- Diese Integration in eigene Anwendungsfälle ist neu in diesem Format.
- In früheren Kickstarts blieb es bei Theorie und Aufgaben für später – jetzt wird live gearbeitet.
- Ziel: Am Ende des Tages konkrete Fortschritte an einem realen Projekt.
Fazit dieses Abschnitts:
Wer keine konkreten Anwendungsfälle hat, konsumiert nur.
Wer seine Themen mitbringt, kann KI heute direkt nutzen – und einen echten Gamechanger erleben.
Aufbau von chatGPT
Zusammenfassung:
In diesem Abschnitt des Workshops führt Katrin die Teilnehmenden umfassend in die Welt von chatGPT ein. Ziel ist es, ein tiefes Verständnis für die Plattform zu schaffen – von der Benutzeroberfläche über die Funktionsweise bis hin zur Personalisierung für den eigenen Kontext. Ergänzt wird ihr Input durch strategische Impulse und Erfahrungswerte von Torsten.
- Zugang und Versionen von chatGPT – Gratis oder Plus?
- Kostenlose Version: Gut für den Einstieg, aber stark eingeschränkt (Limitierung in Nutzung, keine CustomGPTs, weniger Modelle).
- Plus-Version (23 €/Monat): Empfehlenswert für ernsthafte Anwendung – mehr Modelle, größeres Kontextfenster, CustomGPTs, stabiler Zugriff.
- Pro-Version: Eher für sehr spezifische oder wissenschaftliche Einsätze – im Workshop meist nicht notwendig.
Empfehlung: Wer regelmäßig mit chatGPT arbeitet, sollte in jedem Fall zur Plus-Version greifen.
- Oberfläche von chatGPT – die wichtigsten Elemente
- Prompt-Fenster: Zentrale Eingabe für Fragen, Aufgaben und Prompts.
- Navigation: Links die Chat-Historie, rechts die Einstellungen.
- Modellauswahl: Zugriff auf verschiedene KI-Modelle (z. B. GPT-4o, GPT-3.5, GPT-4-turbo etc.).
Wichtige Hinweise:
- Modelle entwickeln sich ständig weiter – regelmäßig prüfen, welche neu verfügbar sind.
- Unterschiedliche Modelle haben unterschiedliche Stärken (z. B. Reasoning, Programmierung, Kreativität).
- Bei komplexeren Aufgaben kann das GPT-4o-Modell an Grenzen stoßen – hier ggf. auf reasoningstärkere Modelle wie GPT-3.5 zurückgreifen.
- Wichtige Einstellungen für die Nutzung
Katrin zeigt zentrale Konfigurationsmöglichkeiten:
- Darstellung (Hell/Dunkel)
- Standardsprache (deutsch, englisch, etc.)
- Erinnerungsfunktion (Memory):
- Wenn aktiviert, lernt chatGPT über Chat-Verläufe hinweg.
- Katrins Empfehlung: Deaktivieren, um immer wieder mit einem „weißen Blatt“ starten zu können.
- Torstens Ergänzung: Besonders wichtig, wenn man in unterschiedlichen Kundenkontexten arbeitet – klare Trennung von Themen und Tonalitäten.
Zusätzlicher Impuls von Teilnehmerin Dagmar:
- Datenkontrolle deaktivieren („Trainingsdaten nicht für Modellverbesserung verwenden“), um sensible Inhalte nicht unbeabsichtigt ins Trainingsmodell einfließen zu lassen.
- Eingabe- und Ausgabeformate
chatGPT unterstützt zahlreiche Input- und Output-Formate:
- Eingaben:
- Text
- Spracheingabe (automatische Transkription in Text)
- Dateien (PDF, Word, Excel, CSV)
- Bilder (PNG, JPEG)
- Cloud-Integration (z. B. Google Drive, OneDrive)
- Ausgaben:
- Text
- Strukturierte Tabellen
- Word- und Excel-Dateien
- Bilder (via DALL·E-Integration)
Praxisbeispiele:
- Erstellung eines Reiseplans in Excel
- Analyse einer Steuererklärung in PDF
- Zusammenfassung von Word-Dokumenten
- Visualisierung durch KI-generierte Bilder
- Zusatzfunktionen in chatGPT Plus
Canvas („Schreibe oder Programmiere“):
- Separater Arbeitsbereich für ko-kreatives Arbeiten mit der KI
- Links: Bearbeitbarer Textbereich für eigene Anpassungen
- Rechts: KI-generierter Output
- Ideal für längere Texte, Blogartikel oder Code-Fragmente
Deep Research:
- Funktion zur tiefgreifenden Recherche in den Trainingsdaten von chatGPT
- Ausführliche, strukturierte Ergebnisse – auch über 30+ Seiten
- Tipp: Lasse dir von chatGPT zuerst einen Deep-Research-tauglichen Prompt erstellen
- Personalisierung durch „Prompt-Persönlichkeit“
Ein Highlight dieses Abschnitts ist die Vorstellung der sogenannten „Prompt-Persönlichkeit“ – eine Funktion zur Personalisierung der KI-Ausgabe:
- Feld: Wie soll dich chatGPT ansprechen?
- Feld: Was machst du beruflich? (z. B. Positionierung hinterlegen)
- Tonalität: locker, prägnant, professionell etc.
- Do’s: z. B. keine Wiederholungen, keine Zusammenfassungen
- Don’ts: z. B. „Vermeidungswörter“ wie umarmen, entdecken, eintauchen (häufige KI-Floskeln)
- Technischer Hinweis: Nur 1500 Zeichen möglich – ggf. kürzen.
Torstens Ergänzung:
Wer mit wechselnden Perspektiven (z. B. Kundenprojekte) arbeitet, sollte ggf. bewusst mit weißem Blatt starten und Prompts kontextbasiert formulieren – statt fester Voreinstellungen.
- Abschließende Empfehlungen & Impulse
- Nutze die Konfigurationsmöglichkeiten bewusst – sie prägen die Ergebnisqualität deutlich.
- Prüfe regelmäßig neue Modelle und Funktionen.
- Achte auf Sprachstil, Tiefe und Zielgruppenrelevanz in deinen Prompts.
- Entwickle dir ggf. eigene Konfigurationsprofile (auch offline), die du situativ einsetzen kannst.
Kernaussage dieses Abschnitts:
Wer chatGPT wirklich produktiv und differenziert einsetzen will, muss die Oberfläche, Modelle und Einstellungen beherrschen – und die KI auf den eigenen Stil und Kontext ausrichten.
Was brauchst du um zu starten?
Zusammenfassung:
In diesem intensiven Abschnitt vermittelt Torsten gemeinsam mit Katrin die essenziellen Voraussetzungen, um effektiv und wirksam mit chatGPT zu arbeiten. Ziel ist es, die KI nicht nur zu befragen, sondern strategisch zu führen – durch gezielte Kontexteingaben, strukturierte Ablagesysteme und die Klarheit über die eigene Positionierung.
- Von statischen Prompts zu dynamischer Interaktion
- Die Zeit starrer Prompt-Sammlungen („1000 Prompts für wirksames Marketing“) ist vorbei.
- Früher wurde „prompt engineering“ wie Programmieren behandelt – heute geht es um echte Interaktion auf Augenhöhe mit der KI.
- Das bedeutet: Kontext geben statt bloß fragen.
- Das Prompt Repository – dein persönlicher Datenpool
- Zentrale Empfehlung: Lege dir ein Prompt Repository an – eine persönliche Sammlung aus Prompts, Bausteinen und Kontextinformationen.
- Tools: z. B. Trello, Word, Notion, Google Docs – das Format ist egal, Hauptsache strukturiert und schnell zugänglich.
- Inhalte, die du speichern solltest:
- Wer du bist (Positionierung)
- Was dein Unternehmen macht
- Was bestimmte Begriffe bedeuten (z. B. dein „KI-Café“ oder „Skool Community“)
- Häufig verwendete Prompts
Beispiel:
Wenn du einen Beitrag über dein „KI-Café“ schreiben willst, versteht die KI ohne Erklärung weder „KI-Café“ noch deine Community – du musst diese Begriffe definieren.
- Kontext schlägt Prompt – der Schlüssel heißt Context Engineering
- Ein Begriff, der laut Torsten erst seit zwei Wochen existiert: Context Engineering.
- Die zentrale Idee: Gib der KI alle Informationen, die sie braucht, um dich zu verstehen – so präzise wie möglich.
- Nutze strukturierte Bausteine:
- „Das bin ich“ → deine Positionierung
- „Das ist mein Unternehmen“ → z. B. das Koerting Institute
- „Das ist das Produkt / Event / Format“ → z. B. KI-Café
- „Das ist meine Zielgruppe“ → z. B. Ingenieure, Führungskräfte
- Drei Wege zur Positionierungsbeschreibung
Torsten zeigt drei effektive Wege, wie du deine Positionierung als Textbasis für die KI erarbeiten kannst:
- Lebenslauf:
- Vollständiger CV als Input liefert der KI wertvolle Einblicke in Werdegang, Expertise, Stärken.
- Die KI formuliert daraus eine fundierte Selbstbeschreibung.
- Webseite / Über-mich-Seite:
- Auch veraltete oder unfertige Texte reichen aus – die KI destilliert das Wesentliche heraus.
- LinkedIn-Profil:
- Ideal: Alle relevanten Inhalte (Info, Berufserfahrung, Empfehlungen etc.) aufklappen und komplett kopieren.
- Die KI erkennt daraus Expertise, Stil und Positionierung.
- Praxisbeispiel mit Teilnehmerin Claudia zeigt, wie daraus ein präziser Text entsteht – inklusive Nutzenversprechen, Methode, Differenzierung.
- Bonus-Variante: Wenn du nichts Schriftliches hast
Katrins ergänzender Impuls:
- Nutze gesprochene Sprache als Quelle.
- ChatGPT kann auch aus Audioeingaben oder transkribierten Gesprächen sinnvolle Texte entwickeln.
- Hilfreiche Reflexionsfragen (ein Auszug):
- Was sind deine Stärken und Talente?
- Was ist deine Erfahrung und Substanz?
- Wofür bist du bekannt?
- Was treibt dich an?
- Was schätzen andere an dir?
Praxis-Tipp:
Spreche frei in ein Word-Dokument oder direkt in chatGPT. Die KI kann auch aus fragmentarischen Gedanken eine Positionierung entwickeln.
- Human in the Loop – Feinschliff gehört dir
- Die KI liefert ca. 80–85 % des Textes.
- Den letzten Feinschliff machst du selbst – Sprache, Stil, Herzblut.
- Tipp: Nutze das „Canvas“-Tool in chatGPT, um gezielt einzelne Abschnitte zu überarbeiten, ohne die gesamte Struktur zu verlieren.
- Anwendung am Beispiel: Newsletter für Ingenieure
- Torsten demonstriert, wie man für Katrin basierend auf ihrem LinkedIn-Profil einen relevanten Newsletter erstellt.
- Vorgehen:
- Rolle, Kontext und Zielgruppe festlegen
- Positionierung einfügen („Das bin ich…“)
- Thema definieren (z. B. „Wie Ingenieure mit Kritik umgehen können“)
- Prompt starten und KI den ersten Entwurf schreiben lassen
Ergebnis:
Ein fertiger Newsletter mit treffender Sprache, Zielgruppenansprache und Call-to-Action – inkl. Verlinkung zu Kathrins Calendly-Termin.
- Dein nächster Schritt
Alle Teilnehmenden werden jetzt eingeladen, ihre eigene Positionierung zu erarbeiten – mithilfe eines Masterprompts, den Torsten zur Verfügung stellt.
Die Ergebnisse werden im Prompt Repository gespeichert – als Basis für künftige Interaktionen mit der KI.
Essenz dieses Abschnitts:
Wer die KI strategisch einsetzen will, braucht mehr als gute Prompts – nämlich Klarheit über sich selbst, ein strukturiertes Ablagesystem und die Fähigkeit, Kontext präzise zu vermitteln.
Die 6 Ebenen des Prompt Engineerings
Zusammenfassung:
In diesem Abschnitt des KI-Kickstarts geben Katrin und Torsten eine fundierte und praxisorientierte Einführung in das Thema Prompt-Engineering – also die Kunst, mit der KI so zu kommunizieren, dass sie hochwertige, passende und verwertbare Ergebnisse liefert.
Der zentrale Leitsatz lautet:
„Shit in, shit out.“
Was bedeutet: Die Qualität der Eingabe bestimmt die Qualität der Ausgabe. Wer unsauber, unklar oder kontextfrei fragt, bekommt unbrauchbare Ergebnisse. Wer präzise, strukturiert und bewusst führt, bekommt Resultate, die ihn oder sie wirklich weiterbringen.
Die 6 Ebenen des Prompt-Engineerings
- Allgemein und unstrukturiert
Beispiel: „Was kann man in Paris machen?“
Einfache, offene Fragen ohne Kontext oder Ziel. Die Ergebnisse bleiben oberflächlich.
Gut zum Einstieg, aber nicht zielführend für professionelle Anwendungen. - Ausführlich und unstrukturiert
Beispiel: „Ich plane ein Wochenende in Paris mit meinem Mann und meiner 13-jährigen Tochter. Wir wollen Fahrrad fahren – bitte mach einen Reiseplan.“
Hier wird bereits mehr Kontext mitgegeben, aber noch ohne Struktur oder klare Anweisung.
Die Ergebnisse sind persönlicher und differenzierter. - Ausführlich und strukturiert
Beispiel (Business-Kontext): „Erstelle einen Workshop-Zeitplan zum Thema Feedbackkultur für Ingenieure. Enthalten sein sollen: ein Storytelling-Einstieg, drei Übungen, Zeitangaben und ein Abschluss mit Transfer.“
Hier wird sowohl der Inhalt als auch das Format klar vorgegeben.
Die Ergebnisse sind präzise, strukturiert und sofort verwendbar. - Schritt für Schritt
Statt alles in einem Prompt abzufragen, wird die KI wie ein echter Projektpartner genutzt.
Zuerst wird ein Ziel genannt (z. B. ein Seminar entwickeln), dann wird die KI nacheinander zur Gliederung, zum Einstieg, zu Übungen usw. befragt.
Diese iterative Arbeitsweise liefert besonders hochwertige Resultate – und fördert echtes Co-Creation-Denken mit KI. - Umprogrammieren durch Rollenvergabe
Die KI erhält eine definierte Rolle, z. B.:
„Du bist Lektor eines Fachbuchs.“
„Du bist LinkedIn-Content-Creator für technische Zielgruppen.“
Die KI agiert dann mit dem entsprechenden Fachfokus und Sprachstil.
Dieser Perspektivwechsel erhöht die Qualität und Zielgerichtetheit der Antworten erheblich.
Wichtig: Wer nicht weiß, wie eine Rolle definiert ist, kann sich diese Aufgabe erst durch die KI selbst beschreiben lassen. - Eigene Tonalität und Sprache einbringen
Die KI übernimmt deinen Schreibstil – entweder durch ein konkretes Beispiel („Hier ist ein Text von mir…“) oder durch Adjektive wie „professionell, klar, empathisch, humorvoll“.
Ebenso kann sie in der Tonalität deiner Zielgruppe schreiben – z. B. „analytisch und faktenbasiert“ bei Ingenieuren.
Dadurch entstehen Texte, die sowohl authentisch als auch zielgruppengerecht sind.
Ergänzende Hinweise aus dem Workshop
- Das Format „Markdown“ (fett, kursiv, Listen etc.) ist hilfreich zur Strukturierung, aber auf Plattformen wie LinkedIn eingeschränkt. Dort sind einfache Formatierungen barriereärmer und empfehlenswerter.
- Die KI kann vieles – aber sie halluziniert auch.
Die Aufforderung „Bitte halluziniere nicht“ hilft nicht verlässlich.
Deshalb gilt: Alle Ergebnisse der KI müssen validiert werden. - Die KI wird erst dann wirklich stark, wenn du sie mit deiner Human Intelligence ergänzt. Erst das Zusammenspiel aus KI und Mensch bringt Spitzenleistung.
Fazit dieses Abschnitts:
Wer die KI führt, bekommt Führung zurück.
Je bewusster du promptest, desto wirksamer wird deine Arbeit.
Nutze diese sechs Ebenen als Werkzeugkasten, um aus der KI nicht nur eine Antwortmaschine, sondern einen echten Sparringspartner zu machen.
Die Anatomie eines Prompts
Zusammenfassung:
In diesem Abschnitt wurde ein zentrales Prinzip des KI-Kickstarts vermittelt: die Anatomie eines wirksamen Prompts. Schritt für Schritt wurde gezeigt, wie ein Prompt aufgebaut sein muss, um die Qualität der KI-Ergebnisse maßgeblich zu steigern. Ziel ist es, wiederholbare und strukturierte Abläufe zu entwickeln, die auch in komplexeren Anwendungsfällen zuverlässig funktionieren.
- Was bedeutet „Anatomie eines Prompts“?
Der Begriff Anatomie beschreibt in diesem Kontext den systematischen Aufbau eines Prompts – vergleichbar mit einem klaren Ablaufplan oder einem Workshop-Leitfaden. Statt vager oder techniklastiger Eingaben wird ein strukturierter Rahmen vermittelt, der als Basis für hochwertige KI-Ausgaben dient.
Diese Struktur hat sich in der Praxis als so zuverlässig erwiesen, dass damit 80 bis 90 Prozent aller Anwendungsfälle erfolgreich lösbar sind.
- Die 6 Schlüsselelemente eines starken Prompts
Im Laufe des Calls wurden 6 essenzielle Bausteine vorgestellt, die jeder Prompt enthalten sollte:
- Perspektive
Die KI muss wissen, wer mit ihr spricht. Dazu gehört die eigene Rolle, Positionierung oder ein Link zum LinkedIn-Profil. Nur so kann sie relevante Ergebnisse liefern. - Kontext
Um was geht es konkret? Wird ein Newsletter, ein Blogbeitrag oder eine Keynote vorbereitet? Der relevante Hintergrund – z. B. Transkripte von Briefings oder Kundengesprächen – gehört zwingend in den Prompt. - Auftrag
Was genau soll die KI tun? Je klarer der Arbeitsauftrag, desto passgenauer das Ergebnis. Hier geht es um Ziel, Zweck und gewünschte Wirkung. - Erwartungen
Welche sprachlichen und inhaltlichen Rahmenbedingungen sollen gelten? Das betrifft Stil, Tonalität, Formatierung (z. B. Fließtext statt Aufzählungen), Sprache (Deutsch, Englisch) und mehr. - Tabus und Ausschlusskriterien
Bestimmte Begriffe oder Stile können gezielt ausgeschlossen werden – etwa überstrapazierte Wörter wie „eintauchen“, „entdecken“, „umarmen“ oder unerwünschte Formatierungen wie Emojis, Gendersternchen oder Spiegelstriche. - Struktur und Beispiele
Optional, aber wirkungsvoll: Wenn eine bestimmte Textstruktur vorgegeben wird (z. B. AIDA-Modell oder Heldenreise), orientiert sich die KI daran. Auch gute Beispieltexte helfen, Qualität und Richtung des Outputs zu steuern.
- Anwendung und Live-Demonstrationen
Anhand mehrerer Praxisbeispiele (unter anderem mit Katrin) wurde gezeigt, wie sich ein vollständiger Prompt Schritt für Schritt erarbeiten lässt. Dabei wurde demonstriert:
- Wie mit einem klar strukturierten Prompt ein wirksamer Blogbeitrag entsteht.
- Wie über Tonalitäts-Prompts die Sprache auf die Zielgruppe abgestimmt wird.
- Wie relevante Themen durch gezielte KI-Befragung identifiziert werden.
- Wie der sogenannte Canvas-Modus von ChatGPT genutzt wird, um Texte gezielt zu überarbeiten und zu verfeinern.
- Wie mit dem Prinzip des Bookending und Elementen aus dem Storytelling Texte emotional wirksamer gestaltet werden.
- Von der Theorie zur Wiederverwendbarkeit: Repository und Custom GPTs
Ein zentrales Ziel dieses Calls war es, alle erarbeiteten Elemente (Positionierung, Tonalität, Zielgruppensprache, Tabus, Beispieltexte etc.) so zu dokumentieren, dass sie dauerhaft verfügbar sind.
Zwei Möglichkeiten wurden gezeigt:
- Prompt-Repository: Eine persönliche Sammlung der eigenen Prompts und Ergebnisse zur Wiederverwendung.
- Custom GPTs: Eigene digitale Assistenten, denen die individuellen Regeln und Inhalte fest „in den Bauch“ gelegt werden. So können wiederkehrende Aufgaben künftig effizient automatisiert werden.
Besonders wirkungsvoll: Über sogenannte Mentions (mit @) können mehrere Custom GPTs in einem Workflow miteinander kombiniert werden – zum Beispiel zur systematischen Erstellung von LinkedIn-Beiträgen.
- Wichtige Mindsets und Prinzipien
- Human in the Loop: Auch bei einem sehr guten Prompt ersetzt KI nicht die menschliche Verantwortung für Inhalt, Stil und Qualität.
- Prompt kann länger sein als das Ergebnis: Qualität entsteht durch Klarheit und Kontext – nicht durch Kürze.
- Modularität & Wiederverwendbarkeit: Wer strukturiert arbeitet, spart langfristig Zeit und produziert konsistente Ergebnisse.
- Zielgruppenrelevanz über persönliche Vorlieben: Der Köder muss dem Fisch schmecken, nicht dem Angler.
Fazit
Wer die Anatomie eines Prompts versteht, ist in der Lage, die KI gezielt zu steuern – egal ob für Newsletter, Keynotes, Blogbeiträge, Workshop-Konzepte oder Vertriebsunterlagen. Mit dem richtigen Aufbau, klarer Tonalität, passenden Strukturen und sorgfältig erarbeiteten Erwartungen wird aus einem Prompt ein wirkungsvolles Steuerungsinstrument für die KI.
Diese Fähigkeit ist kein „Nice-to-have“, sondern der zentrale Schlüssel für professionelle, reproduzierbare und wirksame KI-Nutzung.
Deep Research
Zusammenfassung:
In diesem Abschnitt stand die Nutzung der Deep Research-Funktion im Mittelpunkt – eine Funktion von chatGPT, die es ermöglicht, komplexe Themen und Fragestellungen systematisch und tiefgehend zu analysieren. Dabei wurde sowohl die technische Anwendung als auch der strategische Aufbau eines erfolgreichen Deep Research Prompts ausführlich und praxisnah vermittelt.
- Was ist Deep Research – und warum ist es relevant?
Deep Research ist eine Premium-Funktion von chatGPT, mit der sich umfangreiche und inhaltlich fundierte Recherchen durchführen lassen – etwa zur Zielgruppenanalyse, zur Marktbeobachtung oder zur Unterstützung in der Positionierungsarbeit.
Die Funktion ist im 20-Euro-Abo (chatGPT Plus) enthalten und erfordert ein gewisses Maß an Prompt-Kompetenz, um wirklich präzise Ergebnisse zu liefern.
Wichtig: Die Rechenleistung und Datentiefe dieser Funktion führt häufig zu sehr umfangreichen Reports (teilweise 30+ Seiten), die auf validen Quellen aus öffentlich zugänglichen Daten basieren. Je nach Fragestellung kann das Ergebnis aber auch deutlich kompakter ausfallen – entscheidend ist die Qualität des Eingabeprompts, nicht dessen Länge.
- Anatomie eines Deep Research Prompts
Auch der Deep Research Prompt folgt einer spezifischen Struktur, die sich im Training klar herauskristallisiert hat:
- Einleitung durch Selbstpositionierung: Wer fragt? (z. B. Positionierung via LinkedIn-Profil oder Beschreibung des eigenen beruflichen Kontextes)
- Konkrete Analyseabsicht: Was soll analysiert werden? Welche Fragestellung steht im Zentrum?
- Strukturhilfen durch die KI: Die eigentliche Strategie besteht darin, der KI zunächst mitzuteilen, was analysiert werden soll – und sie dann selbst den Deep Research Prompt generieren zu lassen.
Hack:
Einfach nach der Problembeschreibung den Befehl geben:
„Schreibe mir hierzu einen ausführlichen Deep Research Prompt.“
Die KI baut daraufhin einen optimal strukturierten Prompt – oft inklusive Überschrift, Untersuchungszielen, Analysekriterien, Formatwünschen und weiteren Spezifikationen.
- Anwendungsbeispiele aus dem Call
Beispiel 1: Kommunikation technischer Inhalte
Zielperson: Katrin
Analyseziel: Warum fällt es Ingenieuren schwer, komplexe Inhalte verständlich zu vermitteln – und wie kann man das verbessern?
Deep Research Ergebnis: Der Prompt wird automatisch in ein differenziertes Analysebriefing überführt – inklusive Erwartung an Studien, Daten, Erkenntnisse und konkrete Handlungsempfehlungen.
Beispiel 2: Latente Gründer aktivieren
Zielperson: Dagmar (Gründungsberaterin)
Analyseziel: Welche Trigger führen dazu, dass Menschen in Angestelltenverhältnissen unzufrieden sind und über eine Gründung nachdenken?
Vorgehen: Die KI formulierte präzise Fragestellungen, die im Research behandelt werden sollen (z. B. psychografische Merkmale, Motivlagen, Barrieren).
Ergebnis: Die Grundlage für eine differenzierte Zielgruppenansprache im Marketing wurde damit geschaffen.
- Wichtige Anwendungshinweise zur Deep Research Funktion
- Ausführungsdauer: Je nach Thema dauert die Erstellung 10 bis 25 Minuten. Der Fortschritt wird visuell angezeigt.
- Quellenbasis: Es wird nur auf öffentlich zugängliche Inhalte im Internet zugegriffen. Inhalte hinter Paywalls (z. B. wissenschaftliche Studien bei Springer, Spiegel+) sind nicht verfügbar.
- Optionale Datenquellen: Wer z. B. Dropbox, Google Drive oder Gmail integriert, kann zusätzlich eigene Daten als Quelle freigeben.
- Sprache & Format: Die KI kann sowohl deutsch- als auch englischsprachige Quellen nutzen – das Ergebnis sollte jedoch klar auf Deutsch angefordert werden.
Tipp:
Der Prompt kann zu Beginn in Englisch ausgegeben werden. Einfach ergänzen:
„Bitte formuliere den gesamten Prompt auf Deutsch.“
- Iteratives Vorgehen & Individualisierung
Nach Start des Deep Research fragt die KI in mehreren Schritten:
- Zielgruppenpräzisierung
- Marktabgrenzung (z. B. nur DACH-Region?)
- Sprache der Quellen und des Ergebnisses
- Ergebnisformat (Gesamtergebnis vs. strukturierter Output)
Die Empfehlung:
Fragen möglichst konkret beantworten, dabei strukturierte Antworten mit Nummerierungen nutzen (z. B. „Zu 1: …“) und immer das gewünschte Ziel im Blick behalten.
- Integration ins eigene Vorgehen
- Recherche-Ergebnisse können als PDF gespeichert werden.
- Ergebnisse können anschließend erneut als Input für neue Prompts dienen, etwa bei der Entwicklung eines Positionierungsstatements, einer Persona oder eines Marketingkonzepts.
- Alternative Fragestellungen, die die KI vorschlägt, können zur Vertiefung genutzt werden.
Fazit
Deep Research ist ein kraftvolles Werkzeug, das – bei richtiger Anwendung – datenbasierte, valide und verwertbare Analysen liefert. Es ersetzt keine strategische Arbeit, liefert aber eine belastbare Basis für fundierte Entscheidungen.
Wer die eigene Positionierung kennt, die Zielgruppenfragen klar formuliert und der KI saubere Impulse liefert, erhält Ergebnisse auf einem fachlich und inhaltlich sehr hohen Niveau.
Diverse Bordmittel (Gamma, Claude, Perplexity, …)
Zusammenfassung:
In diesem Abschnitt stellen Torsten und Katrin eine Reihe von Tools vor, mit denen sich KI-gestützte Recherchen, Auswertungen und Inhalte nicht nur erstellen, sondern auch strukturieren, präsentieren und strategisch nutzen lassen.
Der Fokus liegt auf der Umsetzung realer Use Cases – mit Deep Research, Präsentationen, Contentstrukturierung und smarter Textarbeit.
- Deep Research: Ergebnisse richtig prüfen und nutzen
Die Teilnehmer erhalten Einblick in die Funktion und Kontrolle der Deep Research Prompts:
- Die KI recherchiert automatisch Quellen, Studien, Cases und Tools (z. B. zu Soft Skills, Kommunikationstrainings, Marktpotenzialen etc.)
- Über die Quellansicht lässt sich nachvollziehen, welche Inhalte herangezogen wurden
- Ergebnisdokumente sind oft 10–30 DIN-A4-Seiten lang
- Der Hinweis: Nicht alles blind übernehmen – Inhalte sollten validiert und im Zweifel überprüft werden
Praxisbeispiel:
Katrins Deep Research zur Kommunikation für Fach- und Führungskräfte: 12 Seiten + 21 Quellen.
- Präsentationen automatisch erstellen – mit Gamma.app
Gamma ist ein KI-gestütztes Tool zur Erstellung von automatisierten Präsentationen:
- Aus langen Texten (z. B. 12 DIN-A4-Seiten) werden strukturierte, visualisierte Slides generiert
- Empfohlene Faustregel: Seitenzahl × 2 = Anzahl der Slides
- Slides können als PDF, PowerPoint oder Weblink exportiert werden
- Individuelle Designs möglich: Logo, Farben, CI hinterlegen
- Gamma bleibt „eine kleine Diva“ – der Tab muss beim Rendern geöffnet bleiben
Nutzen:
Gamma übersetzt komplexe Recherche-Ergebnisse in visuelle, leicht verdauliche Formate – ideal für Präsentationen, Kundenbriefings, Schulungen oder Content-Materialien.
- Tool: Claude – für Projekte, Struktur & Kontextarbeit
Claude (von Anthropic) ist eine Alternative zu ChatGPT mit speziellen Funktionen für strukturiertes Arbeiten:
- Claude arbeitet in Projekten: Einzelne Chats lassen sich thematisch gruppieren und strukturieren
- Ergebnisse können als Artifakte gespeichert werden – etwa Zielgruppenanalysen, Positionierungen, Inhaltsideen etc.
- Claude kann auch PDFs und Word-Dokumente lesen und verarbeiten
- Ideal zur kollaborativen, iterativen Erarbeitung komplexer Themen (z. B. Buchprojekte, Newsletter-Redaktion)
Hack von Katrin:
Newsletter-Text in ChatGPT schreiben, dann Feedback und Feinschliff von Claude einholen – Tools kombinieren für mehr Tiefe und Qualität.
- Tool: Perplexity – KI-gestützte Webrecherche
Perplexity ist ein spezialisiertes KI-Recherche-Tool, das direkt im Internet sucht:
- Nutzt aktuelle Quellen, zeigt Quellen und Links transparent an
- Ideal für Marktanalysen, Wettbewerbsrecherchen, Linkquellen, Plattformrecherche etc.
- Unterstützt Sprachsuche, Datei-Upload und FAQ-Simulation
- Perfekt geeignet für den Einsatz auf Webseiten (z. B. FAQ-Generierung anhand echter Suchfragen)
Empfehlung:
Suche dich selbst bei Perplexity – und überprüfe, wie du aktuell im Netz dargestellt wirst.
- Weitere Tools & Bordmittel aus dem KI-Kickstart
Gamma.app
→ Automatisierte Präsentationen (siehe oben)
Just Record + Whisper
→ Audioaufzeichnung und Transkription von Zoom-Meetings oder Podcasts
File.ai (für Windows-Nutzer)
→ Kostenloser Zugang zu Whisper für Text-Transkription aus Audio/Video
Hemingway App
→ Bewertet die Lesbarkeit von Texten (z. B. für Ingenieure, Zielgruppen mit klaren Anforderungen an Verständlichkeit)
- Zeigt schwer lesbare Sätze farblich an
- Vorschläge zur Vereinfachung
- Kombinierbar mit ChatGPT zur Neuformulierung
Flux
→ Tool für KI-generierte Bilder & Avatare (z. B. personalisierte Bilder auf Basis eigener Fotos)
DeepL & DeepL Write
→ Hochwertige Übersetzung + Textoptimierung
HeyGen (über Thomas Hruska)
→ Erstellung von Avatar-Videos
Ideogram, Napkin, MidJourney
→ Visuelle Inhalte, Infografiken, Bildgenerierung
- Der zentrale Gedanke: Tool-Auswahl folgt dem Problem, nicht dem Hype
Katrin betont mehrfach:
Es geht nicht darum, jedem neuen Tool hinterherzulaufen. Entscheidend ist die Frage:
Was ist mein konkreter Anwendungsfall?
Und: Welches Tool kann mir dort gezielt helfen?
Tools sollten Prozesse vereinfachen, Zeit sparen, Qualität verbessern – nicht nur beeindrucken.
Fazit dieses Moduls:
Die vorgestellten Tools zeigen, wie vielfältig und praxistauglich KI-Anwendungen heute schon sind:
- Deep Research schafft inhaltliche Tiefe
- Gamma macht Inhalte visuell verdaubar
- Claude ermöglicht strukturierte Projektarbeit
- Perplexity bringt Recherche auf ein neues Level
- Hemingway, Whisper, File.ai & Co. optimieren Arbeitsprozesse
Wer gezielt kombiniert, erhält nicht nur Output, sondern echte Wirkung.
Immer im Fokus: Human in the loop – die KI denkt mit, aber du führst.
EU AI Act & Datenschutz mit Carsten Wittmann
Zusammenfassung:
In diesem tiefgehenden und praxisnahen Training vermittelt Carsten Wittmann – KI-Berater, TÜV-zertifizierter AI Consultant und langjähriger Datenschutzexperte – fundiertes Wissen zu den datenschutzrechtlichen Grundlagen und den Anforderungen der neuen KI-Verordnung (EU AI Act). Ziel ist es, den Teilnehmern Klarheit und Sicherheit im Umgang mit KI-Anwendungen zu geben – verständlich, anwendungsbezogen und ohne juristisches Fachchinesisch.
Inhalte im Überblick:
- Datenschutz als Enabler, nicht als Blockade
Datenschutz wird oft als Innovationsbremse gesehen – zu Unrecht. Wer sich an die Spielregeln hält, schafft Vertrauen und schützt nicht nur sich, sondern auch seine Kunden. Carsten betont: Es geht nicht um Vermeidung, sondern um bewusstes, sauberes Handeln. - Grundlagen der DSGVO – Die 8 Prinzipien
- Rechtmäßigkeit, Treu und Glauben
- Zweckbindung
- Datenminimierung
- Speicherbegrenzung
- Richtigkeit
- Integrität und Vertraulichkeit
- Rechenschaftspflicht
- Datenschutz durch Technikgestaltung und datenschutzfreundliche Voreinstellungen (Privacy by Design & Default)
Diese Grundsätze gelten auch im Kontext von KI und bilden die Basis jeder datenschutzkonformen Anwendung.
- Was sind personenbezogene Daten?
Neben klassischen Informationen wie Name, Adresse oder Telefonnummer gehören auch IP-Adressen, Standortdaten oder biometrische Merkmale dazu. Auch scheinbar harmlose Einzeldaten können in Kombination Rückschlüsse auf Personen zulassen. - Erlaubnistatbestände zur Datenverarbeitung laut DSGVO
Datenverarbeitung ist grundsätzlich verboten – erlaubt ist sie nur, wenn eine Rechtsgrundlage vorliegt. Die drei wichtigsten:
- Einwilligung (freiwillig, transparent, widerrufbar)
- Vertragliche Grundlage (z. B. im Rahmen einer Dienstleistung)
- Berechtigtes Interesse (mit Interessenabwägung, z. B. bei anonymisierten Trainingsdaten)
- Verantwortung und Auftragsverarbeitung
Verantwortlich ist immer, wer über Zweck und Mittel der Verarbeitung entscheidet. Bei der Zusammenarbeit mit Dienstleistern ist ein Auftragsverarbeitungsvertrag (AVV) zwingend erforderlich – auch innerhalb der EU. Besonderes Augenmerk gilt Anbietern außerhalb Europas, insbesondere in den USA. - Anonymisierung und Pseudonymisierung als Risikominimierung
Wo immer möglich, sollten personenbezogene Daten vermieden werden. Beispiele:
- Pseudonyme statt Klarnamen (z. B. Kundennummern)
- Allgemeine Beschreibungen (z. B. „Lehrer in bayerischer Großstadt“ statt konkreter Name)
- KI-freundliche Datenaufbereitung ohne Rückschlüsse auf Einzelpersonen
- Datenübertragung ins Ausland und Risiken bei US-Anbietern
- Innerhalb der EU gilt einheitlicher Datenschutzstandard
- Drittstaaten wie USA unterliegen dem EU/US Data Privacy Framework, bieten aber ein Restrisiko
- Anbieter wie OpenAI oder Microsoft können trotz EU-Hosting durch US-Gerichte zur Herausgabe von Daten gezwungen werden
- Lösung: Zero Data Retention-Vereinbarungen, passende Lizenzmodelle, bewusste Toolwahl
- Der EU AI Act – Einordnung und Pflichten
Die KI-Verordnung unterscheidet zwischen:
- KI-Modell (z. B. GPT-4)
- KI-System (z. B. ChatGPT – als Produkt)
Reguliert wird das System, nicht das Modell.
Risikoklassifizierung:
- Verbotene KI-Systeme: z. B. Social Scoring, Verhaltensmanipulation
- Hohes Risiko: z. B. KI in Medizin, Justiz, kritischer Infrastruktur – erfordert Konformitätsbewertung
- Begrenztes Risiko: z. B. Chatbots, KI-generierte Inhalte – erfordert Kennzeichnung
- Minimales Risiko: z. B. Rechtschreibprüfung, einfache Bildbearbeitung – keine Vorgaben
- Rollenverständnis laut EU AI Act
- Anbieter (Hersteller oder Inverkehrbringer)
- Betreiber (organisatorische Nutzer von KI-Systemen)
- Privatnutzer sind nicht betroffen
Unternehmen müssen je nach Rolle unterschiedliche Pflichten erfüllen.
- KI-Kompetenz im Unternehmen aufbauen
Je nach Rolle und Risiko ist Schulung notwendig. Vorgehen:
- Use Cases identifizieren
- Systeme und Modelle benennen
- Rollen zuordnen
- Schulungsbedarf ermitteln
- Wissen dokumentieren und bei Änderungen (z. B. Modellwechsel) aktualisieren
- Tool-Auswahl und praktische Umsetzung
Carsten Wittmann hat eine umfassende Bewertung gängiger KI-Tools (ChatGPT, Claude, Gamma, Loom, DeepL, Perplexity etc.) vorgenommen. Dabei analysierte er:
- Welche Tools sind datenschutzkonform nutzbar?
- Welche Lizenzmodelle sind notwendig (z. B. Enterprise, Pro)?
- Welche Einstellungen sind zu beachten (z. B. No Log, Opt-out)?
- Wo drohen Risiken bei personenbezogenen Daten?
Fazit: Viele Tools lassen sich rechtskonform einsetzen – mit der richtigen Konfiguration, passenden Vereinbarungen und bewusster Nutzung. Bei einigen Tools (z. B. Gamma) ist Vorsicht geboten, wenn personenbezogene Daten enthalten sind oder öffentliche Links verwendet werden.
- Aufbau eines KI-Management-Systems light
Für KMUs und Selbstständige empfiehlt Carsten eine schlanke, aber strukturierte Herangehensweise:
- Interne KI-Richtlinie oder KI-Manifest (Ziele, Nutzen, Grenzen definieren)
- Verzeichnis aller eingesetzten KI-Systeme und Use Cases
- Risikobewertung und Dokumentation
- Aufklärungspflichten (Datenschutzerklärung, Einwilligungen)
- Schulung und Dokumentation der KI-Kompetenz
- Prozesse definieren für Toolfreigaben, Updates, Pannen etc.
- Verantwortlichkeiten klären (z. B. KI-Manager, AI-Board)
- Abschließende Hinweise und Ressourcen
- Checklisten, Tool-Analysen, Linklisten und Templates wurden allen Teilnehmern zur Verfügung gestellt
- Bitkom-Leitfaden und LinkedIn-Experten werden empfohlen
- Fragen aus dem Teilnehmerkreis wurden ausführlich beantwortet, z. B. zu Eventfotos, KI-generierten Bildern und Notetaking-Tools
Fazit:
Dieses Training bietet eine fundierte, anwendungsnahe Orientierung im Spannungsfeld zwischen Datenschutz, KI-Nutzung und neuer EU-Verordnung. Wer KI nutzen will – professionell, sicher und zukunftsfähig – kommt an diesen Grundlagen nicht vorbei.
CustomGPTs
Zusammenfassung:
In diesem abschließenden Abschnitt wurde das Thema CustomGPTs im Kontext von ChatGPT umfassend behandelt – von den technischen Grundlagen über konkrete Anwendungsfälle bis hin zu Best Practices für Aufbau, Konfiguration und Nutzung. Ziel war es, den Teilnehmenden zu zeigen, wie sie eigene Assistenten entwickeln können, um repetitive Aufgaben zu automatisieren und dadurch im Arbeitsalltag spürbare Effizienzgewinne zu erzielen.
- Grundlagen und Abgrenzung
- Was ist ein CustomGPT?
Ein individuell konfigurierter Assistent innerhalb von ChatGPT, der auf spezifische Aufgaben trainiert ist. CustomGPTs lassen sich mit Kontext, Rollenverständnis, Beispielen, Do’s und Don’ts ausstatten. Sie arbeiten dadurch präziser als allgemeine Prompts. - Abgrenzung zu anderen Tools:
ChatGPT mit CustomGPTs hat aktuell ein Alleinstellungsmerkmal. Claude, Gemini und Perplexity bieten ähnliche Funktionen entweder nicht oder nur mit Umwegen an. - Custom GPT vs. Projekte:
Projekte in ChatGPT strukturieren lediglich Chats. Die eigentliche Funktionalität steckt in den Custom GPTs. Im Vergleich bietet Claude im Bereich Projektarbeit jedoch einen deutlich robusteren Wissensspeicher.
- Technische Umsetzung
- Erstellung eines neuen CustomGPTs:
Über die GPT-Oberfläche kann ein neuer Assistent konfiguriert werden. Wichtige Elemente sind:- Name, Beschreibung, Bild
- Gesprächsaufhänger (zum Start des Dialogs)
- Modellwahl (GPT-4.0 oder 4.1)
- Zusatzfunktionen wie Internetrecherche, Canva-Modus, Bildgenerierung (optional)
- Wissensbereich (Knowledge Upload):
Essenziell ist die Möglichkeit, eigene Dateien wie PDFs oder Word-Dokumente hochzuladen. Empfehlung: Word-Dokumente verarbeiten Custom GPTs deutlich verlässlicher als PDFs. - Rollenbeschreibung als Erfolgsfaktor:
Custom GPTs benötigen eine präzise Rollen- und Aufgabendefinition, um konsistente Ergebnisse zu liefern. Ein bewährter Aufbau enthält: Kontext, Ziel, Vorgehensweise, Sprache, Tonalität, Grenzen und Qualitätsmaßstäbe.
- Praxisbeispiele aus dem Koerting Institute
- Assistenten im operativen Einsatz:
Das Team des Koerting Institute nutzt ca. 80 spezialisierte Custom GPTs, u. a. für:- Trainingscall-Zusammenfassungen
- LinkedIn-Content-Erstellung (Themenfindung, Hook-Formulierung, Copywriting)
- Podcast-Show Notes
- Eventlaufzettel auf Basis von eingesprochenen Sprachnotizen
- Auswertung von Kundengesprächen, Testimonials und Angebotskontexten
- Unterstützung für Community Management, KI-Summits und interne Prozesse
- Eventorganisation mit KI:
Ein Highlight war das Beispiel zur automatisierten Erstellung eines Event-Laufzettels aus einer 10-minütigen Sprachnotiz – transkribiert mit Whisper, verarbeitet durch einen Custom GPT, ausgegeben als vollständiger Projektplan.
- Wiederholbarkeit durch Reverse Engineering
- Automatisierte Erstellung von Custom GPT-Konfigurationen:
Aus einem gelungenen Dialogverlauf lässt sich mithilfe eines speziellen Prompts (aus dem „Hidden Chapter“) automatisch eine vollständige Custom GPT-Konfiguration generieren. Diese Technik ermöglicht schnelles Prototyping. - Beispiel: Newsletter-Bot
Ein Blogbeitrag wurde mit einem GPT erarbeitet. Anschließend wurde daraus ein Custom GPT erstellt, der künftig selbstständig neue Beiträge auf Basis derselben Struktur erstellt.
- Tipps, Hacks und Erfahrungswerte
- Wissensdateien möglichst als Word-Dokument hochladen, da PDFs tendenziell schlechter verarbeitet werden.
- CustomGPTs sind besonders stark bei wiederkehrenden Aufgaben wie Content-Erstellung, Zusammenfassungen, Dokumentationsaufgaben oder Angebotsvorbereitung.
- Spezialisierung zahlt sich aus: Lieber mehrere kleine GPTs für dedizierte Aufgaben (z. B. Hook-Formulierung, Themenrecherche) als einen überladenen Generalisten.
- Rollenlogik anwenden: GPTs wie Teammitglieder betrachten – mit klarer Zuständigkeit, Rolle und Verantwortungsbereich.
- Schutz und Freigabe: GPTs können öffentlich, teamintern oder nur per Link verfügbar gemacht werden. Schutzprompts verhindern ungewolltes Auslesen der Konfiguration.
- Monetarisierung möglich: Custom GPTs lassen sich an Kunden weitergeben, z. B. als Teil eines Coaching- oder Trainingsprogramms.
- Fragen aus der Community (Auszug)
- Wie oft sollte man Wissensdateien aktualisieren?
Bei lebenden Dokumenten wie Lebensläufen oder Projektständen regelmäßig (z. B. alle 2 Monate). - Sind die Antworten von GPTs verlässlich?
Nein, Halluzinationen sind möglich. Je besser die Konfiguration und je strukturierter das Wissen, desto verlässlicher die Ergebnisse. - Kann man GPTs auslesen?
Ja – allerdings können sensible Inhalte in den Wissensbereich ausgelagert und durch Schutzprompts geschützt werden.
Fazit
CustomGPTs sind ein hochwirksames Instrument zur Automatisierung und Standardisierung wiederkehrender Prozesse im Alltag. Sie ermöglichen eine neue Qualität der Zusammenarbeit mit KI, vorausgesetzt sie sind sorgfältig konfiguriert und in den passenden Anwendungsfällen eingesetzt. Mit den im Call gezeigten Beispielen, Tools und Denkweisen sind die Teilnehmenden in der Lage, sich eigene GPT-Arsenale aufzubauen – für mehr Klarheit, Effizienz und kreative Entlastung im Arbeitsalltag.
