
KI-Summit Germany 2026 - RoundTable
RoundTable 1 – Vorstellung
Roundtables & Expertenzugang
In diesem Abschnitt des Summits wird der nächste inhaltliche Vertiefungsschritt der Veranstaltung eingeläutet: interaktive Roundtables, die es den Teilnehmenden ermöglichen, gezielt in spezifische Themenfelder einzutauchen und direkten Zugang zu den jeweiligen Experten zu erhalten.
Ziel ist es, aus Inspiration konkrete Anwendung, technisches Verständnis und strategische Klarheit entstehen zu lassen.
Struktur & Ablauf der Roundtables
- Insgesamt sieben Roundtables mit klar definierten Themenschwerpunkten.
- Zwei Runden à 45 Minuten, dazwischen 15 Minuten Pause.
- Teilnehmende können in zwei unterschiedliche Themenbereiche eintauchen.
- Auch Online-Teilnehmende erhalten exklusiven Zugang zu ausgewählten Sessions.
- Die Formate sind keine Frontalvorträge, sondern leben von Interaktion, Fragen und Praxisbezug.
Die klare Botschaft: Jetzt ist der Moment, direkten Zugang zu Experten zu nutzen – eine Gelegenheit, die im normalen Alltag kaum verfügbar ist.
Die einzelnen Roundtables & ihre Kernthemen
- Multiagenten-Systeme (Patrick von Athene)
- Klärung offener Fragen rund um Multiagenten
- Architektur und Einsatzmöglichkeiten
- Praxisorientierter Austausch
- Zwei Session-Runden
Fokus: Technologische Tiefe und strategische Einsatzfelder von Multiagenten.
- Technische Einblicke & Feintuning (Stefan Weimer & Team)
- Einblick in reale Projektgeschichte
- Technischer Deep Dive
- Fokus auf Modell-Feintuning
- Phase 2: Machine Learning Vertiefung
Fokus: Verständnis, wie Modelle praktisch optimiert werden und was man dabei lernt.
- Nele AI & Chatbot-Systeme (Michael Lewis)
- Vorstellung von Nele AI
- Chatbot-Anwendungen
- Interaktive Fragerunde
- Online-Zuschaltung mit Live-Interaktion
Fokus: Chatbots als produktives Unternehmenswerkzeug – Praxis, Struktur, Möglichkeiten.
- Hedy – Real-Time Assistant in Meetings (Julian)
- Einsatz von KI-Coaching in Meetings
- Real-Time Assistants
- Infrastruktur- & Ökosystemfragen
- Fokus auf Anwendung statt Tech-Support
Kernfrage: Wie nutzt man KI konkret zur Leistungssteigerung in Gesprächen und Organisationen?
- Telefonbots & Monetarisierung mit Phonio (Markus & Torsten)
- Vorstellung des Partners Phonio
- Konkrete Use Cases
- Interaktive Bedarfsanalyse
- Monetarisierungsoptionen in der Beratung
Zentraler Mehrwert: Telefonie-KI nicht nur einsetzen, sondern als Geschäftsmodell verstehen.
- SaaS-Entwicklung & KI-Tool-Checklisten (Carsten)
- Entwicklung einer Software-as-a-Service-Lösung
- Fragestellung: „Welches KI-Tool passt zu welchem Use Case?“
- Behind-the-Scenes Einblicke
- Erfahrungen als Nicht-Entwickler mit Cloud-Code
- Datenschutz als Grundkontext
Essenz: Wie entsteht ein KI-Produkt – von der Idee zur marktfähigen Lösung?
- Live-Einblick in produktives KI-System (Daniel)
- Live-Blick in ein bereits aktives System
- Prompting-Analyse
- Maschinenraum-Einblick
- Diskussion realer Anfragen
- Daten anonymisiert
Wichtig: Praxis schlägt Theorie – hier wird live analysiert, was im echten Einsatz passiert.
Zentrale Botschaften
Nutzt die Gelegenheit zum direkten Expertenzugang.
- Hebt die Hand – physisch oder digital.
- Stellt eure Fragen.
- Interaktion ist der Schlüssel zur echten Weiterentwicklung.
- Diese Nähe zu Experten ist selten – jetzt ist der Moment.
Die Vorstellung vermittelt nicht nur organisatorische Informationen, sondern erzeugt Dynamik, Aktivierung und einen klaren Fokus: Vom Zuhören ins Umsetzen kommen.
Zusammenfassung
Sieben interaktive Roundtables mit zwei 45-Minuten-Runden ermöglichen vertieften Zugang zu Multiagenten, Feintuning, Chatbots (Nele), Real-Time Assistants (Hedy), Telefonbots (Phonio), SaaS-Entwicklung und Live-Systemeinblicken. Fokus: Praxis, Monetarisierung, Technik, Prompting und direkte Experteninteraktion – vor Ort und online. Aktiv mitfragen und Expertenzugang nutzen.
RoundTable 2 – Hedy
Hedy – Kontext, Integration und strategische Anwendung im Business
In diesem intensiven RoundTable wurde Hedy nicht nur als Transkriptions-Tool, sondern als strategisches KI-gestütztes Gesprächssystem vorgestellt – mit einem klaren Fokus auf Kontextintelligenz, Wissensaufbau und Ökosystem-Integration.
- Grundverständnis: Was Hedy wirklich ist
Hedy wurde ursprünglich als In-Person Conversation Coach entwickelt – bewusst als Mobile-App (iOS & Android), nicht primär für Online-Meetings.
Der entscheidende Unterschied zu klassischen Tools:
- Hedy speichert standardmäßig keine Meetings.
- Das Audio wird lokal auf dem Gerät verarbeitet.
- Es analysiert Gespräche in Echtzeit.
- Es versteht Kontext über mehrere Sitzungen hinweg.
- Es entwickelt eine wachsende Knowledge Base pro Thema.
Hedy ist kein klassischer Chatbot.
Hedy ist ein multidirektionales Gesprächs-Optimierungssystem, das mehrere Sprecher versteht und dich in Echtzeit unterstützt.
- Die Architektur: Kontext ist King
Der zentrale Lernpunkt:
Kontext ist der entscheidende Faktor für Qualität in KI.
Hedy arbeitet mit zwei Kontextebenen:
- Sitzungskontext (Session Context)
Gilt nur für diese eine Sitzung.
Beispiele:
- Business Meeting
- Coaching
- Rekrutierung
- Ärztliche Konsultation
- Persönliches Brainstorming
- Journalismus
- Vorlesung
- Bewerbungsgespräch
Hier steuern vordefinierte Prompts und Outputs, wie Hedy die Informationen verarbeitet.
- Themenkontext (Topic Context)
Langfristige Knowledge Base.
Beispiel:
- Ein Kunde = ein Thema
- Eine Coaching-Reihe = ein Thema
- Ein Semester = ein Thema
- Ein Gesundheitsfall = ein Thema
Alle Sitzungen innerhalb eines Themas bauen aufeinander auf.
Hedy kann dadurch:
- Vergangene Gespräche berücksichtigen
- Stakeholder einbeziehen
- Verlaufsanalysen durchführen
- Zielabgleich ermöglichen
- Einwandbehandlung verbessern
Das ist der eigentliche strategische Hebel.
- Live-Unterstützung während Meetings
Hedy kann während einer laufenden Sitzung:
- Letzte Punkte wiedergeben
- Vorschläge für nächste Argumente liefern
- Action Items generieren
- Einwandbehandlung unterstützen
- Prioritäten vorschlagen
- Follow-ups vorbereiten
Die Transkripte sind live verfügbar und können direkt kopiert oder weiterverarbeitet werden.
Wichtig: Für externe KI-Systeme immer das Roh-Transkript verwenden – nicht die Zusammenfassung.
- API-Ökosystem & Integrationen
Hedy versteht sich als Input-System für dein KI-Ökosystem.
Integration über:
- API
- MCP-Server
- N8N
- Zapier
- Make
- Webhooks
Beispiele:
- Automatische Follow-up-Präsentationen in Gamma
- Blogartikel-Generierung während eines Meetings
- To-do-Items automatisch in ToDoist
- CRM-Export via Automationsplattform
- Content-Erstellung aus Workshops
Strategische Entscheidung: Keine direkte CRM-Integration – stattdessen Integration über Integrationsplattformen.
- Coaching & Langzeitprozesse
Für Coaches besonders relevant:
- Transkript pro Sitzung
- Verlauf über Monate
- Abgleich mit Langzeitziel
- Reflexion der eigenen Arbeit
- Coaching-Tagebuch
- Kontrollfunktion: Was habe ich gehört? Was übersehen?
Mehrere Coaches bestätigen: Quantensprung in der professionellen Arbeit.
- Datenschutz & DSGVO
- Audio wird lokal verarbeitet
- Keine Cloud-Audioübertragung
- Google Cloud für Sync-Daten
- EU-Speicheroption in Entwicklung
- Trust Center auf Website
- Zustimmung der Gesprächspartner erforderlich
- Technische Besonderheiten
- Multi-Device-Sync (iOS, Android, Mac, Windows, Web)
- Cloud Sync optional
- Real-Time Transcription
- MP3-Import
- YouTube-Import
- Transkript-Import
- Apple Watch Integration
- Perspektive: Smart Glasses
Einschränkungen:
- Keine native Speaker Recognition (in Entwicklung)
- Android + großes Sprachmodell kann bei langen Back-to-Back-Meetings verzögern
- Keine direkte Telefon-App-Abhörfunktion (Privacy-Grund)
- Persönliches Brainstorming als Produktivitätstool
Ein starkes Praxisbeispiel:
10-Minuten Braindump im Auto → Hedy priorisiert → Automatische To-do-Liste → API-Übertragung in Task-Tool → Strukturierter Arbeitstag.
- Ambient Intelligence Perspektive
Hedy entwickelt sich Richtung:
- Companion-System
- Always-on-Conversation-Support
- Hardware-Integration
- Erweiterte Memory-Strukturen
- Kontextübergreifende Projektbegleitung
Aber klare Positionierung:
Hedy bleibt ein Tool für Multi-Person-Dialoge – kein reiner 1:1-Chatbot.
Strategische Essenz
Hedy ist kein Transkriptions-Tool.
Hedy ist ein kontextbasiertes Gesprächsintelligenz-System.
Der wahre Hebel liegt nicht im Mitschreiben.
Der Hebel liegt im systematischen Aufbau einer strukturierten, KI-unterstützten Gesprächs-Knowledge-Base über Zeit.
Zusammenfassung
Hedy ist ein kontextbasiertes KI-Gesprächssystem mit zwei Ebenen: Sitzungskontext und Themenkontext. Es analysiert Meetings in Echtzeit, baut langfristige Knowledge Bases auf und unterstützt mit Live-Vorschlägen, To-dos und Einwandbehandlung. Audio bleibt lokal, Sync optional. Über APIs integrierbar in CRM, Content-Tools und Automationen. Fokus: Multi-Person-Dialogoptimierung statt reiner Transkription. Kontext ist der Qualitätshebel.
RoundTable 3 – Nele
Nele – Die Generalistin für datenschutzkonforme KI im Mittelstand
In diesem RoundTable wird Nele als strategische, unternehmensfähige KI-Plattform positioniert – mit klarem Fokus auf Datenschutz, Wirtschaftlichkeit und praxisnaher Einführung in Organisationen.
- Positionierung: Warum „Die Generalistin“?
Nele ist bewusst als Generalistin konzipiert.
Nicht als Einzellösung für Spezialfälle, sondern als breite, sofort einsetzbare KI-Plattform, die:
- mehrere KI-Modelle integriert (OpenAI, Gemini, Claude, Mistral)
- datenschutzkonforme Websuche bietet
- Wissensdatenbanken ermöglicht
- Workflows und Assistenzprozesse abbildet
- API-Integration unterstützt
- für Organisationen skalierbar ist
Ziel: 80 % aller KI-Anwendungen sofort „out of the box“ ermöglichen – ohne Projektmarathon.
- Datenschutz als Fundament
Ein zentrales Differenzierungsmerkmal ist die konsequente Datenschutzarchitektur:
- Zero Data Retention Agreements mit allen KI-Anbietern
- Speicherung aller Kundendaten ausschließlich in Deutschland (zukünftig rein deutsche Server ohne US-Beteiligung)
- DIN ISO 27001 Zertifizierung
- Datenschutzfolgeabschätzung mit über 70 Seiten Dokumentation
- AI-Act-konformes Schulungsangebot
- Sicherstellung, dass europäische Server nicht automatisch auf US-Server ausweichen
Kernaussage:
Nele ist nicht nur technisch leistungsfähig, sondern juristisch belastbar – auch für Banken, Verwaltungen und Kanzleien.
- Das Marktproblem: Unternehmen denken noch nicht in Lösungen
Ein zentraler strategischer Insight:
Unternehmen denken nicht: „Welche KI-Lösung brauche ich?“
Sondern: „Was mache ich überhaupt mit KI?“
Deshalb verfolgt Nele einen 4-Stufen-Ansatz:
- Legalisierung der Nutzung
Weg von „grauer KI-Nutzung“ hin zu rechtssicherer, zentraler Plattform. - Wissensdatenbanken strukturieren
Interne Informationen sauber aufbereiten und nutzbar machen.
Wichtig: Datenqualität entscheidet über Ergebnisqualität. - Arbeitsabläufe standardisieren
Wiederkehrende Prozesse über Assistenz-Workflows abbilden (z. B. Arbeitszeugnisse). - Integration & Automatisierung (API)
Erst wenn die Basis steht, werden komplexe Integrationen umgesetzt.
Wichtig: Integration ist der letzte Schritt – nicht der erste.
- Wissensdatenbanken: Chancen und Grenzen
Die Wissensdatenbank arbeitet als RAG-System (Retrieval Augmented Generation):
- Dokumente werden in Textsegmente zerlegt
- Speicherung in Vektordatenbank
- Kein Halluzinieren außerhalb des bereitgestellten Wissens
- Besonders geeignet für:
- Handbücher
- interne Richtlinien
- strukturierte Informationsabfragen
Grenzen:
- Keine tiefgreifenden Dokumentenanalysen
- Keine Bildverarbeitung
- Qualität hängt stark von Datenaufbereitung ab
Prinzip: „Shit in, shit out“ gilt auch für KI.
- Das Preismodell: Volumen statt User
Ein strategischer Kernbaustein:
Nele verkauft KI-Volumen (Credits) – keine Userlizenzen.
Vorteile:
- Flexible Skalierung
- Upgrade & Downgrade jederzeit möglich
- Geringe Einstiegskosten
- Wirtschaftlich attraktiv für KMU
- Durchschnittliche Nutzung nach Schulung: 1,50 € – 5 € pro Mitarbeitendem
Positionierung: KI muss für den Mittelstand bezahlbar und flächendeckend nutzbar sein.
- Modelle & Serverstrategie
- Modelle auf US- und EU-Servern verfügbar
- Priorität: europäische Infrastruktur
- Kontingentüberwachung verhindert unbeabsichtigtes Routing in die USA
- Neue Modelle erscheinen zeitlich versetzt in Europa
Qualitätsanspruch: Rechtssicherheit vor Geschwindigkeit.
- Einführung in Organisationen: Der psychologische Faktor
Ein wesentlicher Erfolgsfaktor ist nicht Technik – sondern Angstabbau.
Typische Hürden:
- Angst vor falschem Prompting
- Angst, etwas „kaputt zu machen“
- Unsicherheit im Umgang mit Modellen
Lösung:
- Einfache Nutzung
- Prompts durch KI optimieren lassen
- Schulungen für Mitarbeitende und Admins
- AI-Act-konforme Lernplattform mit Zertifizierung
Ziel: Vom Widerstand zum Eureka-Moment.
- Partnerstrategie
- Partner behalten Kundenshoheit
- Kostenloses Partner-Onboarding
- Schulungen optional über Partner oder Nele
- Provision auf Nutzung
- Support kostenfrei
Strategie: Skalierung über kompetente Begleitung vor Ort.
- Technische Weiterentwicklungen (Ausblick)
- Nele 2.0 mit erweiterten Integrationen
- Verbesserte Wissensdatenbanken
- Neue Add-Ins für Office (abwärtskompatibel)
- Deutsche Hosting-Infrastruktur ohne US-Beteiligung
Strategische Gesamtbotschaft
Nele ist keine Spielwiese für KI-Enthusiasten.
Nele ist eine rechtskonforme, wirtschaftliche und sofort einsetzbare KI-Infrastruktur für Organisationen.
Der Fokus liegt nicht auf spektakulären Einzel-Lösungen, sondern auf systematischer Einführung, rechtlicher Absicherung und nachhaltiger Nutzung im Alltag.
Zusammenfassung
Nele ist eine datenschutzkonforme, volumenbasierte KI-Plattform für Organisationen.
Sie integriert mehrere Modelle, bietet RAG-Wissensdatenbanken, Workflows und API-Anbindung.
Strategie: erst Legalisierung, dann Struktur, dann Automatisierung.
ISO-zertifiziert, Zero-Data-Retention, Hosting in Deutschland.
Flexibles Credit-Modell statt Userlizenz.
Ziel: bezahlbare, sichere KI-Nutzung im Mittelstand.
RoundTable 4 – Prompt Injection
KI Summit Germany – Live Security Audit eines KI-Systems
Am Ende des KI Summit Germany wurde es nicht nur inspirierend – sondern technisch hochspannend. In einer spontanen Live-Demonstration wurde ein KI-Chatbot („Maria“) einem realen Security-Angriff ausgesetzt. Was als Breakout-Session begann, entwickelte sich zu einem eindrucksvollen Praxisbeispiel für IT-Sicherheit im Zeitalter von LLM-Systemen.
Ausgangspunkt: Praxisfragen rund um KI-Systeme
Im Roundtable wurden tiefgehende Fragen gestellt – vom Systemaufbau über Prompting-Strategien bis hin zur Content-Verwertung und Social-Media-Ausspielung. Die Teilnehmer dachten bereits in Anwendungsszenarien, Kundennutzen und Skalierungsmöglichkeiten.
Doch genau hier wurde eine entscheidende Perspektive ergänzt:
Was passiert, wenn dein KI-System öffentlich zugänglich ist?
Die Kernbotschaft: Sobald du veröffentlichst, wirst du angreifbar.
Steffen stellte eine zentrale Realität klar:
Sobald du LLM-Systeme ins Internet stellst, machst du dich angreifbar.
Und zwar nicht nur theoretisch.
Nicht nur durch IT-Profis.
Sondern durch automatisierte Systeme, die in Sekundenbruchteilen tausende Angriffe fahren können.
Live-Demonstration: Ein Bot greift einen Bot an
Mit ausdrücklicher Genehmigung wurde ein Security-Audit durchgeführt.
Ein eigens gebautes Angriffs-System („Jeremy“) versuchte automatisiert:
- Systemprompts auszulesen
- interne Anweisungen zu extrahieren
- Hinweise auf Datenbanken zu bekommen
- Schwachstellen im LLM-Setup zu finden
- Information Gathering zu betreiben
- Social-Engineering-Methoden anzuwenden
- Rate-Limit-Tests durchzuführen
Besonders eindrücklich:
- Über 100 Angriffsversuche
- Keine automatische Sperrung
- Kein Blockieren der IP
- Kein Abbruch der Session
Für einen Angreifer bedeutet das:
Unbegrenztes Testfeld. Keine Konsequenz. Maximale Angriffsfläche.
Eine unbequeme Wahrheit
Selbst wenn:
- deine Server in Deutschland stehen
- du DSGVO-konform arbeitest
- du keine US-Modelle nutzt
… bist du trotzdem verantwortlich, wenn jemand Daten extrahiert.
Ein erfolgreicher Angriff ist juristisch nicht weniger problematisch als eine falsche Konfiguration.
Und hier liegt die eigentliche Brisanz für Coaches, Berater, Trainer:
Ihr arbeitet mit sensiblen Kundendaten.
Wenn diese kompromittiert werden, trägt nicht der Bot die Verantwortung – sondern ihr.
Entscheidende Erkenntnisse aus dem Audit
Der getestete Bot war solide gebaut – kein Totalausfall.
Die Systemprompts waren nicht direkt auslesbar.
Aber:
- Der Bot bestätigte, dass Systemprompts existieren
- Angriffsversuche wurden nicht geblockt
- Kein automatisches Ausschluss-System
- Kein konsequentes Logging mit Eskalation
Das allein eröffnet weitere Angriffsmöglichkeiten.
Die zentrale Lernbotschaft
Wenn du KI-Systeme baust und veröffentlichst, brauchst du:
- Security-Awareness
- Rate-Limiting
- Logging & Monitoring
- Block-Mechanismen
- Penetration-Testing
- Security-Audits vor Livegang
Und das ist heute weder extrem teuer noch nur Großkonzernen vorbehalten.
Was dieser Call wirklich vermittelt
Es ging nicht darum, Angst zu erzeugen.
Es ging um Bewusstsein.
Innovation ja.
KI ja.
Skalierung ja.
Aber mit Verantwortung.
Zusammenfassung
Live-Security-Audit eines KI-Chatbots zeigt: Öffentlich zugängliche LLM-Systeme sind angreifbar. Automatisierte Attacken können Systemprompts, Datenstrukturen und Schwachstellen testen – oft ohne Blockierung. DSGVO-Konformität schützt nicht vor Haftung bei Datenabfluss. Notwendig sind Rate-Limiting, Logging, Monitoring und Security-Audits vor Livegang. KI-Innovation braucht Sicherheitsbewusstsein und professionelle Absicherung.
