Zurück zu Systems Notes
Readiness
14 min1.500+ Worte

AI Readiness vor AI-Act-Panik

Was Teams technisch und organisatorisch vorbereiten können, ohne Compliance zu versprechen oder Rechtsberatung zu ersetzen.

Strukturierte AI-Readiness-Karte mit Datenflüssen, Kontrollpunkten und Risikoindikatoren.

AI Readiness ist nicht dasselbe wie Compliance. Compliance ist am Ende eine rechtliche, organisatorische und technische Gesamtbewertung. Readiness ist die Vorarbeit, die diese Bewertung überhaupt möglich macht. Fyn Labs sollte deshalb nicht versprechen, ein Unternehmen AI-Act- oder DSGVO-compliant zu machen. Die bessere und ehrlichere Position ist: Wir bauen KI-Workflows so, dass sie produktiv, dokumentierbar, kontrollierbar und prüfbar werden.

Diese Unterscheidung ist kommerziell wichtig. Viele Firmen spüren 2026 Unsicherheit. Sie wollen KI nutzen, aber niemand möchte später erklären müssen, dass Kundendaten in unklaren Tools gelandet sind, Outputs ohne Kontrolle verschickt wurden oder niemand weiß, welche Use Cases im Unternehmen überhaupt laufen. Genau hier kann ein technischer Readiness-Ansatz helfen: weniger Panik, mehr Struktur.

Stand 24. April 2026 gilt der EU AI Act progressiv. Der AI Act Service Desk beschreibt eine schrittweise Anwendung mit vollem Roll-out bis 2. August 2027. Allgemeine Vorschriften und Verbote gelten seit 2. Februar 2025, Regeln für General-Purpose AI seit 2. August 2025, die Mehrheit der Regeln und Transparenzpflichten ist für 2. August 2026 vorgesehen, und bestimmte High-Risk-Regeln für regulierte Produkte folgen 2027. Gleichzeitig verweist die EU-Kommission auf Diskussionen rund um Standards und mögliche Anpassungen im Digital-Omnibus-Kontext. Für Teams heißt das nicht: abwarten. Es heißt: sauber mappen.

Der erste Schritt: AI Use Case Register

Ein AI Use Case Register ist eine einfache, aber mächtige Tabelle. Es listet, wo im Unternehmen KI genutzt wird oder geplant ist. Nicht nur offizielle Projekte, sondern auch reale Nutzung: Content, Support, Sales, Code, HR, Reporting, Research, Produktanalyse. Für jeden Use Case werden Zweck, Owner, Tools, Datenarten, Output, Nutzer, Risiko und Kontrollpunkte erfasst.

Minimalstruktur eines AI Use Case Registers
FeldFrageBeispiel
Use CaseWelche Arbeit wird unterstützt?Support-Antworten vorschlagen
OwnerWer verantwortet den Prozess?Head of Customer Success
DatenWelche Daten werden verarbeitet?Tickets, Account-Status, Produktdoku
Tool/VendorWelche Systeme sind beteiligt?LLM API, Helpdesk, Knowledge Base
OutputWer sieht das Ergebnis?Support-Agent, später Kunde
KontrolleWo prüft ein Mensch?Agent prüft vor Versand

Datenflusskarte statt Bauchgefühl

Die häufigste Schwäche in KI-Projekten ist nicht das Modell, sondern die Unklarheit über Daten. Welche Daten werden in einen Prompt geschrieben? Werden sie gespeichert? Werden sie an einen externen Anbieter übertragen? Gibt es personenbezogene Daten? Gibt es besondere Kategorien wie Gesundheitsdaten? Gibt es Kunden- oder Geschäftsgeheimnisse? Werden Ergebnisse in andere Systeme zurückgeschrieben?

Eine Datenflusskarte muss nicht kompliziert sein. Für jeden Use Case reichen oft fünf Stationen: Quelle, Verarbeitung, Modell/Vendor, Output, Speicherort. Dazu wird markiert, welche Daten sensibel sind und welche Kontrollpunkte existieren. Diese Map ist kein juristisches Gutachten, aber sie ist ein Arbeitsdokument, das Datenschutz, Security und Management sofort bessere Fragen stellen lässt.

Vendor- und Modell-Map

Viele Teams nutzen KI über mehrere Ebenen. Ein Produkt enthält ein KI-Feature. Ein Automationswerkzeug ruft ein Modell auf. Ein Browser-Plugin verarbeitet Daten. Ein internes Script nutzt eine API. Ohne Vendor Map entsteht Schattenarchitektur. Die Firma kennt vielleicht das sichtbare Tool, aber nicht die Verarbeitungskette dahinter. Readiness bedeutet, diese Kette sichtbar zu machen.

Was in die Vendor Map gehört

  • Name des Tools oder Vendors
  • Modell oder Anbieter, soweit bekannt
  • Datenarten, die verarbeitet werden
  • Speicher- und Logging-Verhalten, soweit dokumentiert
  • Zugriffsrechte und interne Nutzergruppen
  • kritische Abhängigkeiten und Alternativen

Human Control als Readiness-Kriterium

Readiness zeigt sich nicht nur in Dokumentation, sondern im Workflow. Wo KI Entscheidungen vorbereitet, sollte klar sein, wer final entscheidet. Wo KI Inhalte erzeugt, sollte klar sein, wer veröffentlicht. Wo KI Kandidaten, Patienten, Kunden oder Mitarbeitende betrifft, sollte besonders klar sein, ob das System nur unterstützt oder faktisch entscheidet. Diese Unterscheidung ist zentral für Vertrauen.

Für viele Unternehmen wird ein sauberer Human-in-the-loop-Ansatz der Unterschied zwischen produktiver Nutzung und Blockade sein. Wenn ein System belegen kann, dass ein Mensch die Freigabe trifft, dass Inputs kontrolliert sind und dass Outputs nachvollziehbar geloggt werden, ist die Diskussion wesentlich reifer als bei einem Black-Box-Autopiloten.

Was Fyn Labs liefern sollte und was nicht

Readiness-Grenze
Fyn Labs liefertFyn Labs verspricht nicht
Use Case Registerfinale Rechtsmeinung
Datenfluss- und Vendor MapDSGVO-Gutachten
Human-Control-DesignAI-Act-Compliance-Zertifikat
Logging- und Evidence-Konzeptjuristische Risikoübernahme
Legal Review Pack für Anwalt/DSBErsatz für Anwalt oder DSB

Pragmatische Leitfrage

Kann ein fachkundiger Dritter in 30 Minuten verstehen, welche KI-Systeme genutzt werden, welche Daten fließen, wer entscheidet und welche Nachweise existieren? Wenn nein, fehlt Readiness.

Readiness als Management-Routine

AI Readiness sollte nicht als einmaliges Projekt verstanden werden. Sobald ein Unternehmen KI produktiv nutzt, verändert sich die Landschaft laufend: neue Tools, neue Modelle, neue Integrationen, neue Datenquellen, neue regulatorische Erwartungen. Deshalb braucht Readiness eine Routine. Einmal pro Monat oder Quartal sollte geprüft werden, welche Use Cases neu sind, welche Datenflüsse sich geändert haben, welche Vendoren hinzugekommen sind und welche Kontrollpunkte nicht mehr ausreichen.

Diese Routine muss nicht bürokratisch sein. Ein leichtgewichtiges AI Use Case Register, eine Vendor Map und ein offenes Risiko-Log reichen für viele Teams als Start. Entscheidend ist, dass es einen Owner gibt. Ohne Owner wird Readiness zur losen Absicht. Mit Owner entsteht ein Prozess, der Produktivität und Kontrolle zusammenhält.

Readiness-Routine
RhythmusPrüfungErgebnis
MonatlichNeue KI-Nutzung und Tool-ZugängeUse Case Register aktualisiert
QuartalsweiseDatenflüsse und VendorenData/Vendor Map aktualisiert
Bei neuem WorkflowRisiko und Human ControlKontrollpunkte dokumentiert
Vor Go-liveOutput, Logging, VerantwortlicheFreigabe oder Eskalation

Für Fyn Labs ist genau diese Routine ein guter Beratungs- und Implementierungshebel. Viele Firmen brauchen keine abstrakte AI-Act-Panik, sondern ein System, das offene Fragen sichtbar macht. Wenn ein Anwalt, Datenschutzbeauftragter oder interner Compliance-Lead später prüft, ist die Vorarbeit bereits sauber strukturiert.

Wie du diesen Guide im Team verwendest

Ein guter Guide sollte nicht nur gelesen werden. Er sollte eine bessere Entscheidung auslösen. Deshalb funktioniert dieser Artikel am besten, wenn er nicht allein im Browser bleibt, sondern in ein kurzes internes Arbeitsformat übersetzt wird. Ein Team kann dafür 60 bis 90 Minuten blocken, den Guide vorab lesen lassen und im Termin nur drei Fragen beantworten: Welche Aussage trifft unser aktuelles Problem am stärksten? Welcher Workflow wäre ein sinnvoller erster Kandidat? Welche Entscheidung können wir diese Woche treffen, ohne ein großes Transformationsprojekt zu starten?

Der wichtigste Effekt entsteht, wenn das Team vom abstrakten Interesse zur konkreten Map wechselt. Fast jede KI-Diskussion wird besser, sobald sie an einem echten Workflow hängt. Statt über Modelle, Toolnamen oder Trends zu sprechen, beschreibt man Eingaben, Zwischenschritte, Daten, Entscheidungen, Outputs und Review-Punkte. Dadurch wird schnell sichtbar, ob ein Thema reif für Systemisierung ist oder nur nach Innovation klingt.

Für Fyn Labs ist genau diese Übersetzung der Kern der Arbeit. Wir versuchen nicht, jedes Unternehmen mit einer großen KI-Vision zu überziehen. Wir suchen die wenigen Stellen, an denen ein kontrolliertes System echten Hebel hat. Das können Content-Produktion, Research, Agent-Delivery, Support-Triage, Signal Mining oder Readiness-Dokumentation sein. Entscheidend ist, dass der erste Build wiederverwendbares Wissen erzeugt: Prompts, SOPs, Entscheidungsregeln, Datenkarten, Review Gates oder Metriken.

Workshop-Format nach dem Lesen
SchrittFrageOutput
1. DiagnoseWo erleben wir heute Reibung, Risiko oder Wiederholung?Liste mit 3 bis 5 Workflow-Kandidaten
2. AuswahlWelcher Kandidat hat Hebel und ist in 30 Tagen testbar?ein priorisierter Use Case
3. KontrolleWo muss ein Mensch entscheiden oder freigeben?Review Gate und Owner
4. DatenWelche Quellen, Tools und sensiblen Informationen sind beteiligt?erste Datenflusskarte
5. SprintWas wäre der kleinste nützliche System-Build?30-Tage-Plan mit Erfolgskriterium

Ein gutes Ergebnis nach diesem Mini-Workshop ist keine perfekte Architektur. Ein gutes Ergebnis ist eine klare nächste Bewegung. Zum Beispiel: Wir bauen ein Content-Briefing-System für drei Themencluster. Oder: Wir mappen alle KI-Use-Cases, bevor weitere Tools gekauft werden. Oder: Wir setzen ein Approval Board für Outreach-Kandidaten auf. Oder: Wir strukturieren unseren Codex-Workspace, bevor mehrere Agenten parallel am Produkt arbeiten.

Wenn diese Bewegung gelingt, entsteht Vertrauen. Das Team sieht, dass KI nicht als unkontrollierter Autopilot eingeführt werden muss. Es sieht, dass Geschwindigkeit und Kontrolle zusammen funktionieren können. Und es erkennt, dass die eigentliche Frage nicht lautet, welches Modell am besten ist, sondern welcher Workflow ein Betriebssystem verdient.

Für Käufer ist dieser Punkt besonders wichtig. Wer Fyn Labs beauftragt, kauft nicht nur Umsetzungskapazität, sondern eine Form von operativer Urteilskraft. Gute Systemarbeit erkennt, wann ein Prozess automatisiert werden sollte, wann nur Assistenz sinnvoll ist und wann ein Thema bewusst liegen bleiben muss. Diese Auswahl schützt Budget, Fokus und Reputation. Sie ist der Unterschied zwischen einer Agentur, die jedes Feature baut, und einem Systems Lab, das nur dort baut, wo der entstehende Workflow auch nach dem ersten Projekt Wert behält.

Darum endet jeder Guide bewusst mit einer Audit-Einladung. Nicht weil jedes Thema sofort verkauft werden muss, sondern weil ein Audit der sauberste Weg ist, aus Interesse eine belastbare Entscheidung zu machen. Erst wenn Workflow, Daten, Risiken, Owner und Erfolgskriterium sichtbar sind, lohnt sich Implementierung. Genau diese Disziplin macht die Artikel nicht nur lesbar, sondern direkt verwendbar für Strategie, Sales, Produktarbeit und interne Priorisierung.

Praktischer Test

Wenn du nach dem Lesen dieses Guides keinen konkreten Workflow benennen kannst, ist es zu früh für Implementierung. Wenn du einen Workflow, einen Owner, eine Datenquelle, ein Review Gate und ein 30-Tage-Ergebnis benennen kannst, ist es Zeit für einen Audit oder einen ersten System-Sprint.