Einbettung
Chatfenster, Doku-KI, Office-Copilot, KI-Editor, Agent, API-Workflow oder lokaler Stack.
KI klar einordnen
Für Datenschutz und KI-Regeln macht es einen Unterschied, ob ein Team einen Chat nutzt, eine Doku-KI fragt, Office-Daten anbinden lässt oder einen Agenten mit Code, Werkzeugen und Datenquellen betreibt.
Chatfenster, Doku-KI, Office-Copilot, KI-Editor, Agent, API-Workflow oder lokaler Stack.
Öffentliche Inhalte, interne Arbeitsdaten, Kundendaten, Beschäftigtendaten, vertraulicher Code oder besondere Kategorien.
DPA/AVV, Adminrechte, Retention, Trainingsnutzung, Logging, Subprozessoren, Berechtigungen und interne Freigabe.
Der Unterschied
"Wir nutzen Copilot" und "wir haben einen eigenen Agenten" klingen im Alltag ähnlich. Fachlich können es aber komplett andere Datenflüsse, Berechtigungen und Verantwortlichkeiten sein. Gleiches gilt für eine Doku-KI auf einer Website und einen KI-Editor mit Projektzugriff.
KI-Chat
Beispiele sind ChatGPT, Claude, Gemini oder Perplexity. Entscheidend ist der Accounttyp: privat, Pro, Business oder Enterprise.
Welche Daten dürfen eingegeben werden?
Accounttyp zuerst klären
Doku-KI
Eine Dokumentations-KI wirkt klein, verarbeitet aber trotzdem Nutzerfrage, Kontext, Konto- oder Sitzungsdaten und manchmal weitere Tools.
Liest sie nur Doku oder auch Nutzer- und Toolkontext?
Kontextgrenze zuerst prüfen
Office-KI
Microsoft 365 Copilot, Gemini in Google Workspace oder Notion AI arbeiten im vorhandenen Arbeitsraum und sehen nur, wofür Berechtigungen bestehen.
Sind Rechte, Freigaben und Datenklassen sauber?
Berechtigungen zuerst prüfen
KI-Editor
Cursor, GitHub Copilot oder IDE-Agenten können Codebase-Kontext, Regeln, Dokumentation, Terminal und externe Tools einbeziehen.
Welche Dateien, Regeln, Tools und Aktionen sind erreichbar?
Arbeitsraum zuerst begrenzen
Eigener Agent
Ein eigener Agent ist mehr als ein Chatfenster. Er kann Daten abrufen, Workflows auslösen oder in Fachsysteme eingebunden sein.
Wer betreibt ihn, was darf er, wo laufen Daten?
Datenfluss zuerst zeichnen
API / Workflow
Automationen, Kundenportale oder interne Apps nutzen KI im Hintergrund. Dann zaehlen Datenfluss, Logs, Speicherorte und Schluesselverwaltung.
Welche Systeme sind verbunden?
Logs und Schlüssel prüfen
Lokal / souverän
Lokale Modelle oder EU-/DE-Stacks können Datenhoheit verbessern. Sie ersetzen aber keine Regeln für Betrieb, Sicherheit und Zugriff.
Wer pflegt Modell, Server, Updates und Nachweise?
Betriebspflichten klären
Erst Nutzungsmuster
Eine Doku-KI, ein Office-Copilot und ein KI-Editor können dasselbe Modell nutzen. Für die Freigabe zählt zuerst, welche Daten und Aktionen über die jeweilige Umgebung erreichbar sind.
Fragen zur Dokumentation stellen
Werden nur Doku-Inhalte genutzt oder auch Nutzerfrage, Session, Konto, Telemetrie und Tools?
Copilot in M365, Gemini in Workspace, Notion AI
Welche bestehenden Berechtigungen, geteilten Inhalte und Admin-Regeln greift die KI auf?
Cursor, GitHub Copilot, IDE-Agenten
Welche Codebasis, Regeln, Indexe, Terminalaktionen, MCP-Tools und Repositories sind im Kontext?
Eigener Agent mit Tools und Datenquellen
Welche Aktionen darf der Agent auslösen und wo liegt die menschliche Freigabe?
App, Automation oder Backend ruft ein Modell auf
Welche Daten fließen wohin, was wird geloggt, wer ist Anbieterrolle und wer löscht?
Beispiel Cursor
Cursor ist nicht nur ein Chat und nicht nur eine Doku-KI. Fachlich ist es eine KI-Entwicklungsumgebung: Agent, Codebase-Kontext, Projektregeln, Dokumentation, MCP-Tools und mögliche Aktionen in der Arbeitsumgebung müssen gemeinsam betrachtet werden.
Danach Anbieter und Stacks
Die Tabelle ist kein Ranking. Sie zeigt, welche Art von KI vorliegt und welcher Prüfpunkt vor einer Freigabe sichtbar werden sollte.
Business-Chat / API
Alltag, Analyse, Text, Automationen
Business- und API-Daten werden laut OpenAI standardmäßig nicht zum Modelltraining genutzt.
Accounttyp, DPA, Retention und erlaubte Datenarten klären.
Quelle: OpenAI Business DataOffice-KI
Outlook, Teams, Word, SharePoint
Microsoft beschreibt Enterprise Data Protection; Organisationsdaten werden nicht zum Training von Foundation Models genutzt.
Berechtigungen, Purview/Retention und interne Nutzungsregeln prüfen.
Quelle: Microsoft LearnEigener Agent / API-Stack
Agenten, interne Prozesse, Microsoft-Umgebung
Datenschutz hängt an Tenant, Agenten-Design, angebundenen Quellen und Logging.
Datenflussbild, Quellen, Rollen und Verantwortliche festlegen.
Quelle: Microsoft CopilotOffice-KI
Gmail, Docs, Drive, Meet
Google beschreibt, Workspace-Kundendaten ohne Erlaubnis nicht für Training oder Fine-Tuning zu nutzen.
Edition, Admin-Freigaben, Datenregionen und geteilte Drives prüfen.
Quelle: Google WorkspaceAPI- / Workflow-KI
Apps, Automationen, interne KI-Prozesse
Google Cloud und Workspace müssen getrennt betrachtet werden; Datenschutz hängt am Projekt, Vertrag, Region, Logging und Rollenmodell.
Cloud-Projekt, Region, IAM, Logs, DPA und Datenfluss dokumentieren.
Quelle: Google CloudBusiness-Chat / API
Text, Analyse, Arbeitsfassungen
Anthropic beschreibt für kommerzielle Nutzung: kein Training mit Prompts oder Code, außer der Kunde wählt dies.
Plan, Terms/DPA, Retention und erlaubte Inhalte dokumentieren.
Quelle: Anthropic DocsEU-nahe KI-Chat/API
Chat, API, europäische Anbieterlogik
Mistral beschreibt Le-Chat- und API-Daten je nach Plan unterschiedlich; deshalb müssen Plan, Privacy-Einstellung, Retention und API-Kontext getrennt geprüft werden.
Hosting, Region, ZDR/Retention, DPA und Privacy-Toggle prüfen.
Quelle: Mistral DocsSpezial-KI
Übersetzung, Sprache, Dokumente
DeepL beschreibt für Pro Datenschutzstandards; Texte werden nicht ohne Einwilligung gespeichert oder für Training genutzt.
Free und Pro trennen, erlaubte Dokumentklassen festlegen.
Quelle: DeepLRecherche-KI
Recherche, Quellen, Marktueberblick
Perplexity beschreibt Trainings-/Verbesserungsnutzung je nach Einstellung; Enterprise hat zusätzliche Datenschutzlogik.
Accounttyp, AI-data-retention und vertrauliche Recherchegrenzen klären.
Quelle: Perplexity HelpWorkspace-KI
Wissen, Projekte, Notizen
Notion beschreibt, Customer Data standardmäßig nicht für Modelltraining zu nutzen.
Workspace-Rechte, Gäste, Enterprise-Status und Subprozessoren prüfen.
Quelle: NotionCoding-KI
Entwicklung, Code, Repositories
GitHub beschreibt Training auf Interaktionsdaten für Free/Pro/Pro+ ab 24.04.2026; Business/Enterprise sind nicht betroffen.
Planvariante, private Repos und Entwickler-Policy festlegen.
Quelle: GitHub BlogSouveräner KI-Stack
Höherer Souveränitätsbedarf
Aleph Alpha und STACKIT positionieren PhariaAI mit europäischer Datenkontrolle und regulatorischer Ausrichtung.
Prüfen, ob echter Souveränitätsbedarf besteht oder ein Business-Plan reicht.
Quelle: Aleph AlphaMinimaler Pruefpfad
Wenn diese Punkte offen bleiben, ist die technische Nutzung weiter als die organisatorische Klarheit.
Grün
Business-/Enterprise- oder API-Kontext, DPA/AVV, Retention, Trainingslogik, Datenarten und Berechtigungen sind belegt.
Gelb
Anbieter ist plausibel, aber Plan, Vertrag, Retention, Datenregion, Subprozessoren oder Berechtigungen sind noch offen.
Rot
Consumer-Account für vertrauliche Daten, unklarer Agent mit Aktionen, sensible Daten oder nicht nachvollziehbarer Datenfluss.
Häufige Fehlannahmen
Grenze
Diese Uebersicht ersetzt keine Anbieterpruefung und keine Rechtsberatung. Für konkrete Freigaben müssen Accounttyp, Vertrag, DPA/AVV, Datenregion, Aufbewahrung, Subprozessoren und interne Berechtigungen separat belegt werden. Quellenstand: 16.05.2026.