KI klar einordnen

KI-Tool, Copilot oder eigener Agent?

Für Datenschutz und KI-Regeln macht es einen Unterschied, ob ein Team einen Chat nutzt, eine Doku-KI fragt, Office-Daten anbinden lässt oder einen Agenten mit Code, Werkzeugen und Datenquellen betreibt.

Einbettung

Chatfenster, Doku-KI, Office-Copilot, KI-Editor, Agent, API-Workflow oder lokaler Stack.

Datenkontext

Öffentliche Inhalte, interne Arbeitsdaten, Kundendaten, Beschäftigtendaten, vertraulicher Code oder besondere Kategorien.

Steuerungskontext

DPA/AVV, Adminrechte, Retention, Trainingsnutzung, Logging, Subprozessoren, Berechtigungen und interne Freigabe.

Der Unterschied

Der Name des Tools reicht nicht.

"Wir nutzen Copilot" und "wir haben einen eigenen Agenten" klingen im Alltag ähnlich. Fachlich können es aber komplett andere Datenflüsse, Berechtigungen und Verantwortlichkeiten sein. Gleiches gilt für eine Doku-KI auf einer Website und einen KI-Editor mit Projektzugriff.

KI-Chat

Eine Person gibt Text in ein Tool ein.

Beispiele sind ChatGPT, Claude, Gemini oder Perplexity. Entscheidend ist der Accounttyp: privat, Pro, Business oder Enterprise.

Welche Daten dürfen eingegeben werden?

Accounttyp zuerst klären

Doku-KI

KI beantwortet Fragen zu Hilfe, Docs oder Website.

Eine Dokumentations-KI wirkt klein, verarbeitet aber trotzdem Nutzerfrage, Kontext, Konto- oder Sitzungsdaten und manchmal weitere Tools.

Liest sie nur Doku oder auch Nutzer- und Toolkontext?

Kontextgrenze zuerst prüfen

Office-KI

KI sitzt direkt in Mail, Dateien und Teams.

Microsoft 365 Copilot, Gemini in Google Workspace oder Notion AI arbeiten im vorhandenen Arbeitsraum und sehen nur, wofür Berechtigungen bestehen.

Sind Rechte, Freigaben und Datenklassen sauber?

Berechtigungen zuerst prüfen

KI-Editor

KI sitzt direkt in Code, Projekt und Arbeitsumgebung.

Cursor, GitHub Copilot oder IDE-Agenten können Codebase-Kontext, Regeln, Dokumentation, Terminal und externe Tools einbeziehen.

Welche Dateien, Regeln, Tools und Aktionen sind erreichbar?

Arbeitsraum zuerst begrenzen

Eigener Agent

KI bekommt Werkzeuge, Datenquellen oder Aktionen.

Ein eigener Agent ist mehr als ein Chatfenster. Er kann Daten abrufen, Workflows auslösen oder in Fachsysteme eingebunden sein.

Wer betreibt ihn, was darf er, wo laufen Daten?

Datenfluss zuerst zeichnen

API / Workflow

Eine App sendet Daten an ein Modell.

Automationen, Kundenportale oder interne Apps nutzen KI im Hintergrund. Dann zaehlen Datenfluss, Logs, Speicherorte und Schluesselverwaltung.

Welche Systeme sind verbunden?

Logs und Schlüssel prüfen

Lokal / souverän

Mehr Kontrolle, aber mehr Betriebsverantwortung.

Lokale Modelle oder EU-/DE-Stacks können Datenhoheit verbessern. Sie ersetzen aber keine Regeln für Betrieb, Sicherheit und Zugriff.

Wer pflegt Modell, Server, Updates und Nachweise?

Betriebspflichten klären

Erst Nutzungsmuster

Vor dem Anbieter steht die Frage, wo die KI eingebettet ist.

Eine Doku-KI, ein Office-Copilot und ein KI-Editor können dasselbe Modell nutzen. Für die Freigabe zählt zuerst, welche Daten und Aktionen über die jeweilige Umgebung erreichbar sind.

Dokumentations-KI

Fragen zur Dokumentation stellen

Werden nur Doku-Inhalte genutzt oder auch Nutzerfrage, Session, Konto, Telemetrie und Tools?

Arbeitsplatz-KI

Copilot in M365, Gemini in Workspace, Notion AI

Welche bestehenden Berechtigungen, geteilten Inhalte und Admin-Regeln greift die KI auf?

KI-Entwicklungsumgebung

Cursor, GitHub Copilot, IDE-Agenten

Welche Codebasis, Regeln, Indexe, Terminalaktionen, MCP-Tools und Repositories sind im Kontext?

Agentische Prozess-KI

Eigener Agent mit Tools und Datenquellen

Welche Aktionen darf der Agent auslösen und wo liegt die menschliche Freigabe?

API- / Workflow-KI

App, Automation oder Backend ruft ein Modell auf

Welche Daten fließen wohin, was wird geloggt, wer ist Anbieterrolle und wer löscht?

Beispiel Cursor

Cursor ist nicht nur ein Chat und nicht nur eine Doku-KI. Fachlich ist es eine KI-Entwicklungsumgebung: Agent, Codebase-Kontext, Projektregeln, Dokumentation, MCP-Tools und mögliche Aktionen in der Arbeitsumgebung müssen gemeinsam betrachtet werden.

Danach Anbieter und Stacks

Erste Orientierung für relevante KI-Nutzung.

Die Tabelle ist kein Ranking. Sie zeigt, welche Art von KI vorliegt und welcher Prüfpunkt vor einer Freigabe sichtbar werden sollte.

Business-Chat / API

ChatGPT Business/Enterprise, OpenAI API

Alltag, Analyse, Text, Automationen

Business- und API-Daten werden laut OpenAI standardmäßig nicht zum Modelltraining genutzt.

Accounttyp, DPA, Retention und erlaubte Datenarten klären.

Quelle: OpenAI Business Data

Office-KI

Microsoft 365 Copilot / Copilot Chat

Outlook, Teams, Word, SharePoint

Microsoft beschreibt Enterprise Data Protection; Organisationsdaten werden nicht zum Training von Foundation Models genutzt.

Berechtigungen, Purview/Retention und interne Nutzungsregeln prüfen.

Quelle: Microsoft Learn

Eigener Agent / API-Stack

Copilot Studio / Azure OpenAI

Agenten, interne Prozesse, Microsoft-Umgebung

Datenschutz hängt an Tenant, Agenten-Design, angebundenen Quellen und Logging.

Datenflussbild, Quellen, Rollen und Verantwortliche festlegen.

Quelle: Microsoft Copilot

Office-KI

Gemini for Google Workspace

Gmail, Docs, Drive, Meet

Google beschreibt, Workspace-Kundendaten ohne Erlaubnis nicht für Training oder Fine-Tuning zu nutzen.

Edition, Admin-Freigaben, Datenregionen und geteilte Drives prüfen.

Quelle: Google Workspace

API- / Workflow-KI

Google Vertex AI / Gemini API

Apps, Automationen, interne KI-Prozesse

Google Cloud und Workspace müssen getrennt betrachtet werden; Datenschutz hängt am Projekt, Vertrag, Region, Logging und Rollenmodell.

Cloud-Projekt, Region, IAM, Logs, DPA und Datenfluss dokumentieren.

Quelle: Google Cloud

Business-Chat / API

Claude Team/Enterprise, Anthropic API

Text, Analyse, Arbeitsfassungen

Anthropic beschreibt für kommerzielle Nutzung: kein Training mit Prompts oder Code, außer der Kunde wählt dies.

Plan, Terms/DPA, Retention und erlaubte Inhalte dokumentieren.

Quelle: Anthropic Docs

EU-nahe KI-Chat/API

Mistral Le Chat Team/Enterprise, La Plateforme

Chat, API, europäische Anbieterlogik

Mistral beschreibt Le-Chat- und API-Daten je nach Plan unterschiedlich; deshalb müssen Plan, Privacy-Einstellung, Retention und API-Kontext getrennt geprüft werden.

Hosting, Region, ZDR/Retention, DPA und Privacy-Toggle prüfen.

Quelle: Mistral Docs

Spezial-KI

DeepL Pro

Übersetzung, Sprache, Dokumente

DeepL beschreibt für Pro Datenschutzstandards; Texte werden nicht ohne Einwilligung gespeichert oder für Training genutzt.

Free und Pro trennen, erlaubte Dokumentklassen festlegen.

Quelle: DeepL

Recherche-KI

Perplexity Pro / Enterprise

Recherche, Quellen, Marktueberblick

Perplexity beschreibt Trainings-/Verbesserungsnutzung je nach Einstellung; Enterprise hat zusätzliche Datenschutzlogik.

Accounttyp, AI-data-retention und vertrauliche Recherchegrenzen klären.

Quelle: Perplexity Help

Workspace-KI

Notion AI

Wissen, Projekte, Notizen

Notion beschreibt, Customer Data standardmäßig nicht für Modelltraining zu nutzen.

Workspace-Rechte, Gäste, Enterprise-Status und Subprozessoren prüfen.

Quelle: Notion

Coding-KI

GitHub Copilot Business/Enterprise

Entwicklung, Code, Repositories

GitHub beschreibt Training auf Interaktionsdaten für Free/Pro/Pro+ ab 24.04.2026; Business/Enterprise sind nicht betroffen.

Planvariante, private Repos und Entwickler-Policy festlegen.

Quelle: GitHub Blog

Souveräner KI-Stack

Aleph Alpha / PhariaAI / STACKIT

Höherer Souveränitätsbedarf

Aleph Alpha und STACKIT positionieren PhariaAI mit europäischer Datenkontrolle und regulatorischer Ausrichtung.

Prüfen, ob echter Souveränitätsbedarf besteht oder ein Business-Plan reicht.

Quelle: Aleph Alpha

Minimaler Pruefpfad

Sechs Fragen reichen für den ersten klaren Unterschied.

Wenn diese Punkte offen bleiben, ist die technische Nutzung weiter als die organisatorische Klarheit.

  1. 1Was wird eingegeben?
  2. 2Welche Datenarten sind betroffen?
  3. 3Wer betreibt Tool oder Agent?
  4. 4Wo werden Daten verarbeitet oder gespeichert?
  5. 5Werden Eingaben für Training, Verbesserung oder menschliche Prüfung genutzt?
  6. 6Welche interne Freigabe, Richtlinie oder Nachweisablage gibt es?

Grün

Begrenzte Freigabe möglich

Business-/Enterprise- oder API-Kontext, DPA/AVV, Retention, Trainingslogik, Datenarten und Berechtigungen sind belegt.

Gelb

Nachweise fehlen

Anbieter ist plausibel, aber Plan, Vertrag, Retention, Datenregion, Subprozessoren oder Berechtigungen sind noch offen.

Rot

Keine Freigabe ohne Klärung

Consumer-Account für vertrauliche Daten, unklarer Agent mit Aktionen, sensible Daten oder nicht nachvollziehbarer Datenfluss.

Häufige Fehlannahmen

Die Freigabe scheitert selten am Toolnamen.

  • Business-Plan bedeutet nicht automatisch, dass jede Datenart erlaubt ist.
  • Doku-KI bedeutet nicht automatisch harmlos; Nutzerfrage, Session und Toolkontext können relevant sein.
  • EU-Anbieter bedeutet nicht automatisch, dass Betrieb, Logging und Subprozessoren geklärt sind.
  • Lokal bedeutet nicht automatisch sicher; Betrieb, Updates und Zugriffsschutz bleiben offen.
  • Office-Copilot ist nicht nur Modelltraining; oft ist Berechtigungshygiene der kritischere Punkt.
  • Eigener Agent ist keine Chat-Freigabe, sondern eine Anwendung mit Datenquellen, Rollen und Aktionen.
  • KI-Editor ist nicht nur Modellauswahl; Codebase-Index, Regeln, Terminal und Tools gehören zur Prüfung.

Grenze

Diese Uebersicht ersetzt keine Anbieterpruefung und keine Rechtsberatung. Für konkrete Freigaben müssen Accounttyp, Vertrag, DPA/AVV, Datenregion, Aufbewahrung, Subprozessoren und interne Berechtigungen separat belegt werden. Quellenstand: 16.05.2026.