BSI Update 11/2025

Maßnahmenkatalog für Geschäftsführer zur Absicherung von Sprachmodellen im Unternehmen.

Achtung Unternehmensführung: KI ist fester Bestandteil der modernen Prozesslandschaft, doch die Risiken wachsen. Das BSI warnt seit dem 6. November 2025 offiziell vor Angriffen auf die Interaktionsebene der KI. Sicherheit ist kein reines IT-Thema mehr – es ist eine Frage der Corporate Governance.

Was sind Evasion Attacks?

Anders als beim „Data Poisoning“ (Training), greifen Evasion Attacks an, wenn das System bereits live arbeitet. Angreifer nutzen manipulative Eingaben, um Sicherheitsfilter zu umgehen.

Prompt Injections

Feindliche Befehle, die Ihre ursprünglichen Systemanweisungen überschreiben. Die KI folgt dem Angreifer statt Ihnen.

🔓

Jailbreaks

Psychologische oder technische Tricks, die das Modell dazu bringen, eigentlich gesperrte Inhalte (z.B. Schadcode, Hassrede) zu generieren.

🕵

Adversarial Attacks

Für Menschen unsichtbare Änderungen in der Eingabe, die das KI-Modell jedoch vollständig verwirren und zu Fehlentscheidungen leiten.

Aufgaben für Unternehmer: Die BSI-Checkliste

1

System Prompts härten

Definieren Sie glasklare Grenzen. Was darf das Modell? Was ist verboten? Formulieren Sie robuste interne Anweisungen, die schwer zu überschreiben sind.

2

Externe Inhalte filtern

Vorsicht bei Bewerbungen oder Kunden-Mails. Nutzen Sie Filtermechanismen, um versteckte Injections in Dokumenten zu erkennen, bevor die KI sie liest.

3

Human-in-the-loop

Keine Automatik bei kritischen Aktionen! E-Mail-Versand oder Geldtransfers bedürfen zwingend einer menschlichen Freigabe. Die KI bereitet vor, Sie entscheiden.

4

Sensibilisierung

Schulen Sie gegen „blindes Vertrauen“. Mitarbeiter müssen wissen, dass KI manipulierbar ist und Anomalien sofort melden.

Fazit: Sicherheit ist der Enabler für Innovation. Nur wer KI-Risiken aktiv managt, kann das volle Potenzial rechtssicher nutzen und das Vertrauen der Kunden stärken.

Häufige Fragen (FAQ)

Betreffen diese Warnungen nur selbst entwickelte KIs?

Nein. Auch wenn Sie Dienste wie ChatGPT Enterprise, Microsoft Copilot oder APIs nutzen, sind Sie für die eingegebenen Daten und die Weiterverarbeitung der Ergebnisse verantwortlich. Evasion Attacks können auch über externe Dokumente in diese Systeme eingeschleust werden.

Was passiert, wenn wir die BSI-Maßnahmen ignorieren?

Das BSI definiert mit solchen Dokumenten oft den „Stand der Technik“. Im Falle eines Datenlecks oder Schadensfalles kann das Fehlen dieser Schutzmaßnahmen als Fahrlässigkeit ausgelegt werden, was Bußgelder (DSGVO) oder Haftungsansprüche nach sich ziehen kann.

Ist „Human-in-the-loop“ nicht ein Rückschritt in der Automatisierung?

Initial wirkt es so, aber es ist ein notwendiger Sicherheitsanker. Es geht nicht darum, jeden Schritt manuell zu machen, sondern die finale Entscheidung bei kritischen Prozessen (z.B. Geldfluss, Datenlöschung) einem Menschen zu überlassen. Dies verhindert katastrophale Fehler durch manipulierte KIs.

Wie erkenne ich eine Prompt Injection?

Prompt Injections sind oft schwer zu erkennen, da sie in harmlosem Text versteckt sein können (z.B. weiße Schrift auf weißem Grund in einer PDF). Technisch helfen Vor-Filter und Monitoring-Tools. Organisatorisch hilft ein geschultes Auge der Mitarbeiter, wenn die KI plötzlich „aus der Rolle fällt“ oder ungewöhnliche Anweisungen ausführt.