Chain-of-Thought Reasoning (CoT) DeepSeek macht sich selbst zum Sicherheitsrisiko

Verantwortliche:r Redakteur:in: Konstantin Pfliegl 1 min Lesedauer

Anbieter zum Thema

DeepSeek-R1 arbeitet mit Chain-of-Thought Reasoning. Das bedeutet, die künstliche Intelligenz gibt in ihren Antworten detaillierte Denkschritte preis. Doch genau das macht die KI angreifbar.

(Bild:  Lukasz Czajkowski / Adobe Stock)
(Bild: Lukasz Czajkowski / Adobe Stock)

Das Künstliche-Intelligenz-Sprachmodell DeepSeek sorgte im Silicon Valley für einen Paukenschlag. Während die USA in den nächsten fünf Jahren 500 Milliarden US-Dollar in KI investieren wollen, hat DeepSeek bewiesen, dass auch kleinere Akteure mit begrenzten Ressourcen dieselbe Leistung erbringen können. Doch künstliche Intelligenz revolutioniert nicht nur Geschäftsprozesse, sondern bringt auch neue, hochkomplexe Sicherheitsrisiken mit sich. So kann etwa DeepSeek selbst zur Angriffsfläche werden. Davor warnen die Sicherheits-Experten von Trend Micro.

CoT kann zur Gefahr werden

Das KI-Modell DeepSeek-R1 arbeitet mit dem sogenannten Chain-of-Thought (CoT) Reasoning. Diese Methode soll die Nachvollziehbarkeit von KI-Entscheidungen verbessern, indem sie Denkschritte explizit offenlegt. Und genau das kann zur Schwachstelle werden. Analysen von Trend Micro zeigen, dass Angreifer diese Transparenz für gezielte Prompt-Attacken missbrauchen können.

Durch gezielt formulierte Anfragen lassen sich System-Prompts offenlegen, Sicherheitsmechanismen umgehen oder sich unberechtigten Zugriff auf sensible Daten verschaffen. Besonders besorgniserregend ist laut Trend Micro, dass in Tests Angriffe in den Kategorien sensitive Datenexfiltration und unsichere Ausgabeerzeugung besonders erfolgreich waren. 

„Dies zeigt, dass Unternehmen, die generative KI einsetzen, nicht nur klassische Cybergefahren bedenken müssen, sondern auch neue Angriffsmethoden, die sich durch KI-spezifische Architekturen ergeben“; warnt Richard Werner, Security Advisor bei Trend Micro.

Unternehmen sollten laut Werner folgende drei Tipps unbedingt beachten:

  • KI-Modelle müssen sicherheitsorientiert entwickelt werden: Transparenz ist wichtig, darf aber keine Einladung für Angreifer sein.
  • Regelmäßiges Red-Teaming ist unverzichtbar: Unternehmen sollten KI-Systeme kontinuierlich auf Schwachstellen testen – ähnlich wie bei klassischen IT-Security Audits.
  • Prompt-Härtung als neue Disziplin: Sicherheitsmechanismen, die KI-Modelle gegen manipulative Eingaben absichern, müssen Standard werden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung