21.03.2023 – Kategorie: IT, Kommunikation
ChatGPT: Sicherheitsrisiken beim Einsatz von Chatbots minimieren
Der Einsatz von KI-Technologien wie ChatGPT oder den Pendants von Baidu und Google wird in Unternehmen immer beliebter. Deren Verwendung bringt aber auch einige Sicherheitsrisiken mit sich. Wie sich Unternehmen davor bestmöglich schützen können.
Ein Bot, der umfangreiche Wissensfragen in Sekundenschnelle beantwortet und lästiges Research für einen übernimmt, klingt zunächst attraktiv. Einer aktuellen Blackberry-Umfrage zufolge glaubt allerdings über die Hälfte der IT-Experten, dass die Wahrscheinlichkeit eines durch ChatGPT ausgelösten Cyberangriffs noch in diesem Jahr hoch ist. Und 71 Prozent glauben, dass Chat GPT bereits von Staaten genutzt werden könnte, um andere Länder durch Hacking- und Phishing-Versuche anzugreifen.
Drei Sicherheitsrisiken, die durch ChatGPT zunehmen
1. Betrugsmaschen beim Phishing werden effektiver
Phishing Attacken starten häufig mit einer Nachricht im E-Mail-Postfach. Heute erkennt man die Betrugsversuche oftmals an der mangelhaften Grammatik in den E-Mails. Daran merkten selbst ahnungslose Nutzer, dass etwas nicht stimmen kann. Mithilfe der künstlichen Intelligenz könnte sich das ändern. Auf Knopfdruck könnte ChatGPT etwa täuschend echte Phishing-Mails verfassen. Betrugsmaschen werden also weniger offensichtlich und damit effektiver.
2. Cyberkriminelle nutzen ChatGPT für Malware-Angriffe
Auch die Erstellung von Malware könnte mit KI einfacher werden. Forscher von Check Pointii glauben, dass ChatGPT ein effektives Werkzeug für die automatisierte Erstellung von Malware sein könnte. Cyberkriminelle könnten den Chatbot beispielsweise nutzen, um ein Python-Skript zu erstellen, das sich für einen Malware-Angriff verwenden lässt. Bisher verfügt ChatGPT zwar nur über begrenzte Programmierfähigkeiten. Laut Sicherheitsexperten ist es aber nur eine Frage der Zeit, bis korrekte Codes erstellt werden können. Das Wettrüsten hat begonnen – es besteht also ein dringender Bedarf an automatisierten, möglicherweise KI-gesteuerten Sicherheitstools und -prozessen, die KI-generierte Malware-Angriffe schnell erkennen und abwehren können.
3. Sensible Daten fließen in Nutzereingaben ein
Neue KI-Methoden wie ChatGPT beantworten Fragen mit eigenständig formulierten Antworten. Der Algorithmus wurde an einem großen Textkorpus trainiert und ist in der Lage, jede Art von Text zu generieren, einschließlich der Antworten auf Fragen. Dabei lernt das Tool von den Nutzereingaben und sammelt eine Menge persönlicher Daten, die Nutzer unbedarft eingeben. Angesichts der hohen Nutzungsrate und der Geschwindigkeit, mit der KI in viele Lebensbereiche Einzug erhält, ist hier größte Vorsicht geboten. Mit verschiedenen Angriffsmethoden können Unternehmensinterna und private Informationen aus den Daten extrahiert werden.
Maßnahmen, um den Sicherheitsrisiken entgegenzuwirken
Der Einsatz von KI- und AI-basierten Chatbots birgt also auch eine Menge an Risiken. Um sich bestmöglich zu schützen, sollten Unternehmen folgende Maßnahmen berücksichtigen:
1. Netzwerk-Überwachung ausbauen
Dringend empfohlen ist die Implementierung eines Echtzeit-Netzwerküberwachungssystems, das bösartige Aktivitäten sofort nach ihrem Auftreten erkennt und darauf reagiert. Dabei gibt es eine Reihe von Schlüsselanforderungen, wie die Zwei-Faktor-Authentifizierung, die eine zusätzliche Sicherheitsebene bietet. Eine ständige Aktualisierung der Software stellt die Beseitigung aller bekannten Schwachstellen sicher. Antiviren-Software hilft bei der Erkennung und Blockierung von Malware und die Überwachung des Netzwerkverkehrs hilft bei der Erkennung bösartiger Aktivitäten.
2. Kampf der KI-Technologien: Investition in Schutztechnologie
Unternehmen müssen in Zukunft damit rechnen, dass Angreifer vermehrt auf künstliche Intelligenz setzen. Man kann KI jedoch mit KI bekämpfen: Das Wettrüsten hat begonnen und beschleunigt sich immer mehr. Am Ende gewinnt die KI mit dem besseren Algorithmus. Gerade deshalb sollten Unternehmen schon jetzt in eine sichere Zukunft mit moderner KI-Schutztechnologie investieren, die Muster und Daten erkennen, und potenzielle KI-basierte Cyberbedrohungen besser erkennen.
3. Gezielte Fortbildungsmaßnahmen zu ChatGPT & Co.
Das Wissen, wie man die verräterischen Anzeichen einer bösartigen E-Mail oder eines Links erkennt, wie eine seltsame Absenderadresse, eine verdächtige Sprache oder ungewöhnliche Anweisungen, hilft Mitarbeitern dabei, nicht Opfer einer ChatGPT-basierten Phishing-Attacke zu werden. CTOs sollten in die Schulung der Mitarbeiter investieren, damit diese die Bedrohungen besser erkennen können.
ChatGPT ist, wie jede neue Technologie, ein zweischneidiges Schwert. Wie nützlich und wie bedrohlich sie ist, wird sich mit der Zeit herausstellen. Wir wissen nur, dass sich KI schnell weiterentwickelt und Sicherheitsexperten mit ihr Schritt halten müssen. Wenn jedes Unternehmen das Potenzial und auch die Grenzen der KI versteht und die notwendigen Maßnahmen gegen ihre Sicherheitsrisiken ergreift, kann es bestmöglich davon profitieren.
Über den Autor: Joey Stanford ist Sicherheitsexperte bei Platform.sh. Platform.sh bietet eine Cloud-basierte Web-Hosting-Plattform, die die Verwaltung von Websites und Anwendungen unterstützt. Die Plattform ermöglicht es Teams, die für E-Commerce-Websites und besonders stark frequentierte Anwendungen verantwortlich sind, sich auf die Entwicklung und Verbesserung ihrer Anwendungen zu konzentrieren. (sg)
Lesen Sie auch: KI-Tools: Wie sich diese im E-Commerce nutzen lassen
Teilen Sie die Meldung „ChatGPT: Sicherheitsrisiken beim Einsatz von Chatbots minimieren“ mit Ihren Kontakten: