In den vergangenen Jahren haben sich große Sprachmodelle wie „ChatGPT“ zu äußerst leistungsfähigen Instrumenten entwickelt, die eine Revolution unseres Verständnisses von künstlicher Intelligenz bewirken. Diese Modelle sind in der Lage, natürliche Sprache zu verstehen, zu verarbeiten und zu generieren. Dennoch offenbart sich auch eine problematische Seite: Kriminelle setzen diese Modelle zunehmend für betrügerische Kommunikation und ausgeklügelte Phishing-Angriffe ein.
Die Entwicklung von Large Language Models ermöglicht es Angreifern, noch präzisere Phishing-Angriffe durchzuführen. Die künstliche Intelligenz erzeugt dabei authentische Sprachmuster, um persönlicher zu wirken und sensible Daten, wie Passwörter und Bankdaten, per E-Mail zu stehlen. Kriminelle optimieren ihre Angriffsmethoden, indem sie sich als vertrauenswürdige Quellen ausgeben und leichter schadhaften Code erstellen können. Zusätzlich könnten Large Language Models auch als Gefahr für die Kryptografie dienen. Sie könnten bei komplexen Verschlüsselungssystemen dabei helfen, Schwachstellen zu identifizieren und gezielt Passwörter zu knacken. Die zunehmende Nutzung von Large Language Models durch Angreifer führt zu neuen IT-Security-Risiken für Unternehmen. Phishing- und Social-Engineering-Angriffe werden personalisierter und authentischer, was die Erkennung von Betrüger-E-Mails erschwert und das Unternehmensimage schädigen kann.
Angesichts der aufkommenden Herausforderungen im Bereich künstliche Intelligenz empfehlen wir, dass Unternehmen ihre Sicherheitsmaßnahmen überprüfen und anpassen. Es ist absehbar, dass Angreifer diese Technologie zunehmend zu ihren Gunsten nutzen werden.