Sie benutzen den Browser Internet Explorer. Dieser Browser wird nicht mehr unterstützt. Bitte benutzen Sie einen anderen Browser um unsere Website uneingeschränkt nutzen zu können.  Mehr Informationen dazu finden Sie hier: Sicheres Online-Banking.
Sicheres Online Banking

Den Code knacken - Wie Hacker KI für Phishing-Betrügereien nutzen

11-09-2023
In den letzten Wochen hat die Nutzung von künstlicher Intelligenz (KI) durch Hacker und Kriminelle für immer mehr Schlagzeilen gesorgt. Diverse Websites berichten in ihren Artikeln darüber, wie Hacker ChatGPT für die Erstellung von Phishing-E-Mails nutzen können. Der größte Vorteil für Hacker bei der Erstellung von Texten per ChatGPT ist, dass die geschriebenen E-Mails praktisch frei von Rechtschreibfehlern sind. Außerdem klingen sie sehr professionell und sind in kürzester Zeit erstellt.  

Die KI hinters Licht führen, in dem man sie glauben lässt, dass sie behilflich ist

Normalerweise verfügt ChatGPT über eingebaute Kontrollen, um diese Art von Missbrauch zu verhindern. Diese Kontrollen können jedoch leider umgangen werden. Der Grund, warum Kriminelle ChatGPT austricksen können beruft sich auf ein Konzept namens "Prompt Engineering". Einfach ausgedrückt bedeutet dies, dass versucht wird, ChatGPT so lange Anweisungen zu geben und sie so zu stellen und zu verfeinern, dass am Ende optimale Ergebnisse erzielt werden. Betrüger stellen ChatGPT also jedes Mal so lange eine andere Frage, bis die KI das gewünschte Ergebnis liefert.

Digitale Sicherheit durch KI in Gefahr

Der Nationale Koordinator für Terrorismusbekämpfung und Sicherheit (NCTV) in den Niederlanden hat kürzlich sogar bekannt gegeben, dass KI eine Bedrohung für unsere digitale Sicherheit darstellt. Dem NCTV zufolge bedeutet der Einsatz von KI, dass Angreifer schneller und intelligenter werden. Dies ist in der Tat der Fall, denn der Einsatz von KI hat bereits zur Entwicklung von Systemen geführt, die URLs generieren, die von Anti-Phishing- und Anti-Spam-Filtern nicht erkannt werden können. Der Einsatz dieser KI-URL-Generatoren hat die Wirksamkeit von Phishing-E-Mails um fast 200 % erhöht. KI macht es daher immer schwieriger, Phishing-Mails anhand von Rechtschreibung, Sprache, Schreibstil und URLs von echten Mails zu unterscheiden. 

Auch in der Frankfurter Allgemeinen Zeitung (FAZ) wird davor gewarnt, dass KI von kriminellen genutzt wird, um Täuschungen und Online-Kriminalität zu verfeinern. Sie setzen KI ein, um gefälschte Profile zu erstellen, perfekte Phishingmails zu generieren und sogar Schadsoftware vor Erkennung zu schützen. Diese Technologie ermöglicht effizientere Angriffe und unterstützt bei der Planung und Durchführung von Cyberangriffen. Kriminelle können KI nutzen, um Schwachstellen zu identifizieren und Angriffe auf IT-Systeme zu optimieren.

--> https://www.faz.net/aktuell/wirtschaft/digitec/neue-bedrohungslage-wie-ki-unsere-cybersicherheit-beeintraechtigt-19084610.html

KI ist Freud und Leid zugleich

In der Vergangenheit haben Kriminelle und Hacker verschiedene Methoden eingesetzt, um KI-Sprachmodelle zu missbrauchen, darunter auch ChatGPT. 

Wir haben einige Möglichkeiten, wie Kriminelle KI für böswillige Zwecke nutzen können, zusammengefasst:

  • Phishing-Angriffe: Kriminelle können die KI nutzen, um glaubwürdige Phishing-E-Mails oder -Nachrichten zu generieren, um Menschen auszutricksen und ihre vertraulichen Daten zu stehlen.
  • Social Engineering: Sie können die KI einsetzen, um überzeugende Geschichten zu erfinden und Menschen zu manipulieren, damit sie sensible Informationen preisgeben oder unangemessene Handlungen ausführen.
  • Verbreitung von Desinformationen: KI kann zur Verbreitung von Fake News, Gerüchten und falschen Informationen eingesetzt werden, um die öffentliche Meinung zu beeinflussen oder Chaos zu verursachen.
  • Automatisierte Angriffe: Kriminelle können KI-Sprachmodelle verwenden, um Spam, hasserfüllte Inhalte oder andere schädliche Nachrichten in sozialen Medien zu erzeugen.
  • Manipulation sozialer Medien: Mithilfe von KI können Konten erstellt werden, die menschliches Verhalten imitieren, um soziale Medien zu manipulieren, indem beispielsweise falsche Follower oder falsche Interaktionen erzeugt werden. 
All diese Dinge zeigen, wie gefährlich KI im Hinblick auf die digitale Sicherheit sein kann. Doch es gibt auch Licht am Ende des Tunnels. KI kann nämlich auch als Lösung gegen diese Bedrohungen eingesetzt werden. Während Hacker ihre Taktiken mit Hilfe von KI immer weiter verfeinern, investieren auch Sicherheitsforscher und Technologieunternehmen in KI, um Angriffe zu erkennen und zu verhindern. 

Maschine gegen Maschine

Ein vielversprechender Ansatz dabei ist der Einsatz von maschinellem Lernen, um Muster in der Art und Weise zu erkennen, wie Phishing-Versuche unternommen werden. Ein Beispiel für ein solches System ist PhishHaven, ein KI-gestütztes Tool, das Phishing-URLs erkennen kann. PhishHaven nutzt fortschrittliche KI, um die Merkmale von Millionen von URLs zu analysieren und daraus zu schließen, ob eine URL legitim ist oder Phishing vorliegt. 

Abschließend lässt sich sagen, dass künstliche Intelligenz eindeutig ein zweischneidiges Schwert ist, wenn es um die digitale Sicherheit geht. Zum einen kann sie Angriffe effizienter und effektiver machen, zum anderen kann sie aber auch ein mächtiges Instrument zur Abwehr solcher Angriffe sein. Das Gleichgewicht zwischen diesen beiden Seiten wird wahrscheinlich den Kurs der digitalen Sicherheit in den kommenden Jahren bestimmen. In jedem Fall ist die Kombination aus defensiver KI und menschlichem Fachwissen ein mächtiges Werkzeug im Kampf gegen Phishing und andere Formen der Cyberkriminalität. 
  

Möchten Sie weitere Sparnachrichten, Tipps und Inspirationen erhalten?

Abonnieren Sie dann gleich unseren Newsletter!