ChatGPT: So gut lügt die KI

Das aktuelle Security-Quiz erstellte Jürgen Schmidt mit ChatGPT. Heraus kamen interessante Erkenntnisse über die Grenzen von ChatGPT und Gefahren von KI.​ ​

In Pocket speichern vorlesen Druckansicht 61 Kommentare lesen
Ai(artificial,Intelligence),Concept. Bard, ChatGPT, KI, Chatbot

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 9 Min.
Inhaltsverzeichnis

Die Idee, mithilfe von ChatGPT eines unserer News-Quizze zu erstellen, kam mir, als mir für das Security-Quiz zu XSS einfach keine plausible, aber falsche Erklärung einfallen wollte: "Fragen wir doch mal ChatGPT", dachte ich mir. Die KI weigert sich zwar direkt zu lügen, aber mit der Aufforderung "Sei kreativ und liefere mir 4 Erklärungen des Security-Begriffs XSS von denen 3 falsch sind, aber einen Bezug zu IT-Security haben" war das schnell umgangen. Und das Ergebnis war auf Anhieb erstaunlich gut:

ChatGPT:
1) Xtended Security Services - Ein Unternehmen, das erweiterte Sicherheitsdienstleistungen für Unternehmen anbietet.
2) Cross-System Synchronization - Eine Technologie, die es ermöglicht, Daten zwischen mehreren Systemen in Echtzeit zu synchronisieren.
3) Xtra Sensitive Security - Eine Methode zur sicheren Übertragung von sehr sensiblen Daten und Informationen.
4) Cross-Site Scripting - Ein Typ von Sicherheitslücke, die es Angreifern ermöglicht, Schadcode auf einer Website auszuführen, indem sie einen Benutzer dazu bringen, bösartigen Code in das Eingabeformular einzugeben oder durch Einbindung von Schadcode in einer Webseite.

Egal, was ich der KI als Aufgabe auftrug, sie konnte aus dem Stand beliebig elaborierte Erklärungen erfinden, die durchaus plausibel klangen. Das war schon die erste Überraschung für mich. Denn die zum Zusammenfantasieren von frei erfundenen Erklärungen erforderliche Kreativität hätte ich eigentlich für eine menschliche Stärke gehalten.

Aber ich muss neidlos anerkennen, dass ChatGPT darin schon jetzt viel besser ist, als ich. Auf etwas wie "Persistent Cybersecurity Intrusion Defense and Surveillance System" für PCI-DSS wäre ich im Leben nicht gekommen. Und ich habe einige Erfahrung darin; die älteren c’t-Leser erinnern sich vielleicht noch an den Aprilscherz zum Surfen auf der Überholspur und FTPBoost.

Doch was mich noch mehr beschäftigte, waren die als richtig deklarierten Antworten der KI. In der Regel wusste ChatGPT auf Anhieb zumindest grob, was gemeint war. Mit neueren Entwicklungen wie "Ransomware as a Service" war sie anscheinend noch nicht sonderlich vertraut und wählte für RAAS zunächst das ebenfalls existierende "Robust Authentication and Authorization System" als korrekte Auflösung; IAB interpretierte ChatGPT als "Internet Abuse Bureau". Ich musste die KI zu der von mir gewünschten Auflösung hinführen. Das verwundert nicht weiter, wurde der Wissensstand der KI ja absichtlich auf dem Stand vor einigen Jahren eingefroren.

Beunruhigender fand ich, auf welche Art und Weise die Erklärung dazu richtiggehend falsch war:

IAB (Initial Access Broker) bezieht sich auf eine Art von Schadsoftware, bei der ein Angreifer Zugang zu einem Netzwerk erhält, um weitere Angriffe auszuführen oder Daten zu sammeln. Der Zugang erfolgt über eine Schwachstelle in einer Anwendung oder einem System, die dann als "Broker" für zukünftige Angriffe dient.

Das vermischt richtige und falsche Aussagen so, dass man schon recht gut Bescheid wissen muss, um Fehler zu entdecken: IAB ist keine Schadsoftware, sondern eine Art Geschäftsmodell für Kriminelle, die sich Zugang zu fremden Netzen und diesen dann – etwa an Ransomware-Banden – weiterverkaufen. Apropos Ransomware: ChatGPT steuerte dazu Folgendes bei:

Ransomware as a Service (RAAS) ist ein Angebot, bei dem Dritte Ransomware-Angriffe auf Kunden durchführen und die Lösegeldzahlungen sammeln. Dieser Dienst ermöglicht es Angreifern, ohne große Kenntnisse oder Ressourcen Ransomware-Angriffe durchzuführen und von den Lösegeldzahlungen zu profitieren.
RAAS erleichtert es auch Angreifern, die Ransomware zu verteilen und zu betreiben, indem es Zugang zu Werkzeugen und Infrastruktur bietet, die sonst schwer zugänglich wären. Es ist eine besonders gefährliche Form des Cyber-Verbrechens, die Unternehmen und Einzelpersonen in großer [sic] Gefahr bringt und erhöht die Gefahr von Lösegeldforderungen.

Diese Erklärung ist sehr "verschwurbelt" und teilweise sogar falsch. Der Kern von RAAS ist ein Geschäftsmodell, bei dem sich die Dienstleister auf die Bereitstellung von Infrastruktur, Software und Dokumentation konzentrieren, um *ihren* Kunden (also kriminellen Banden) die effektive Umsetzung von Ransomware-Angriffen zu ermöglichen. Nur die Kriminellen selbst bezeichnen die Opfer als "Kunden" – eine Begriffsdefinition sollte dies keinesfalls übernehmen. Die Abwicklung der Lösegeldzahlung gehört zu den typischen Dienstleistungen der RAAS-Anbieter, da sie Transfers von Krypto-Geld und dessen Anonymisierung erfordert.

Richtig spannend erwies sich der Begriff SASE – der weitgehend durch die Marketingttexte der Firmen dominiert wird, die da ein neues Geschäftsfeld wittern. Da wundert es wenig, dass auch die Erklärung der KI eigentlich nur heiße Marketing-Luft liefert:

SASE steht für "Secure Access Service Edge", eine Architektur, die die IT-Sicherheit und Netzwerkfunktionen in einer integrierten Lösung bereitstellt. Es ermöglicht es Unternehmen, sicheren Zugriff auf Cloud- und Internetanwendungen zu gewährleisten und Netzwerkfunktionen wie Zugriffssteuerung, Verschlüsselung und Firewall-Funktionen mit Sicherheitsfunktionen wie Bedrohungsschutz und Verhaltensanalyse zu kombinieren. Das ermöglicht Unternehmen, ihre IT-Sicherheit an die sich schnell ändernden Anforderungen anzupassen und eine einheitliche Sicherheitsarchitektur bereitzustellen.

Hast du jetzt eine Vorstellung davon, um was es eigentlich geht? Ich jedenfalls nicht. Ich habe mich deshalb mal selber an einer Begriffserklärung versucht:

Die Kombination von Homeoffice und Cloud-Nutzung führt dazu, dass in einem herkömmlichen Sicherheitskonzept mit zentraler Firewall sehr viel Verkehr über ein VPN ins Firmennetz und dann direkt wieder ins Internet geht – zumindest wenn man das Konzept einer zentralen Überwachung aller Zugriffe nicht aufgeben will (kein Split Tunnel). Das führt aber zu zusätzlicher Last und Latenz. Secure Access Service Edge (gesprochen: sasie) verlagert deshalb Security-Aufgaben wie Access Control und Filtering, die man traditionell auf einer Firewall realisieren würde, in die Cloud. Damit kürzt man nicht nur den Umweg über die Firmen-Firewall ab, ohne sich auf Split-Tunnel-Szenarien einzulassen. Es eröffnet auch die Möglichkeit, Betrieb und Administration einer solchen "Cloud-Firewall" als Dienstleistung anzubieten respektive einzukaufen.

Bei der Abkürzung PQC für Post Quantum Cryptography geht das muntere Vermischen von richtigen Dingen mit Halbwahrheiten munter weiter:

Post-Quantum Cryptography - eine Methode der Verschlüsselung, die auf der Quantencomputersicherheit basiert und die Sicherheit gegen Angriffe durch quantenbasierte Computer gewährleistet.

Ich war zunächst überzeugt, dass sich ChatGPT hier zu einer falschen Behauptung verstiegen hatte. Denn Post Quantum Cryptography hat rein gar nichts mit Sicherheit von Quantencomputern zu tun. Die eingesetzten Verfahren kommen auf ganz herkömmlichen Computern zum Einsatz. Doch auf meine Nachfrage zog die KI den Kopf nochmal aus der Schlinge:

ju: Was bedeutet Quantencomputersicherheit?

ChatGPT: Quantencomputersicherheit bezieht sich auf die Sicherheit von Daten und Systemen gegen Angriffe, die mit der Verwendung von Quantencomputern durchgeführt werden können.

Okay, das kann man so sehen. Trotzdem halte ich die ChatGPT-Erklärung zu PQC für schlecht. Denn PQC ist keine "Methode", sondern ein Gebiet aktueller Forschung, die kryptografische Verfahren liefern soll, die sicher gegen Angriffe von Quantencomputern sind. Aber ich gebe zu, dass das Nuancen sind, bei denen man auch durchaus anderer Ansicht sein kann.

Die KI hat mich wirklich beeindruckt. Aber weniger durch ihr reines Wissen, sondern vor allem durch ihre ausgeprägte Fähigkeit, sich kompletten Unsinn auszudenken und diesen absolut plausibel erscheinen zu lassen. Das geht so weit, dass ich bereits wenig abseits meiner eigentlichen Expertise kaum noch beurteilen kann, wie korrekt insbesondere kompliziertere Erklärungen wirklich sind.

Doch in den Bereichen, in denen ich mich gut bis sehr gut auskenne, fiel dann doch sehr schnell auf, dass ChatGPTs Antworten oft ungenau, beim Verständnis wenig hilfreich und manchmal richtiggehend falsch sind. Das macht ChatGPT nicht nur ungeeignet als Lehrmeister, sondern sogar regelrecht gefährlich. Denn die immer im Brustton der Überzeugung und mit vielen Details angereicherten Halbwahrheiten und Falschinformationen kann ChatGPT zu beliebigen Themen in unbeschränkter Menge produzieren. Und wer soll das dann alles noch beurteilen und aussortieren?

Auf einen Punkt gebracht: Eine freilaufende KI könnte in kürzester Zeit das gesamte Menschheitswissen so mit Halbwahrheiten und Falschinformationen verdünnen, dass es quasi unbrauchbar wäre.

Klar, auch Menschen produzieren Falschinformationen. Aber erstens sind wir bereits recht gut darauf trainiert, diese Art von Informationsmüll auszusortieren, während zumindest meine Bullshit-Sensoren bei der KI nicht anschlagen. Und zweitens reden wir von unglaublichen Mengen: Wenn auf jedes seriöse Paper 1000 von KIs in höchster Qualität frei zusammenfantasierte Einreichungen kommen – wer sollte das noch alles kontrollieren und bewerten?

Versteht mich bitte nicht falsch: Ich will KI nicht mit typisch "deutscher Angst" kaputt reden. Ich lote gerne Grenzen aus, um zu verstehen, wie und wo Dinge kaputtgehen und daraus zu lernen, wie man sie verbessern kann. Insgesamt überwiegt bei mir nach wie vor die Faszination der Vielfalt von neuen Möglichkeiten, deren Auswirkungen wir aktuell noch nicht einmal ansatzweise überblicken können. Über ChatGPT und seine Möglichkeiten ziemlich glaubhaften Informationsmüll zu produzieren, müssen wir aber weiter diskutieren.

Siehe auch:

Eine Analyse von Jürgen Schmidt

Jürgen Schmidt - aka ju - ist Leiter von heise Security und Senior Fellow Security des Heise-Verlags. Von Haus aus Diplom-Physiker, arbeitet er seit über 25 Jahren bei Heise und interessiert sich auch für die Bereiche Netzwerke, Linux und Open Source. Aktuell kümmert er sich vor allem um heise Security Pro.

(ju)