ChatGPT 4: Der Anwalt, der perfekt lügen kann

ChatGPT 4: Der Anwalt, der perfekt lügen kann

Beitrag teilen

Das Update für ChatGPT auf Version 4 wurde mit Spannung erwartet und soll laut Hersteller Open AI die „fortschrittlichste“ KI-Technologie darstellen und im Rahmen eines Tests sogar eine Anwaltsprüfung mit Bestnote bestanden haben. Allerdings, das einzige, was ChatGPT neu erschaffen kann, sind Lügen die man in den sachlichen Texten kaum erkennt, so Sophos Security-Experte Chester Wisniewski im Interview.

Wie sieht ein Vertreter der IT-Security-Industrie die rasante Entwicklung bei der Chat-KI und wie ordnet er die daraus resultierenden Chancen sowie mögliche Nachteile ein? Chester Wisniewski, Principal Researcher bei Sophos hat hierzu einige Fragen beantwortet. Sein Fazit: Der Nutzen überwiegt vermutlich den Schaden.

Was sind die Unterschiede zwischen GPT 3 und dem neuen GPT 4?

Es hat sich eine ganze Menge geändert und verbessert, aber nicht alles ist bekannt. OpenAI hält seine Karten mit dieser Version etwas enger zusammen als in der Vergangenheit, daher sind nicht alle Verbesserungen publik geworden. Im Großen und Ganzen scheint es intelligenter, genauer und fähiger zu sein als frühere Versionen, was die Reaktionen noch realistischer und kompetenter machen sollte. Es ist dennoch wichtig, daran zu denken, dass es zwar weniger häufig falsche Informationen verbreitet, aber immer noch ein ziemlich guter Lügner ist.

Ist es ethisch vertretbar, einen solchen generativen, vortrainierten Transformator öffentlich zugänglich zu machen?

Er ist für die Bösen genauso verfügbar wie für die Guten. Der technologische Fortschritt ist wie ein Flaschengeist. Man kann ihn nicht einfach wieder wegstecken, wenn er unangenehm wird. Die Verfügbarkeit von Tools wie ChatGPT mit den Schutzmaßnahmen, die OpenAI durchzusetzen versucht, wird wahrscheinlich nicht mehr Schaden als Nutzen anrichten. Während krimineller Missbrauch von KI unvermeidlich ist, wird das Gute, das aus einer verantwortungsvollen Nutzung dieser Werkzeuge entstehen kann, wahrscheinlich jeden Missbrauch bei weitem überwiegen.

Es scheint, als gäbe es bereits zahlreiche Beispiele dafür, dass Prompt-Engineering die Leitplanken des Systems durchbricht, und es gibt mindestens ein Beispiel für eine indirekte Prompt-Injektion. Glauben Sie, dass es jemals möglich sein wird, ein GPT-Modell zu schaffen, das nicht missbraucht werden kann?

🔎 Im Interview: Sophos Security-Experte Chester Wisniewski (Bild: Sophos).

Nein. Vermutlich wäre eine detailliertere Antwort jetzt willkommener, aber jedes System, das Missbrauch verhindern soll, aber eben auch so konzipiert ist, dass das System autonom arbeitet, wird höchstwahrscheinlich immer umgangen werden können. Je mehr OpenAI und andere KI-Forscher darüber erfahren, wie die Menschen ihre Schutzmechanismen umgehen, desto schwieriger wird dies aber. Ich hoffe und erwarte, dass es in Zukunft deutlich mehr Geschicklichkeit aufseiten der Cyberkriminalität erfordern wird. Dennoch: es wird immer noch möglich sein, das System zu kompromittieren.

Schafft ChatGPT irgendetwas Neues, oder setzt es nur das um, was ihm gesagt wurde? Was ist, wenn das Modell Ungenauigkeiten gelernt oder gelehrt bekommen hat?

Das einzige, was ChatGPT neu erschaffen kann, sind Lügen. Es ist ein ziemlich überzeugender Lügner, der mit den besten Narzissten, die ich kenne, mithalten kann. Dem Modell wurden mit Sicherheit auch Dinge beigebracht, die ungenau oder unwahr sind, und es ist fast unmöglich vorherzusagen, wann es diese faktischen Ungenauigkeiten in seine Antworten einfließen lassen wird.

Big AI wird im Besitz von Big Tech sein. Auch wenn die in den Eingabeaufforderungen enthaltenen persönlichen und vertraulichen Unternehmensdaten vielleicht nicht in das jeweilige AI-Modell einfließen, so werden sie doch mit Sicherheit den großen Technologieunternehmen zur Verfügung stehen. Und das Geschäftsmodell von Big-Tech-Eigentümern beruht häufig auf dem Verkauf solcher Daten an den Meistbietenden. Kann man etwas gegen die Datenschutzaspekte der öffentlichen KI im Stil von GPT tun?

Für die meisten Nutzer von KI-Systemen gibt es ist es heutzutage kaum eine andere Wahl, als den Versprechen und Lizenzvereinbarungen, denen sie zustimmen, um Modelle wie ChatGPT nutzen zu können, Vertrauen zu schenken. Viele dieser Modelle entwickeln sich jedoch unglaublich effizient, so dass es keinen Grund gibt, warum sie in Zukunft nicht auf unseren PCs, Laptops oder sogar Telefonen laufen können. Das Training der Modelle ist zwar rechenintensiv, aber die Ausführung ist es nicht. Möglicherweise werden ältere Modelle als Open Source oder sogar als Crowdsourcing angeboten, damit sie jedem zur Verfügung stehen, der sie nutzen möchte. Die modernsten Modelle werden wahrscheinlich in den Händen der großen Technologiekonzerne bleiben, aber Modelle, die mehr als “gut genug” sind, könnten auf einem iPhone in Ihrer Tasche laufen, wenn Sie es wünschen.

Mehr bei Sophos.com

 


Über Sophos

Mehr als 100 Millionen Anwender in 150 Ländern vertrauen auf Sophos. Wir bieten den besten Schutz vor komplexen IT-Bedrohungen und Datenverlusten. Unsere umfassenden Sicherheitslösungen sind einfach bereitzustellen, zu bedienen und zu verwalten. Dabei bieten sie die branchenweit niedrigste Total Cost of Ownership. Das Angebot von Sophos umfasst preisgekrönte Verschlüsselungslösungen, Sicherheitslösungen für Endpoints, Netzwerke, mobile Geräte, E-Mails und Web. Dazu kommt Unterstützung aus den SophosLabs, unserem weltweiten Netzwerk eigener Analysezentren. Die Sophos Hauptsitze sind in Boston, USA, und Oxford, UK.


 

Passende Artikel zum Thema

Firefly schützt Maschinenidentitäten in Cloud-nativen Workloads

Venafi, der Erfinder und führende Anbieter von Maschinenidentitäts-Management, stellt Firefly vor. Die Lösung unterstützt hochgradig verteilte Cloud-native Umgebungen. Als Teil ➡ Weiterlesen

Neue Studie: Web-Shells sind Top-Einfallsvektor

Die Zahl von Angriffen über Web-Shells ist in den ersten drei Monaten 2023 überdurchschnittlich stark angestiegen. Das zeigt der Cisco ➡ Weiterlesen

QR-Code Phishing-Sicherheitstest-Tool

KnowBe4 bietet ab sofort ein ergänzendes QR-Code-Phishing-Sicherheitstest-Tool an, das Benutzer identifiziert, die Opfer von QR-Code-Phishing-Angriffen werden. Das kostenlose Tool (QR ➡ Weiterlesen

Ransomware-Report: LockBit zielt auf macOS

LockBit, die aktuell aktivste Ransomware-Gruppe, weitete seine Aktivitäten im April auf macOS-Geräte aus. Weiterhin werden Schwachstellen der Druckersoftware PaperCut aktiv ➡ Weiterlesen

China-Malware: Volt Typhoon zielt auf kritische USA Infrastruktur

Microsoft hat die Malware Volt Typhoon untersucht und festgestellt das diese von einem staatlich geförderten Akteur mit Sitz in China ➡ Weiterlesen

SOCs: Anstieg gefundener Cyberangriffe um das 1,5-fache

In seinem neuen Managed Detection and Response Analyst Report von Kaspersky gibt es einige wichtige Erkenntnisse: So stieg die Anzahl ➡ Weiterlesen

Cloud-Firewall mit Schutz für Virtual WAN

Ein weltweit führender Anbieter von Cyber-Sicherheitslösungen gibt die allgemeine Verfügbarkeit seiner branchenführenden Next-Generation Cloud Firewall bekannt, die ab Werk in ➡ Weiterlesen

NIS2-Compliance

Im Jahr 2017 prognostizierte Cybersecurity Ventures, dass die weltweiten Schadenskosten durch Ransomware bis 2021 20 Milliarden US-Dollar erreichen werden, was ➡ Weiterlesen