ChatGPT 4: Der Anwalt, der perfekt lügen kann

ChatGPT 4: Der Anwalt, der perfekt lügen kann

Beitrag teilen

Das Update für ChatGPT auf Version 4 wurde mit Spannung erwartet und soll laut Hersteller Open AI die „fortschrittlichste“ KI-Technologie darstellen und im Rahmen eines Tests sogar eine Anwaltsprüfung mit Bestnote bestanden haben. Allerdings, das einzige, was ChatGPT neu erschaffen kann, sind Lügen die man in den sachlichen Texten kaum erkennt, so Sophos Security-Experte Chester Wisniewski im Interview.

Wie sieht ein Vertreter der IT-Security-Industrie die rasante Entwicklung bei der Chat-KI und wie ordnet er die daraus resultierenden Chancen sowie mögliche Nachteile ein? Chester Wisniewski, Principal Researcher bei Sophos hat hierzu einige Fragen beantwortet. Sein Fazit: Der Nutzen überwiegt vermutlich den Schaden.

Was sind die Unterschiede zwischen GPT 3 und dem neuen GPT 4?

Es hat sich eine ganze Menge geändert und verbessert, aber nicht alles ist bekannt. OpenAI hält seine Karten mit dieser Version etwas enger zusammen als in der Vergangenheit, daher sind nicht alle Verbesserungen publik geworden. Im Großen und Ganzen scheint es intelligenter, genauer und fähiger zu sein als frühere Versionen, was die Reaktionen noch realistischer und kompetenter machen sollte. Es ist dennoch wichtig, daran zu denken, dass es zwar weniger häufig falsche Informationen verbreitet, aber immer noch ein ziemlich guter Lügner ist.

Ist es ethisch vertretbar, einen solchen generativen, vortrainierten Transformator öffentlich zugänglich zu machen?

Er ist für die Bösen genauso verfügbar wie für die Guten. Der technologische Fortschritt ist wie ein Flaschengeist. Man kann ihn nicht einfach wieder wegstecken, wenn er unangenehm wird. Die Verfügbarkeit von Tools wie ChatGPT mit den Schutzmaßnahmen, die OpenAI durchzusetzen versucht, wird wahrscheinlich nicht mehr Schaden als Nutzen anrichten. Während krimineller Missbrauch von KI unvermeidlich ist, wird das Gute, das aus einer verantwortungsvollen Nutzung dieser Werkzeuge entstehen kann, wahrscheinlich jeden Missbrauch bei weitem überwiegen.

Es scheint, als gäbe es bereits zahlreiche Beispiele dafür, dass Prompt-Engineering die Leitplanken des Systems durchbricht, und es gibt mindestens ein Beispiel für eine indirekte Prompt-Injektion. Glauben Sie, dass es jemals möglich sein wird, ein GPT-Modell zu schaffen, das nicht missbraucht werden kann?

🔎 Im Interview: Sophos Security-Experte Chester Wisniewski (Bild: Sophos).

Nein. Vermutlich wäre eine detailliertere Antwort jetzt willkommener, aber jedes System, das Missbrauch verhindern soll, aber eben auch so konzipiert ist, dass das System autonom arbeitet, wird höchstwahrscheinlich immer umgangen werden können. Je mehr OpenAI und andere KI-Forscher darüber erfahren, wie die Menschen ihre Schutzmechanismen umgehen, desto schwieriger wird dies aber. Ich hoffe und erwarte, dass es in Zukunft deutlich mehr Geschicklichkeit aufseiten der Cyberkriminalität erfordern wird. Dennoch: es wird immer noch möglich sein, das System zu kompromittieren.

Schafft ChatGPT irgendetwas Neues, oder setzt es nur das um, was ihm gesagt wurde? Was ist, wenn das Modell Ungenauigkeiten gelernt oder gelehrt bekommen hat?

Das einzige, was ChatGPT neu erschaffen kann, sind Lügen. Es ist ein ziemlich überzeugender Lügner, der mit den besten Narzissten, die ich kenne, mithalten kann. Dem Modell wurden mit Sicherheit auch Dinge beigebracht, die ungenau oder unwahr sind, und es ist fast unmöglich vorherzusagen, wann es diese faktischen Ungenauigkeiten in seine Antworten einfließen lassen wird.

Big AI wird im Besitz von Big Tech sein. Auch wenn die in den Eingabeaufforderungen enthaltenen persönlichen und vertraulichen Unternehmensdaten vielleicht nicht in das jeweilige AI-Modell einfließen, so werden sie doch mit Sicherheit den großen Technologieunternehmen zur Verfügung stehen. Und das Geschäftsmodell von Big-Tech-Eigentümern beruht häufig auf dem Verkauf solcher Daten an den Meistbietenden. Kann man etwas gegen die Datenschutzaspekte der öffentlichen KI im Stil von GPT tun?

Für die meisten Nutzer von KI-Systemen gibt es ist es heutzutage kaum eine andere Wahl, als den Versprechen und Lizenzvereinbarungen, denen sie zustimmen, um Modelle wie ChatGPT nutzen zu können, Vertrauen zu schenken. Viele dieser Modelle entwickeln sich jedoch unglaublich effizient, so dass es keinen Grund gibt, warum sie in Zukunft nicht auf unseren PCs, Laptops oder sogar Telefonen laufen können. Das Training der Modelle ist zwar rechenintensiv, aber die Ausführung ist es nicht. Möglicherweise werden ältere Modelle als Open Source oder sogar als Crowdsourcing angeboten, damit sie jedem zur Verfügung stehen, der sie nutzen möchte. Die modernsten Modelle werden wahrscheinlich in den Händen der großen Technologiekonzerne bleiben, aber Modelle, die mehr als „gut genug“ sind, könnten auf einem iPhone in Ihrer Tasche laufen, wenn Sie es wünschen.

Mehr bei Sophos.com

 


Über Sophos

Mehr als 100 Millionen Anwender in 150 Ländern vertrauen auf Sophos. Wir bieten den besten Schutz vor komplexen IT-Bedrohungen und Datenverlusten. Unsere umfassenden Sicherheitslösungen sind einfach bereitzustellen, zu bedienen und zu verwalten. Dabei bieten sie die branchenweit niedrigste Total Cost of Ownership. Das Angebot von Sophos umfasst preisgekrönte Verschlüsselungslösungen, Sicherheitslösungen für Endpoints, Netzwerke, mobile Geräte, E-Mails und Web. Dazu kommt Unterstützung aus den SophosLabs, unserem weltweiten Netzwerk eigener Analysezentren. Die Sophos Hauptsitze sind in Boston, USA, und Oxford, UK.


 

Passende Artikel zum Thema

KI-Cloud-Services erhöhen Resilienz von Rechenzentren

Ein Anbieter von KI-nativen, sicheren Netzwerken hat seine Sicherheitslösung für Rechenzentren um neue Funktionen erweitert. Sie verbessern die Netzwerktransparenz, -analyse ➡ Weiterlesen

Backup: Umfassendste Ausfallsicherheit für Microsoft 365

Ein Marktführer für Datenresilienz stellt seine neue Backup-Version für Microsoft 365 vor. Die neue Lösung bietet umfassende Unveränderlichkeit und unternehmensspezifische ➡ Weiterlesen

Digitale Resilienz stärken: Angriffe mit NDR frühzeitig erkennen

Ein führender Anbieter für Cybersicherheit hat seine Network Detection and Response Plattform (NDR) aktualisiert. Die neuen Verhaltensanalysen ermöglichen eine frühere ➡ Weiterlesen

Cybervorfälle kosten bis zu 186 Milliarden US-Dollar im Jahr

Die Analyse von mehr als 161.000 einzelnen Cybervorfällen deckt die steigenden globalen Kosten anfälliger oder unsicherer APIs und des automatisierten ➡ Weiterlesen

Virtualisierte Firewall für VS-NfD

Ein deutscher IT-Security-Spezialist setzt Maßstäbe: Seine virtualisierte Firewall genugate Virtual hat eine Zulassung zur Verarbeitung von „Verschlusssachen - Nur für ➡ Weiterlesen

KI-gesteuerte Plattform schützt vor einer Vielzahl von Bedrohungen

Ein führendes Unternehmen für Cybersecurity hat die Funktionen seiner Plattform verbessert. Sie bietet unter anderem Schutz vor Bedrohungen in Social-Media-, ➡ Weiterlesen

Viele Unternehmen nutzen KI zur Generierung von Code

Ein Anbieter von maschinellem Identitätsmanagement veröffentlicht den neuen Forschungsbericht „Organizations Struggle to Secure AI-Generated and Open Source Code“. Der Bericht ➡ Weiterlesen

Malware: Gruppe RansomHub an erster Stelle

In der Auswertung für August 2024 führte die Android Spyware Joker die Liste der Mobile Malware an. Die Malware CloudEye ➡ Weiterlesen