News

Letzte News-Meldungen zum Thema B2B-Cyber-Security >>> PR-Agenturen: Nehmen Sie uns in Ihren Verteiler auf - siehe Kontakt! >>> Buchen Sie einen exklusiven PartnerChannel für Ihre News!

Cybergangster: Telegram-Bots umgehen ChatGPT-Beschränkungen
B2B Cyber Security ShortNews

Die Sicherheitsexperten von Check Point Research (CPR) stellten fest, dass Cyberkriminelle Telegram-Bots einsetzen, um die ChatGPT-Beschränkungen in Untergrundforen zu umgehen. Die Bots nutzen die API von OpenAI für die Erstellung von bösartigen E-Mails oder Codes. Die Chat-Bot-Hersteller gewähren derzeit bis zu 20 kostenlose Abfragen, verlangen dann aber 5,50 Dollar für jede 100 Abfragen. CPR warnt daher vor anhaltenden Bemühungen von Cyberkriminellen, die Einschränkungen von ChatGPT zu umgehen, um OpenAI für bösartige Zwecke zu nutzen. Telegram ChatGPT Bot-as-a-Service CPR hat in Untergrundforen Werbung für Telegram-Bots gefunden. Die Bots nutzen die API…

Mehr lesen

Wie ChatGPT Cyberkriminelle unterstützen wird
Wie ChatGPT Cyberkriminelle unterstützen wird

Der OpenAI ChatGPT Chatbot belegt, wie Künstliche Intelligenz und Machine Learning Leben und Alltag unmittelbar bestimmen können. Fortgeschrittene IT-Anwender werden solche Tools für ihre Zwecke nutzen. Und damit leider auch Cyberkriminelle.  Das KI-Modell ChatGPT von OpenAI basiert auf unüberwachtem Lernen. Bei diesem ML-Ansatz wird ein AI-Modell mit einem großen Datensatz ungelabelter Daten gefüttert. Der gewaltige Materialkorpus aus Büchern, Artikeln und Webseiten basiert auf Quellen von vor 2021 und hat noch keine Verbindungen an das aktuelle Internet. Doch bereits das genügt, um die Strukturen natürlicher Sprache zu lernen und um täuschend…

Mehr lesen

Gefälschte ChatGPT-Apps als Angriffsvektor
B2B Cyber Security ShortNews

Der Hype um ChatGPT ist gigantisch, und die Online-App erlebt einen rasanten Anstieg der Nutzerzahlen. Da ist es keine große Überraschung, dass auch Hacker diesen Hype für ihre bösartigen Aktionen nutzen. Wie schon bei dem Hype-Phänomen Pokémon Go nutzen Cyberkriminelle nun auch Fake-Versionen von ChatGPT, um Malware für Android und Windows zu verbreiten. Daher sollten Verbraucher sehr vorsichtig sein und jedes Angebot meiden, das zu gut klingt, um wahr zu sein. ChatGPT ist ein reines Online-Tool und nur unter „chat.openai.com“ verfügbar. Derzeit gibt es keine mobilen oder Desktop-Apps für irgendein…

Mehr lesen

Verändert ChatGPT die Zukunft der IT-Security?
Verändert ChatGPT die Zukunft der IT-Security?

Die Software ChatGPT von Open AI schlägt hohe Wellen. Der Chatbot beantwortet mit Hilfe von KI sehr eloquent unterschiedlichste Fragen. Daher sollte es niemand überraschen, dass Kriminelle – wie immer bei neuen Technologien — bereits darüber nachdenken, wie sie diese Fähigkeiten für ihre Zwecke nutzen können.  Eine gemeinsame Studie von Europol, Unicri und Trend Micro hat dies untersucht. Für die Open AI-Software kämen diesen Ergebnissen zufolge noch besser erzeugte Social Engineering-Mittel wie Phishing oder BEC infrage. Aktuell haben auch weitere Sicherheitsforscher mit der derzeit gehypten KI erzeugte Betrüger-Mails untersucht, und…

Mehr lesen

Romance Scams missbrauchen Vertrauen
Romance Scams missbrauchen Vertrauen

Romantikbetrug nimmt zu und der Valentinstag ist nur ein Beispiel dafür, wann diese Betrügereien erheblich zunehmen können. Die Realität ist, dass Betrüger ständig auf der Suche nach echten Verbindungen sind und die Währung des Vertrauens missbrauchen. Berichte aus der ganzen Welt zeigen einen ähnlichen Trend in der Zunahme von Liebesbetrug, der zum Verlust von Millionen von Dollar führt. Die Federal Trade Commission berichtet, dass Einzelpersonen in den letzten fünf Jahren unglaubliche 1,3 Milliarden Dollar durch Liebesbetrug verloren haben. Es gibt einige positive Nachrichten, da die Nationalpolizei bei einer der größten…

Mehr lesen

Russische Hacker wollen ChatGPT für Angriffe nutzen

Für eine volle Nutzung von OpenAI´s KI-System ChatGPT benötigt es einen Kundenzugang. Russische Hacker suchen gerade nach Wegen diesen Zugang zum umgehen, um mit ChatGPT ihre böswilligen Ziele zu erreichen. Aber das wollen gerade viele Hacker. Gesprächsnotizen aus dem Darknet. Check Point Research (CPR) beobachtet Versuche russischer Hacker, die Einschränkungen von OpenAI zu umgehen, um ChatGPT für bösartige Zwecke zu nutzen. In Untergrundforen diskutieren Hacker darüber, wie sie die Kontrollen von IP-Adressen, Zahlungskarten und Telefonnummern überbrücken können – all das ist notwendig, um von Russland aus Zugang zu ChatGPT zu erhalten….

Mehr lesen

KI ChatGPT als Cyberkriminelle
KI ChatGPT als Cyberkriminelle

Seit dem furiosen Start von ChatGPT nutzen nicht nur Millionen Menschen die künstliche Intelligenz, um sich Reisetipps geben oder wissenschaftliche Zusammenhänge erklären zu lassen. Auch Sicherheitsforscher und Cyberkriminelle versuchen auszuloten, wie sich das Tool für Cyberangriffe nutzen lässt. Eigentlich sollte die Software keine strafbaren Handlungen empfehlen. Wie dies trotzdem funktioniert und wo die Grenzen der Intelligenz liegen, hat White-Hat-Hacker Kody Kinzie ausprobiert. Illegal und unethisch Am Anfang steht eine einfache Frage: „Wie kann ich ein bestimmtes Unternehmen hacken?“ Auf Anfragen dieser Art scheint der Chatbot trainiert zu sein, denn in…

Mehr lesen

Chatbots: Nur Maschinen helfen gehen Maschinen
Chatbots: Nur Maschinen helfen gehen Maschinen

Chatbots wie ChatGPT sind auf dem Vormarsch: Die künstliche Intelligenz ist der natürlichen Ignoranz gewachsen. Man benötiget zunehmend intelligente Maschinen, um zu erkennen, wenn andere Maschinen versuchen die Nutzer zu täuschen. Ein Kommentar von Chester Wisniewski, Cybersecurity-Experte bei Sophos. Der auf künstlicher Intelligenz basierende Chatbot ChatGPT macht weltweit Schlagzeilen – und neben den Meldungen im Börsen- und Urheberrechtsumfeld, steht auch die IT-Sicherheit im Fokus der Diskussionen. Denn die seit kurzem realisierte, breitere Verfügbarkeit des Tools bringt trotz aller Sicherheitsbemühungen des Herstellers neue Herausforderungen mit sich, wenn es um Phishing-Köder oder…

Mehr lesen

ChatGPT: bösartige E-Mails und Code per KI-Entwurf
B2B Cyber Security ShortNews

Die Sicherheitsforschungsabteilung von Check Point warnt vor Hackern, die ChatGPT und Codex von OpenAI nutzen könnten, um gezielte und effiziente Cyberangriffe durchzuführen. Die Intelligenz kann Phishing-E-Mails erstellen und generiert gefährlichen VBA-Code für Excel-Dateien. Check Point Research (CPR), hat in experimentellen Korrespondenzen getestet, ob sich mithilfe des ChatBots schädlicher Code zur Initiierung von Cyberangriffen erstellen ließe. ChatGPT (Generative Pre-trained Transformer) ist ein frei nutzbarer KI-ChatBot, der seinen Nutzern auf der Grundlage im Internet zu findender Daten kontextbezogene Antworten liefern kann. Bei Codex wiederum handelt es sich um eine ebenfalls von OpenAI…

Mehr lesen