News

Letzte News-Meldungen zum Thema B2B-Cyber-Security >>> PR-Agenturen: Nehmen Sie uns in Ihren Verteiler auf - siehe Kontakt! >>> Buchen Sie einen exklusiven PartnerChannel für Ihre News!

Missbrauch von GenAI: Deepfake-Tools im Darknet-Angebot
Missbrauch von GenAI: Deepfake-Tools im Darknet-Angebot Bild: Bing - KI

Cyberkriminelle weiten ihr Angebot von Large Language Models (LLMs) und Deepfake-Technologien aus, produzieren mehr und vergrößern ihre Reichweite. Kriminelle Telegram-Marktplätze werben für neue ChatGPT-ähnliche Chatbots, die versprechen, ungefilterte Antworten auf alle Arten von bösartigen Fragen zu geben. Kommerzielle LLMs wie Gemini oder ChatGPT sind zum einen so programmiert, dass sie die Beantwortung von böswilligen oder unethischen Anfragen verweigern. Zum anderen vermeiden Kriminelle bekannte Dienste wie ChatGPT, da sie durch regulierte Tools befürchten, aufgespürt zu werden. Mit Jailbreak-as-a-Service-Frontends können Nutzer böswillige Fragen in spezielle Eingabeaufforderungen verpacken, was den ethischen Codex der KI-Tools…

Mehr lesen

Lagebericht: Starke KI-Nutzung durch Cyberkriminelle 

In seinem aktuellen Lagebericht über die wichtigsten IT-Sicherheitstrends im ersten Halbjahr 2024 fasst Trend Micro interessante Fakten zusammen. Trotz einiger erfolgreicher Operationen von Strafverfolgungsbehörden gegen Ransomware und Phishing bleibt das Bedrohungsniveau hoch. Cyberkriminelle haben aus den jüngsten Erfolgen der Polizei gelernt und passen ihre Taktiken an. Dabei setzen sie neben altbewährten Angriffsmethoden zunehmend auf Künstliche Intelligenz (KI) und nutzen globale Ereignisse wie die Olympischen Spiele und nationale Wahlen für ihre Zwecke aus. Das sind alles Erkenntnisse aus dem Trend Micro 2024 Midyear Cybersecurity Threat Report. Cyberangriffe: Auch in 2024 keine…

Mehr lesen

TotalAI-Plattform: Schwachstellenbewertung von KI-Workloads
TotalAI-Plattform: Schwachstellenbewertung von KI-Workloads Bild: Bing - KI

Die neue Lösung TotalAI ermöglicht eine ganzheitliche Erkennung und Schwachstellenbewertung von KI-Workloads, um Datenlecks, Injektionsprobleme und Modelldiebstahl zu erkennen. Die Plattform schützt vor Sicherheits- und Compliance-Problemen durch Nutzung generativer KI und LLM.  Mit TotalAI erweitert Qualys sein Portfolio, das auf die wachsenden Herausforderungen und Risiken im Zusammenhang mit der Absicherung von generativen KI- und Large-Language-Model-Anwendungen (LLM) ausgerichtet ist. KI-Workloads: Absicherung für Unternehmen Da Unternehmen zunehmend KI und LLM in ihre Produkte und Lösungen integrieren, sind sie mit einer erweiterten Angriffsfläche und erhöhten Cyberrisiken konfrontiert. Herkömmliche Cybersicherheitspraktiken erweisen sich als unzureichend,…

Mehr lesen

Wer nicht zahlt: Ransomware-Gruppen machen mehr Druck
Wer nicht zahlt: Ransomware-Gruppen machen mehr Druck Bild: Bing KI

Ein neuer Report zeigt, wie die Ransomware-Gruppen Informationen zu halblegalen Aktivitäten aus gestohlenen Daten nutzen, um die Opfer zur Zahlung zu zwingen. Der Dark-Web-Report „Turning the Screws: The Pressure Tactics of Ransomware Gangs“ deckt auf. In seinem neuen Dark-Web-Report „Turning the Screws: The Pressure Tactics of Ransomware Gangs“ deckt Sophos wichtige Erkenntnisse auf. Im Report beschreiben die Security-Spezialisten detailliert, wie Cyberkriminelle gestohlene Daten als Mittel einsetzen, um den Druck auf zahlungsunwillige Zielpersonen zu erhöhen. Zu den Druckmitteln gehören die Weitergabe von Kontaktdaten, das Veröffentlichen von Informationen über Familienmitglieder von CEOs…

Mehr lesen

Lokale KI-Appliance für geschützte Gen-AI-Anwendungen
Lokale KI-Appliance für geschützte GenAI-Anwendungen Bild von Kohji Asakawa auf Pixabay

Silent AI ist eine neue KI-Appliance für generative KI-Anwendungen (GenAI) vor, die höchste Datensicherheit und Privatsphäre gewährleistet. Unternehmen können so neueste KI-Technologie nutzen, wobei kein internes Wissen das Unternehmen verlässt. Silent AI basiert auf einem lokalen Large-Language-Model (LLM) mit Retrieval-Augmented Generation (RAG) und lokalen Vektordatenbanken. Diese Appliance bietet einen umfassenden Service zur Anbindung verschiedener Wissensquellen, ohne dass internes Wissen jemals die Appliance verlässt. Hauptmerkmale von Silent AI Lokales Large-Language-Model mit RAG Die Appliance integriert ein lokales LLM, das durch Retrieval-Augmented Generation (RAG) ergänzt wird. Diese Technologie verbessert die Genauigkeit und…

Mehr lesen

Kritische Schwachstelle in Microsoft Copilot Studio
B2B Cyber Security ShortNews

Experten hatten eine kritische Schwachstelle in Microsoft Copilot Studio entdeckt. Via serverseitiger Anforderungsfälschung SSRF (Server-side request forgery) dringen die Angreifer ein und konnten so auf die interne Infrastruktur von Copilot Studio zugreifen. Updates sind wohl bereits ausgeführt. Das Tenable Research Team hat in Microsoft Copilot Studio eine kritische Information-Disclosure-Schwachstelle mittels Server-Side Request Forgery (SSRF) entdeckt. Diese Schwachstelle ermöglichte den Forschern Zugriff auf potenziell sensible Daten zu internen Vorgängen des Service mit potenziell Tenant-übergreifendem Impact. Die Schwachstelle ist auf unsachgemäßes Handling von Redirect-Status-Codes für benutzerkonfigurierbare Aktionen innerhalb von Copilot Studio zurückzuführen….

Mehr lesen

Kein DLP: Datenabfluss durch generative KIs
Kein DLP: Datenabfluss durch generative KIs - Bild von Gerd Altmann auf Pixabay

Mehr als ein Drittel der Daten die in generative KI-Apps eingegeben werden, sind sensible Geschäftsinformationen. Der Einsatz von generativer KI hat sich in den letzten 12 Monaten mehr als verdreifacht. Hier fehlen Data Loss Prevention (DLP)-Lösungen. Aus der neuen Studie geht hervor, dass mehr als ein Drittel der sensiblen Daten, die mit generativen KI-Tools ausgetauscht werden, regulierte Daten sind – Daten, zu deren Schutz Unternehmen gesetzlich verpflichtet sind. Dies stellt für Unternehmen ein potenzielles Risiko für kostspielige Datenschutzverletzungen dar. KI-Apps nur teilweise blockiert Die neue Studie von Netskope Threat Labs…

Mehr lesen

KI-Assistent für Sicherheitsanalysen in Enterprise-Lösungen
KI-Assistent für Sicherheitsanalysen in Enterprise-Lösungen Bild von T Hansen auf Pixabay

Aufrüstung für Business-Lösungen: Mit dem ESET AI Advisor unterstützt nun eine Künstliche Intelligenz Sicherheitsverantwortliche im Security-Alltag. Auch KMU und andere Unternehmen erhalten so Hilfe auch bei Endpoint- und XDR-Lösungen. Der generative KI-basierte Cybersecurity-Assistent von ESET verbessert die Reaktion auf Vorfälle und die interaktive Risikoanalyse. So können Unternehmen die Vorteile von Extended Detection and Response (XDR)-Lösungen nutzen, selbst wenn sie nur begrenzte IT-Ressourcen besitzen. ESET AI Advisor wurde erstmals auf der RSA Conference 2024 präsentiert und ist jetzt u. a. in ESET PROTECT MDR Ultimate und ESET Threat Intelligence verfügbar. Der…

Mehr lesen

Risiko VPN-Attacken: jedes 2. Unternehmen betroffen
Risiko VPN-Attacken: jedes 2. Unternehmen betroffen Bild: Bing - KI

Der VPN Risk Report zeigt, dass mehr als die Hälfte der Unternehmen in 2023 von Cyberangriffen via VPN betroffen waren. Laut dem Zscaler ThreatLabz Report 2024 planen 78 Prozent der Unternehmen die Implementierung einer Zero Trust-Strategie in den nächsten 12 Monaten. ThreatLabz VPN Risk Reports 2024: Im Rahmen dieser Studie befragte Cybersecurity Insiders über 600 Fachleute aus den Bereichen IT-Sicherheit, IT und Netzwerke. 56 Prozent der teilnehmenden Unternehmen gaben an, im vergangenen Jahr zum Ziel von Cyberangriffen geworden zu sein, die Sicherheitsschwachstellen in VPNs ausnutzten. Diese Vorfälle unterstreichen die Anfälligkeit traditioneller Perimeter-basierter…

Mehr lesen

Deepfakes und KI-basierte Cyberangriffe auf Unternehmen
Deepfakes und KI-basierte Cyberangriffe auf Unternehmen Bild: Bing - KI

Mehr Abwehr für alle Umgebungen vor der wachsenden Bedrohung durch Angriffe und Betrugsversuche mittels Künstlicher Intelligenz (KI) und Deepfakes. Trend Micro kündigt neue Funktionen seiner Cybersecurity-Lösungen für Unternehmen an.  Deepfakes (täuschend echt wirkende, mit Hilfe von Künstlicher Intelligenz manipulierte Bild-, Audio- oder Videoaufnahmen) stellen ein erhebliches Risiko für Unternehmen und Einzelpersonen dar. Gelingt ein Betrug mittels unentdeckter Deepfakes, kann dies zu finanziellen Einbußen, Rufschädigung, rechtlichen Problemen, Arbeitsplatzverlust, Identitätsdiebstahl und sogar Schäden für die psychische oder physische Gesundheit der Betroffenen führen. In einer kürzlich von Trend Micro durchgeführten Studie gaben 36…

Mehr lesen