News

Letzte News-Meldungen zum Thema B2B-Cyber-Security >>> PR-Agenturen: Nehmen Sie uns in Ihren Verteiler auf - siehe Kontakt! >>> Buchen Sie einen exklusiven PartnerChannel für Ihre News!

Sicherheit in KI-Lösungen und Large Language Models
Sicherheit in KI-Lösungen und Large Language Models

Ein Unternehmen für Exposure-Management, gab die Veröffentlichung von AI Aware bekannt, einer hochentwickelten Erkennungsfunktion, die schnell feststellen kann, ob Lösungen für künstliche Intelligenz im Einsatz sind und ob KI-bezogene Schwachstellen und Sicherheitsschwächen vorliegen. Tenable AI Aware liefert Erkenntnisse über Sicherheitslücken in KI-Anwendungen, -Bibliotheken und -Plugins, so dass Unternehmen KI-Risiken zuverlässig identifizieren und beseitigen können, ohne den Geschäftsbetrieb zu beeinträchtigen. Die rasante Entwicklung und Akzeptanz von KI-Technologien in den letzten zwei Jahren hat große Cybersecurity- und Compliance-Risiken mit sich gebracht, denen Unternehmen begegnen müssen, ohne dabei auf bewährte Best Practices zurückgreifen…

Mehr lesen

Deepfakes und KI-basierte Cyberangriffe auf Unternehmen
Deepfakes und KI-basierte Cyberangriffe auf Unternehmen Bild: Bing - KI

Mehr Abwehr für alle Umgebungen vor der wachsenden Bedrohung durch Angriffe und Betrugsversuche mittels Künstlicher Intelligenz (KI) und Deepfakes. Trend Micro kündigt neue Funktionen seiner Cybersecurity-Lösungen für Unternehmen an.  Deepfakes (täuschend echt wirkende, mit Hilfe von Künstlicher Intelligenz manipulierte Bild-, Audio- oder Videoaufnahmen) stellen ein erhebliches Risiko für Unternehmen und Einzelpersonen dar. Gelingt ein Betrug mittels unentdeckter Deepfakes, kann dies zu finanziellen Einbußen, Rufschädigung, rechtlichen Problemen, Arbeitsplatzverlust, Identitätsdiebstahl und sogar Schäden für die psychische oder physische Gesundheit der Betroffenen führen. In einer kürzlich von Trend Micro durchgeführten Studie gaben 36…

Mehr lesen

RAG-Entwicklung in nur wenigen Minuten

Playground ist die neue, codearme Benutzeroberfläche von Elastic, der Search AI Company. Damit können Entwickler:innen mit Elasticsearch in nur wenigen Minuten RAG-Anwendungen erstellen für LLMs (Large Language Models). Dank der selbsterklärenden Nutzerführung können Entwicklungsteams A/B-Tests mit unterschiedlichen LLMs (Large Language Models) durchführen. Außerdem können sie Datenabrufmechanismen verfeinern, die aus den proprietären Datenbeständen in Elasticsearch-Indizes Daten extrahieren, die wiederum die Grundlage für Antworten auf Prompts bilden. Codearme Benutzeroberfläche „Beim Prototyping der konversationellen Suche ist es wichtig, mit Schlüsselkomponenten von RAG-Workflows experimentieren und sie als Basis für schnelles Iterieren nutzen zu können,…

Mehr lesen

LLM-Risiken und -Missbrauch vermeiden
LLM-Risiken und -Missbrauch vermeiden - Bild von Tung Nguyen auf Pixabay

Nur mit Produktkontrollen und SOC-Gegenmaßnahmen lassen sich LLMs sicher einführen. Mit dem LLM Safety Assessment: The Definitive Guide on Avoiding Risk and Abuses, hat Elastic sein neueste Forschungsergebnis seiner Security Labs veröffentlicht. Die LLM-Sicherheitseinschätzung untersucht die Sicherheit von großen Sprachmodellen (LLMs). Sie empfiehlt Best Practices, um Angriffe zu entschärfen sowie Maßnahmen, um LLM-Missbrauch zu vermeiden. Die Implementierungen von generativer KI und LLMs haben in den vergangenen 18 Monaten stark zugenommen und werden in einigen Unternehmen schnellstmöglich umgesetzt. Dadurch hat sich die Angriffsfläche vergrößert. Gleichzeitig mangelt es für Entwickler und Sicherheitsteams an…

Mehr lesen

Effiziente Angriffs-Tools: Wie Hacker KI LLMs für ihre Zwecke nutzen

Der Einsatz von KI kann Routineaufgaben automatisieren, Abläufe effizienter gestalten und die Produktivität erhöhen. Dies gilt für die legale Wirtschaft ebenso wie leider auch für die organisierte Cyberkriminalität. Gerade Large Language Models (LLM) werden von kriminellen Akteuren genutzt – weniger als visionäre Alleskönner-Technologien, sondern vielmehr als effiziente Werkzeuge zum Verbessern von Standardangriffen. Seit Ende 2022 stehen Large Language Models (LLMs) wie ChatGPT im Blick der Öffentlichkeit. Damit stellt sich die Frage, welche Effekte sie auf die Cybersicherheit haben, wenn Hacker sie zum Erstellen bösartiger Inhalte missbrauchen. Beim Einsatz von LLMs…

Mehr lesen