News

Letzte News-Meldungen zum Thema B2B-Cyber-Security >>> PR-Agenturen: Nehmen Sie uns in Ihren Verteiler auf - siehe Kontakt! >>> Buchen Sie einen exklusiven PartnerChannel für Ihre News!

Große Sprachmodelle (LLMs) und die Data Security
Große Sprachmodelle (LLMs) und die Data Security

Angesichts der rasanten KI-Entwicklung mit LLMs wird immer deutlicher, dass die grundlegenden Leitplanken, Plausibilitätsprüfungen und Prompt-basierten Sicherheitsmaßnahmen, die derzeit gelten, durchlässig und unzureichend sind. Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. Vast Data, Anbieter einer Data Plattform für KI-Workloads erläutert Sicherheitsfragen rund um LLMs: Moderne generative…

Mehr lesen

LLM: Tuning-Tool für große Analyse-Sprachmodelle
LLM: Tuning-Tool für große Analyse-Sprachmodelle Bild: Bing - KI

Große Sprachmodelle (Large Language Models, LLM) haben das Potenzial, die Arbeitslast zu automatisieren und zu reduzieren, einschließlich der von Cybersicherheitsanalysten und Incident Respondern. Sophos stellt Tuning-Tool für große Sprachmodelle als Open-Source-Programm zur Verfügung. Generischen LLMs fehlt das domänenspezifische Wissen, um alle Aufgaben gut zu bewältigen. Auch wenn sie mit Trainingsdaten erstellt wurden, die Cybersicherheitsressourcen enthalten, reicht dies oft nicht aus, um spezialisiertere Aufgaben zu übernehmen, die aktuelles und in einigen Fällen auch proprietäres Wissen erfordern, um sie gut auszuführen – Wissen, das den LLMs bei ihrer Ausbildung nicht zur Verfügung…

Mehr lesen

RAG: Innovative KI-Technologien bringen Gefahren mit sich
RAG: Innovative KI-Technologien bringen Gefahren mit sich Bild: Bing - KI

Seit der Einführung von ChatGPT 2022 wollen immer mehr Unternehmen KI-Technologien nutzen – oft mit spezifischen Anforderungen. Retrieval Augmented Generation (RAG) ist dabei die bevorzugte Technologie, um innovative Anwendungen auf Basis privater Daten zu entwickeln. Doch Sicherheitsrisiken wie ungeschützte Vektorspeicher, fehlerhafte Datenvalidierung und Denial-of-Service-Angriffe stellen eine ernsthafte Gefahr dar, insbesondere angesichts des schnellen Entwicklungszyklus von RAG-Systemen. Die innovative KI-Technologie RAG benötigt einige Zutaten, um zu funktionieren: Eine Datenbank mit Textbausteinen und eine Möglichkeit, diese abzurufen sind erforderlich. Üblicherweise wird dafür ein Vektorspeicher eingesetzt, der den Text und eine Reihe von…

Mehr lesen

Sicherheit in KI-Lösungen und Large Language Models
Sicherheit in KI-Lösungen und Large Language Models

Ein Unternehmen für Exposure-Management, gab die Veröffentlichung von AI Aware bekannt, einer hochentwickelten Erkennungsfunktion, die schnell feststellen kann, ob Lösungen für künstliche Intelligenz im Einsatz sind und ob KI-bezogene Schwachstellen und Sicherheitsschwächen vorliegen. Tenable AI Aware liefert Erkenntnisse über Sicherheitslücken in KI-Anwendungen, -Bibliotheken und -Plugins, so dass Unternehmen KI-Risiken zuverlässig identifizieren und beseitigen können, ohne den Geschäftsbetrieb zu beeinträchtigen. Die rasante Entwicklung und Akzeptanz von KI-Technologien in den letzten zwei Jahren hat große Cybersecurity- und Compliance-Risiken mit sich gebracht, denen Unternehmen begegnen müssen, ohne dabei auf bewährte Best Practices zurückgreifen…

Mehr lesen

Deepfakes und KI-basierte Cyberangriffe auf Unternehmen
Deepfakes und KI-basierte Cyberangriffe auf Unternehmen Bild: Bing - KI

Mehr Abwehr für alle Umgebungen vor der wachsenden Bedrohung durch Angriffe und Betrugsversuche mittels Künstlicher Intelligenz (KI) und Deepfakes. Trend Micro kündigt neue Funktionen seiner Cybersecurity-Lösungen für Unternehmen an.  Deepfakes (täuschend echt wirkende, mit Hilfe von Künstlicher Intelligenz manipulierte Bild-, Audio- oder Videoaufnahmen) stellen ein erhebliches Risiko für Unternehmen und Einzelpersonen dar. Gelingt ein Betrug mittels unentdeckter Deepfakes, kann dies zu finanziellen Einbußen, Rufschädigung, rechtlichen Problemen, Arbeitsplatzverlust, Identitätsdiebstahl und sogar Schäden für die psychische oder physische Gesundheit der Betroffenen führen. In einer kürzlich von Trend Micro durchgeführten Studie gaben 36…

Mehr lesen

RAG-Entwicklung in nur wenigen Minuten

Playground ist die neue, codearme Benutzeroberfläche von Elastic, der Search AI Company. Damit können Entwickler:innen mit Elasticsearch in nur wenigen Minuten RAG-Anwendungen erstellen für LLMs (Large Language Models). Dank der selbsterklärenden Nutzerführung können Entwicklungsteams A/B-Tests mit unterschiedlichen LLMs (Large Language Models) durchführen. Außerdem können sie Datenabrufmechanismen verfeinern, die aus den proprietären Datenbeständen in Elasticsearch-Indizes Daten extrahieren, die wiederum die Grundlage für Antworten auf Prompts bilden. Codearme Benutzeroberfläche „Beim Prototyping der konversationellen Suche ist es wichtig, mit Schlüsselkomponenten von RAG-Workflows experimentieren und sie als Basis für schnelles Iterieren nutzen zu können,…

Mehr lesen

LLM-Risiken und -Missbrauch vermeiden
LLM-Risiken und -Missbrauch vermeiden - Bild von Tung Nguyen auf Pixabay

Nur mit Produktkontrollen und SOC-Gegenmaßnahmen lassen sich LLMs sicher einführen. Mit dem LLM Safety Assessment: The Definitive Guide on Avoiding Risk and Abuses, hat Elastic sein neueste Forschungsergebnis seiner Security Labs veröffentlicht. Die LLM-Sicherheitseinschätzung untersucht die Sicherheit von großen Sprachmodellen (LLMs). Sie empfiehlt Best Practices, um Angriffe zu entschärfen sowie Maßnahmen, um LLM-Missbrauch zu vermeiden. Die Implementierungen von generativer KI und LLMs haben in den vergangenen 18 Monaten stark zugenommen und werden in einigen Unternehmen schnellstmöglich umgesetzt. Dadurch hat sich die Angriffsfläche vergrößert. Gleichzeitig mangelt es für Entwickler und Sicherheitsteams an…

Mehr lesen

Effiziente Angriffs-Tools: Wie Hacker KI LLMs für ihre Zwecke nutzen

Der Einsatz von KI kann Routineaufgaben automatisieren, Abläufe effizienter gestalten und die Produktivität erhöhen. Dies gilt für die legale Wirtschaft ebenso wie leider auch für die organisierte Cyberkriminalität. Gerade Large Language Models (LLM) werden von kriminellen Akteuren genutzt – weniger als visionäre Alleskönner-Technologien, sondern vielmehr als effiziente Werkzeuge zum Verbessern von Standardangriffen. Seit Ende 2022 stehen Large Language Models (LLMs) wie ChatGPT im Blick der Öffentlichkeit. Damit stellt sich die Frage, welche Effekte sie auf die Cybersicherheit haben, wenn Hacker sie zum Erstellen bösartiger Inhalte missbrauchen. Beim Einsatz von LLMs…

Mehr lesen