News

Letzte News-Meldungen zum Thema B2B-Cyber-Security >>> PR-Agenturen: Nehmen Sie uns in Ihren Verteiler auf - siehe Kontakt! >>> Buchen Sie einen exklusiven PartnerChannel für Ihre News!

RAG-Entwicklung in nur wenigen Minuten

Playground ist die neue, codearme Benutzeroberfläche von Elastic, der Search AI Company. Damit können Entwickler:innen mit Elasticsearch in nur wenigen Minuten RAG-Anwendungen erstellen für LLMs (Large Language Models). Dank der selbsterklärenden Nutzerführung können Entwicklungsteams A/B-Tests mit unterschiedlichen LLMs (Large Language Models) durchführen. Außerdem können sie Datenabrufmechanismen verfeinern, die aus den proprietären Datenbeständen in Elasticsearch-Indizes Daten extrahieren, die wiederum die Grundlage für Antworten auf Prompts bilden. Codearme Benutzeroberfläche „Beim Prototyping der konversationellen Suche ist es wichtig, mit Schlüsselkomponenten von RAG-Workflows experimentieren und sie als Basis für schnelles Iterieren nutzen zu können,…

Mehr lesen

LLM-Risiken und -Missbrauch vermeiden
LLM-Risiken und -Missbrauch vermeiden - Bild von Tung Nguyen auf Pixabay

Nur mit Produktkontrollen und SOC-Gegenmaßnahmen lassen sich LLMs sicher einführen. Mit dem LLM Safety Assessment: The Definitive Guide on Avoiding Risk and Abuses, hat Elastic sein neueste Forschungsergebnis seiner Security Labs veröffentlicht. Die LLM-Sicherheitseinschätzung untersucht die Sicherheit von großen Sprachmodellen (LLMs). Sie empfiehlt Best Practices, um Angriffe zu entschärfen sowie Maßnahmen, um LLM-Missbrauch zu vermeiden. Die Implementierungen von generativer KI und LLMs haben in den vergangenen 18 Monaten stark zugenommen und werden in einigen Unternehmen schnellstmöglich umgesetzt. Dadurch hat sich die Angriffsfläche vergrößert. Gleichzeitig mangelt es für Entwickler und Sicherheitsteams an…

Mehr lesen

Effiziente Angriffs-Tools: Wie Hacker KI LLMs für ihre Zwecke nutzen

Der Einsatz von KI kann Routineaufgaben automatisieren, Abläufe effizienter gestalten und die Produktivität erhöhen. Dies gilt für die legale Wirtschaft ebenso wie leider auch für die organisierte Cyberkriminalität. Gerade Large Language Models (LLM) werden von kriminellen Akteuren genutzt – weniger als visionäre Alleskönner-Technologien, sondern vielmehr als effiziente Werkzeuge zum Verbessern von Standardangriffen. Seit Ende 2022 stehen Large Language Models (LLMs) wie ChatGPT im Blick der Öffentlichkeit. Damit stellt sich die Frage, welche Effekte sie auf die Cybersicherheit haben, wenn Hacker sie zum Erstellen bösartiger Inhalte missbrauchen. Beim Einsatz von LLMs…

Mehr lesen