Grands modèles de langage (LLM) et sécurité des données
Compte tenu du rythme rapide du développement de l’IA avec les LLM, il devient de plus en plus clair que les garde-fous de base, les contrôles de plausibilité et les mesures de sécurité basées sur des invites actuellement en place sont perméables et inadéquats. Lors de l’élaboration de stratégies visant à améliorer la sécurité des données dans les charges de travail d’IA, il est crucial de changer de perspective et de considérer l’IA comme une personne vulnérable aux attaques d’ingénierie sociale. Cette analogie peut aider les entreprises à mieux comprendre les vulnérabilités et les menaces auxquelles sont confrontés les systèmes d’IA et à développer des mesures de sécurité plus robustes. Vast Data, fournisseur d'une plate-forme de données pour les charges de travail d'IA, explique les problèmes de sécurité entourant les LLM : Modern générative...