L'AI Act est la première loi pour l'IA et donne aux fabricants d'applications d'IA entre six mois et trois ans pour s'adapter aux nouvelles règles. Quiconque souhaite utiliser l’IA dans des domaines sensibles devra contrôler strictement les données de l’IA et leur qualité et créer de la transparence – disciplines fondamentales classiques de la gestion des données.
L'UE a fait un travail de pionnier et a réglementé ce qui est actuellement la branche la plus dynamique et la plus importante de l'industrie des données avec la loi sur l'IA, tout comme elle l'a fait avec le RGPD en avril 2016 et la résilience opérationnelle numérique (DORA) en janvier de cette année. année. Bon nombre des nouvelles tâches de la loi sur l'IA seront familières aux délégués à la protection des données et à chaque responsable de la conformité du RGPD. La loi définit l'IA et définit trois niveaux de sécurité : minimal, élevé et inacceptable. Les applications d'IA que les entreprises souhaitent utiliser dans les domaines de la santé, de l'éducation et des infrastructures critiques relèvent de la catégorie de sécurité la plus élevée, « risque élevé ». Ceux qui appartiennent à la catégorie « inacceptable » sont interdits parce que, par exemple, ils pourraient menacer la sécurité, les moyens de subsistance et les droits des personnes.
Évaluer le risque
Ces systèmes d’IA doivent, par définition, être fiables, transparents et responsables. Les opérateurs doivent procéder à des évaluations des risques, utiliser des données de haute qualité et documenter leurs décisions techniques et éthiques. Ils doivent également enregistrer les performances de leurs systèmes et informer les utilisateurs de la nature et de l'objectif de leurs systèmes. De plus, les systèmes d’IA devraient être supervisés par des humains et permettre des interventions. Ils doivent être très robustes et atteindre un niveau élevé de cybersécurité.
Les entreprises ont désormais besoin de directives claires. Parce qu'ils veulent exploiter le grand potentiel de cette technologie et en même temps se préparer pour l'avenir afin de pouvoir mettre en œuvre les prochains détails de la réglementation. Il existe cinq recommandations claires sur la manière dont les entreprises peuvent aborder ce problème sans engendrer de risques juridiques et sans pour autant faire obstacle aux utilisateurs. Et en même temps, soyez positionné de manière à pouvoir pleinement mettre en œuvre l’AI Act sans bouleverser l’informatique :
- Laissez l’IA agir en toute confiance : Si vous voulez y parvenir, vous devez complètement apprivoiser l’IA. La seule façon d’y parvenir est de contrôler étroitement les données et les flux de données entrant et sortant de l’IA. Ce contrôle étroit est similaire aux exigences du RGPD pour les données personnelles. Les entreprises doivent toujours tenir compte de cette conformité lorsqu’elles utilisent et développent elles-mêmes l’IA. Si vous souhaitez utiliser l’IA de manière conforme au RGPD et à la loi sur l’IA, vous devez demander l’avis d’un expert en protection des données avant de l’introduire.
- Connaître exactement les données : Une grande partie de la loi se concentre sur les rapports sur le contenu utilisé pour former l’IA, les ensembles de données qui lui ont donné les connaissances nécessaires pour fonctionner. Les entreprises et leurs employés doivent savoir exactement quelles données ils alimentent l'IA et quelle valeur ces données ont pour l'entreprise. Certains fournisseurs d’IA transfèrent consciemment cette décision aux propriétaires de données, car ce sont eux qui connaissent le mieux les données. Ils doivent entraîner l’IA de manière responsable et l’accès aux données ne doit être activé que pour les personnes autorisées.
- La question des droits d'auteur : Les modèles d’IA précédents utilisaient Internet et les robots d’exploration de livres disponibles pour entraîner leur IA. Il s’agissait d’un contenu contenant des éléments protégés – l’un des domaines que la loi sur l’IA vise à nettoyer. Si les entreprises ont utilisé ces documents sans les étiqueter avec précision, elles devront peut-être recommencer.
- Comprendre le contenu des données : C'est une tâche essentielle. Pour que les propriétaires de données puissent prendre les bonnes décisions, la valeur et le contenu des données doivent être clairs. Dans la vie de tous les jours, cette tâche est gigantesque et la plupart des entreprises ont accumulé des montagnes d’informations dont elles ignorent tout. L'IA et l'apprentissage automatique peuvent être d'une grande aide dans ce domaine et atténuer l'un des problèmes les plus complexes en identifiant et en classant automatiquement les données des entreprises selon leur propre stratégie d'enregistrement pertinente. Les filtres prédéfinis récupèrent immédiatement les données pertinentes pour la conformité, telles que les cartes de crédit, les données hypothécaires ou les plans de construction, dans le bassin de données et les marquent. Cette analyse permet également de clarifier certains paramètres de sécurité et, par exemple, de détecter des données non sécurisées. Dès que cette IA examine les données de l’entreprise, elle développe un langage spécifique à l’entreprise, un dialecte d’entreprise. Et plus elle travaille longtemps et plus elle examine de données sur l’entreprise, plus ses résultats deviennent précis. Le charme de cette classification basée sur l’IA est particulièrement évident lorsqu’il faut respecter de nouvelles spécifications. Quelles que soient les nouveautés que l’AI Act apportera à long terme, la classification basée sur le ML et l’IA sera en mesure de rechercher ces attributs supplémentaires et d’offrir à l’entreprise une certaine sécurité future.
- Maîtriser les flux de données : Une fois les données classées et classées avec les caractéristiques correctes, la plateforme de gestion des données sous-jacente peut automatiquement appliquer des règles sans que le propriétaire des données n'ait à intervenir. Cela réduit les risques d’erreur humaine et les risques. Une entreprise pourrait imposer que certaines données telles que la propriété intellectuelle ou les données financières ne puissent jamais être transmises à d'autres emplacements de stockage ou à des modules d'IA externes. Les plates-formes modernes de gestion de données contrôlent l'accès à ces données en les chiffrant automatiquement et en exigeant que les utilisateurs s'autorisent à l'aide de contrôles d'accès et d'une authentification multifactorielle.
L’IA Act prend du mordant
L'UE présente une autre similitude avec le RGPD et DORA. Une fois promulguées, des sanctions en cas de non-respect seront appliquées. Quiconque enfreint des exigences importantes de la loi sur l'IA doit s'attendre à des sanctions pouvant aller jusqu'à 35 millions d'euros, soit 7 % du chiffre d'affaires mondial. Et à titre de comparaison : les autorités de contrôle ont infligé des amendes s'élevant à 2024 milliards d'euros depuis l'entrée en vigueur du RGPD jusqu'en février 4,5. La loi sur l'IA devrait être publiée cet été et entrera en vigueur 20 jours après sa publication au Journal officiel de l'UE. La plupart de ses dispositions s'appliquent après 24 mois. Les règles pour les systèmes d’IA interdits s’appliquent après six mois, les règles pour la GPAI après douze mois et les règles pour les systèmes d’IA à haut risque après 36 mois.
Plus sur Cohesity.com
À propos de la cohésion Cohesity simplifie grandement la gestion des données. La solution facilite la sécurisation, la gestion et la valorisation des données - dans le centre de données, la périphérie et le cloud. Nous proposons une suite complète de services regroupés sur une plateforme de données multi-cloud : protection et récupération des données, reprise après sinistre, services de fichiers et d'objets, développement/test, et conformité des données, sécurité et analyse. Cela réduit la complexité et évite la fragmentation des données de masse. Cohesity peut être fourni en tant que service, en tant que solution autogérée ou par l'intermédiaire de partenaires Cohesity.