Risques liés à l'IA générative

Risques liés à l'IA générative

Partager le post

Les systèmes d’IA générative comme ChatGPT et Copilot ont entamé leur avancée triomphale et ne pourront plus être arrêtés. Les technologies capables de créer indépendamment du texte et des images à l’aide d’invites simples et de générer des idées ont considérablement modifié notre façon de penser de manière créative et de résoudre les problèmes en peu de temps.

Bien que l’IA (générative) ait initialement suscité quelques réserves – notamment en ce qui concerne les pertes d’emplois – il devient de plus en plus clair que cette technologie peut compléter, plutôt que remplacer, les compétences humaines. L’IA générative évolue et devient de plus en plus répandue dans le monde des affaires. La technologie est de plus en plus utilisée pour augmenter la productivité, stimuler l’innovation et optimiser la prise de décision. Mais comme pour toute nouvelle technologie, il n’y a pas que des côtés positifs. L’utilisation de l’IA générative présente un certain nombre de défis que les entreprises doivent relever.

Impact sur l'emploi

Sans aucun doute, le recours à l’intelligence artificielle pourra prendre totalement en charge les tâches répétitives, mécaniques et moins créatives. Cela rend obsolètes les emplois qui impliquent toujours les mêmes tâches. Cela inclut, par exemple, des analyses et des processus de réservation récurrents.

Mais de nouveaux emplois seront également créés : la demande de travailleurs capables de travailler spécifiquement avec des systèmes d’IA, de les contrôler et de les utiliser dans des cas particuliers va augmenter. Dans ce contexte, Sam Altman, PDG d'OpenAI, souligne toujours l'importance de l'interaction humaine. Altman affirme que même si l’IA générative fait bien « une partie » du travail aujourd’hui, elle nécessite toujours, en fin de compte, un humain. Les entreprises sont donc tenues d’aborder ouvertement les problèmes liés au lieu de travail. Le recours à l’IA offre la possibilité de remédier efficacement à la pénurie de travailleurs qualifiés sans avoir à licencier des employés. Il est toutefois nécessaire de soutenir activement les changements par le biais de formations continues.

Des « faits » hallucinés

Une IA ne connaît ni le bien ni le mal. Les questions éthiques lui sont étrangères, elle régurgite les données avec lesquelles elle a été formée. Elle peut donc détecter et même renforcer des préjugés involontaires, faisant de l’utilisation publique un risque. L'ampleur des biais dans l'IA dépend des données utilisées pour entraîner le modèle d'IA. Il est également difficile d'utiliser des données sensibles à la loi sur la protection des données, d'obtenir une autorisation d'utilisation des données (droit d'auteur) et de créer du contenu qui viole la loi applicable (comme la génération d'images révélatrices de personnalités). En général, inventer des faits (« halluciner ») est également un problème critique que les mises en œuvre actuelles de l’IA n’ont pas encore résolu.

Pour résoudre ce type de problèmes, il est important de former les systèmes d’IA avec des données soigneusement sélectionnées, fiables et diversifiées. En outre, ces systèmes doivent être régulièrement surveillés et évalués afin d’identifier et d’éliminer les biais et la désinformation potentiels et de garantir que les systèmes d’IA fournissent des informations fiables et impartiales. En outre, la transparence des données d'entraînement et une communication ouverte sur les éventuelles tendances et erreurs de l'IA sont cruciales - non seulement pour les personnes qui utilisent l'IA, mais pour toutes les personnes impliquées.

Exigences légales

Même si l’introduction de lois et de réglementations telles que la loi européenne sur l’IA récemment adoptée est perçue de manière ambivalente par le public, elles entreront en vigueur et conduiront au développement éthique et responsable des technologies d’IA et à leur mise en œuvre. Cela pourrait ralentir certains développements, mais c'est mieux que si ce domaine restait non réglementé. De nombreuses entreprises ne se sont pas encore familiarisées avec les réglementations légales, ce qui peut entraîner des surprises désagréables si elles souhaitent mettre une solution d'IA sur le marché et seulement ensuite réfléchir au cadre juridique.

Une solution à ce problème réside dans une discussion ouverte entre l’Union européenne et les groupes d’intérêt. Les entreprises développant, mettant en œuvre ou utilisant des technologies d’IA devraient être en mesure d’évaluer l’impact des réglementations adoptées sur leurs opérations. Les établissements universitaires et les experts en IA et en éthique peuvent également fournir des informations précieuses sur les aspects techniques et éthiques de la réglementation de l’IA. Cette communication transparente et bidirectionnelle donne également aux parties prenantes la possibilité d'apporter leur expertise et leurs idées pour améliorer l'efficacité des lois et réglementations à venir.

Durabilité et consommation d’énergie

Les grands modèles d’IA nécessitent beaucoup de puissance de calcul et donc beaucoup d’énergie. C’est pourquoi l’IA est souvent qualifiée prématurément de technologie nuisible à l’environnement. Cependant, l’IA a également le potentiel d’apporter une contribution positive à l’environnement. L'IA générative peut optimiser les processus, améliorer les produits et permettre aux entreprises de traiter les problèmes environnementaux de manière proactive et efficace. Les entreprises peuvent ainsi réduire leur empreinte écologique tout en réalisant des économies.

En outre, l’évaluation de la durabilité de l’IA devrait dépendre non seulement de la consommation d’énergie, mais également de la manière dont cette énergie est produite. Les entreprises doivent donner la priorité aux sources d’énergie vertes et renouvelables et aux applications intelligentes pour limiter l’impact environnemental. Si l’IA utilise uniquement de l’électricité produite à partir de sources renouvelables, les gains d’efficacité obtenus par l’IA et la réduction de l’utilisation des ressources conduisent à un bilan global positif.

Conclusion

Comme toute nouvelle technologie, l’utilisation de l’intelligence artificielle générative nécessite également une analyse approfondie des risques. Dans les quatre domaines évoqués : « Impact sur l'emploi », « Implications éthiques », « Cadre juridique » et « Aspects environnementaux », les entreprises sont invitées à élaborer et mettre en œuvre des stratégies. Vous pouvez suivre les pionniers du secteur ou travailler avec une société de conseil spécialisée dans ce domaine. Rien ne s’oppose alors à une utilisation productive et efficace de l’IA. (Ulrich Faisst, CTO pour la région Europe centrale chez Cognizant)

Plus sur Cognizant.com

 


À propos de Cognizant

Cognizant développe des entreprises modernes. Nous aidons nos clients à moderniser leurs technologies, à repenser leurs processus et à transformer leurs expériences, afin qu'ils restent à l'avant-garde de notre monde en évolution rapide. Ensemble, nous améliorons le quotidien.


 

Articles liés au sujet

Sécurité informatique : NIS-2 en fait une priorité absolue

Ce n'est que dans un quart des entreprises allemandes que la direction assume la responsabilité de la sécurité informatique. Surtout dans les petites entreprises ➡ En savoir plus

Les cyberattaques augmentent de 104 % en 2023

Une entreprise de cybersécurité a examiné le paysage des menaces de l'année dernière. Les résultats fournissent des informations cruciales sur ➡ En savoir plus

Les logiciels espions mobiles constituent une menace pour les entreprises

De plus en plus de personnes utilisent des appareils mobiles, aussi bien dans la vie quotidienne que dans les entreprises. Cela réduit également le risque de « ➡ En savoir plus

La sécurité participative identifie de nombreuses vulnérabilités

La sécurité participative a considérablement augmenté au cours de la dernière année. Dans le secteur public, 151 pour cent de vulnérabilités supplémentaires ont été signalées par rapport à l’année précédente. ➡ En savoir plus

Sécurité numérique : les consommateurs font le plus confiance aux banques

Une enquête sur la confiance numérique a montré que les consommateurs font le plus confiance aux banques, aux soins de santé et au gouvernement. Les média- ➡ En savoir plus

Bourse d'emploi Darknet : les pirates informatiques recherchent des initiés renégats

Le Darknet n'est pas seulement un échange de biens illégaux, mais aussi un lieu où les hackers recherchent de nouveaux complices ➡ En savoir plus

Systèmes d’énergie solaire – dans quelle mesure sont-ils sûrs ?

Une étude a examiné la sécurité informatique des systèmes d'énergie solaire. Les problèmes incluent un manque de cryptage lors du transfert de données, des mots de passe standard et des mises à jour de micrologiciels non sécurisées. s'orienter ➡ En savoir plus

Le Shadow IT devient Shadow AI

Le chemin vers l’IA pour les utilisateurs est très court ; l’entrée est douce, facile et souvent gratuite. Et cela a ➡ En savoir plus