Les systèmes d’IA générative comme ChatGPT et Copilot ont entamé leur avancée triomphale et ne pourront plus être arrêtés. Les technologies capables de créer indépendamment du texte et des images à l’aide d’invites simples et de générer des idées ont considérablement modifié notre façon de penser de manière créative et de résoudre les problèmes en peu de temps.
Bien que l’IA (générative) ait initialement suscité quelques réserves – notamment en ce qui concerne les pertes d’emplois – il devient de plus en plus clair que cette technologie peut compléter, plutôt que remplacer, les compétences humaines. L’IA générative évolue et devient de plus en plus répandue dans le monde des affaires. La technologie est de plus en plus utilisée pour augmenter la productivité, stimuler l’innovation et optimiser la prise de décision. Mais comme pour toute nouvelle technologie, il n’y a pas que des côtés positifs. L’utilisation de l’IA générative présente un certain nombre de défis que les entreprises doivent relever.
Impact sur l'emploi
Sans aucun doute, le recours à l’intelligence artificielle pourra prendre totalement en charge les tâches répétitives, mécaniques et moins créatives. Cela rend obsolètes les emplois qui impliquent toujours les mêmes tâches. Cela inclut, par exemple, des analyses et des processus de réservation récurrents.
Mais de nouveaux emplois seront également créés : la demande de travailleurs capables de travailler spécifiquement avec des systèmes d’IA, de les contrôler et de les utiliser dans des cas particuliers va augmenter. Dans ce contexte, Sam Altman, PDG d'OpenAI, souligne toujours l'importance de l'interaction humaine. Altman affirme que même si l’IA générative fait bien « une partie » du travail aujourd’hui, elle nécessite toujours, en fin de compte, un humain. Les entreprises sont donc tenues d’aborder ouvertement les problèmes liés au lieu de travail. Le recours à l’IA offre la possibilité de remédier efficacement à la pénurie de travailleurs qualifiés sans avoir à licencier des employés. Il est toutefois nécessaire de soutenir activement les changements par le biais de formations continues.
Des « faits » hallucinés
Une IA ne connaît ni le bien ni le mal. Les questions éthiques lui sont étrangères, elle régurgite les données avec lesquelles elle a été formée. Elle peut donc détecter et même renforcer des préjugés involontaires, faisant de l’utilisation publique un risque. L'ampleur des biais dans l'IA dépend des données utilisées pour entraîner le modèle d'IA. Il est également difficile d'utiliser des données sensibles à la loi sur la protection des données, d'obtenir une autorisation d'utilisation des données (droit d'auteur) et de créer du contenu qui viole la loi applicable (comme la génération d'images révélatrices de personnalités). En général, inventer des faits (« halluciner ») est également un problème critique que les mises en œuvre actuelles de l’IA n’ont pas encore résolu.
Pour résoudre ce type de problèmes, il est important de former les systèmes d’IA avec des données soigneusement sélectionnées, fiables et diversifiées. En outre, ces systèmes doivent être régulièrement surveillés et évalués afin d’identifier et d’éliminer les biais et la désinformation potentiels et de garantir que les systèmes d’IA fournissent des informations fiables et impartiales. En outre, la transparence des données d'entraînement et une communication ouverte sur les éventuelles tendances et erreurs de l'IA sont cruciales - non seulement pour les personnes qui utilisent l'IA, mais pour toutes les personnes impliquées.
Exigences légales
Même si l’introduction de lois et de réglementations telles que la loi européenne sur l’IA récemment adoptée est perçue de manière ambivalente par le public, elles entreront en vigueur et conduiront au développement éthique et responsable des technologies d’IA et à leur mise en œuvre. Cela pourrait ralentir certains développements, mais c'est mieux que si ce domaine restait non réglementé. De nombreuses entreprises ne se sont pas encore familiarisées avec les réglementations légales, ce qui peut entraîner des surprises désagréables si elles souhaitent mettre une solution d'IA sur le marché et seulement ensuite réfléchir au cadre juridique.
Une solution à ce problème réside dans une discussion ouverte entre l’Union européenne et les groupes d’intérêt. Les entreprises développant, mettant en œuvre ou utilisant des technologies d’IA devraient être en mesure d’évaluer l’impact des réglementations adoptées sur leurs opérations. Les établissements universitaires et les experts en IA et en éthique peuvent également fournir des informations précieuses sur les aspects techniques et éthiques de la réglementation de l’IA. Cette communication transparente et bidirectionnelle donne également aux parties prenantes la possibilité d'apporter leur expertise et leurs idées pour améliorer l'efficacité des lois et réglementations à venir.
Durabilité et consommation d’énergie
Les grands modèles d’IA nécessitent beaucoup de puissance de calcul et donc beaucoup d’énergie. C’est pourquoi l’IA est souvent qualifiée prématurément de technologie nuisible à l’environnement. Cependant, l’IA a également le potentiel d’apporter une contribution positive à l’environnement. L'IA générative peut optimiser les processus, améliorer les produits et permettre aux entreprises de traiter les problèmes environnementaux de manière proactive et efficace. Les entreprises peuvent ainsi réduire leur empreinte écologique tout en réalisant des économies.
En outre, l’évaluation de la durabilité de l’IA devrait dépendre non seulement de la consommation d’énergie, mais également de la manière dont cette énergie est produite. Les entreprises doivent donner la priorité aux sources d’énergie vertes et renouvelables et aux applications intelligentes pour limiter l’impact environnemental. Si l’IA utilise uniquement de l’électricité produite à partir de sources renouvelables, les gains d’efficacité obtenus par l’IA et la réduction de l’utilisation des ressources conduisent à un bilan global positif.
Conclusion
Comme toute nouvelle technologie, l’utilisation de l’intelligence artificielle générative nécessite également une analyse approfondie des risques. Dans les quatre domaines évoqués : « Impact sur l'emploi », « Implications éthiques », « Cadre juridique » et « Aspects environnementaux », les entreprises sont invitées à élaborer et mettre en œuvre des stratégies. Vous pouvez suivre les pionniers du secteur ou travailler avec une société de conseil spécialisée dans ce domaine. Rien ne s’oppose alors à une utilisation productive et efficace de l’IA. (Ulrich Faisst, CTO pour la région Europe centrale chez Cognizant)
Plus sur Cognizant.com
À propos de Cognizant
Cognizant développe des entreprises modernes. Nous aidons nos clients à moderniser leurs technologies, à repenser leurs processus et à transformer leurs expériences, afin qu'ils restent à l'avant-garde de notre monde en évolution rapide. Ensemble, nous améliorons le quotidien.
Articles liés au sujet