Trois questions à Lilian FOURCADIER, Chargé de mission numérique et de communication Digitale à la CCI du Tarn
Les enjeux éthiques liés à l’IA sont vastes. Ils touchent des aspects comme la discrimination, la transparence ou encore la responsabilité.
Par exemple, il est essentiel de garantir que les systèmes d’IA ne reproduisent pas des biais*(1) existants dans les données. De plus, les décisions prises par ces systèmes doivent être compréhensibles et justifiables, non seulement pour les utilisateurs mais aussi pour les parties prenantes.
Un autre point crucial concerne la protection des données personnelles, car nous ne savons pas comment et où ces données sont stockées et comment elles seront utilisées.
Enfin, il est important de maintenir un équilibre entre les avantages de l’IA, notamment en termes de productivité, et ses impacts sur l’emploi.
L’Europe a récemment adopté une loi sur l’IA, en mai 2024. Elle sera progressivement appliquée jusqu’en mai 2026.
Cette réglementation impose plusieurs obligations aux fournisseurs de services d’IA.
Par exemple, ils doivent informer clairement les utilisateurs lorsque le contenu est généré par IA, obtenir leur consentement pour utiliser leurs données, et les sensibiliser aux limites des modèles, notamment le risque d’hallucination*(2).
Les entreprises doivent également veiller à ce que les contenus produits par IA respectent les lois en vigueur et permettre aux utilisateurs d’accéder à leurs données, voire de les modifier, conformément au RGPD.
Ces obligations renforcent la confiance et visent à éviter les abus.
Les risques sont effectivement variés.
D’abord, il y a le problème des biais dans les données ou les algorithmes, qui peuvent entraîner des décisions injustes. Ensuite, l’IA nécessite souvent de grandes quantités de données, ce qui expose les entreprises à des violations de confidentialité ou à des non-conformités avec les réglementations, comme le RGPD.
Autre risque majeur, celui de la cybersécurité : les systèmes d’IA peuvent être ciblés par des cyberattaques.
Par ailleurs, une surdépendance à ces outils peut limiter la capacité des entreprises à innover ou à s’adapter à des situations imprévues.
Enfin, se pose la question de la responsabilité : qui est responsable en cas d’erreur ou de préjudice causé par une IA ?
Pour limiter ces risques, les entreprises doivent mettre en place plusieurs actions :
*(1) - Un biais en intelligence artificielle désigne une tendance systématique à produire des résultats erronés ou discriminatoires en raison de préjugés présents dans les données d'entraînement, des algorithmes ou des processus
de conception.
*(2) - C’est la génération d'informations fausses ou incohérentes qui peuvent sembler convaincante malgré leur inexactitude.