Les 7 piliers d’une intelligence artificielle éthique
Le caractère éthique d’une intelligence artificielle repose sur sept piliers :
- Conception éthique & Principes,
- Explicabilité & Transparence,
- Fiabilité & Sécurité,
- Confidentialité & Protection des donnés personnelles
- Équité,
- Responsabilité,
- Frugalité.
En 2023, 6 fois plus de professionnels étaient formés à l’IA en France par rapport à 2016. De nombreuses statistiques démontrent que l’IA gagne du terrain en entreprise, et que son usage se généralise. Il est donc urgent de se pencher sur l’éthique de ses systèmes, et de les fonder sur des principes et des règles qui en découlent.
L’intelligence artificielle est un outil qui permet de réaliser de plus en plus de tâches en un temps record, et avec une précision toujours croissante. Il convient toutefois de connaître ses limites et de surveiller son usage.
Le rôle de l’IA, l’impératif de l’IA éthique
L’intelligence artificielle amène de nombreux défis éthiques qu’il est impératif de prendre en considération. Par exemple, l’utilisation de l’IA pour automatiser des processus peut représenter un risque dans le cas où les prédictions ne sont pas explicables. En effet, cela ouvre la voie à des résultats arbitraires, parfois fondés sur des biais, voire même discriminatoires.
L’éthique, dans les systèmes d’IA, consiste à développer et utiliser des systèmes d’intelligence artificielle en veillant à respecter les valeurs humaines, les droits de l’homme et à tendre vers une utilisation favorable au bien-être de la société.
Les 7 piliers d’une intelligence artificielle éthique
La garantie de l’éthique des systèmes d’intelligence artificielle a été cadrée par IBM selon 5 piliers : explicabilité, équité, fiabilité, transparence et confidentialité. On peut par ailleurs en ajouter deux : la responsabilité et la frugalité. En équilibrant ces critères, on obtient les 7 piliers d’une IA éthique :
- Conception éthique & Principes
La conception du système d’IA doit reposer, dès l’origine, sur des principes justes. Par exemple, il doit poursuivre un objectif d’intérêt général, être employé à des fins bienveillantes, et permettre de s’assurer du respect des personnes, et notamment de la confidentialité de leurs données. Cela permet de garantir que le système est paramétré pour tendre vers un usage vertueux, et augmente les chances qu’il soit utilisé comme tel.
- Explicabilité & Transparence
L’explicabilité d’un système d’IA se caractérise par le fait de justifier ses résultats, de les rendre intelligibles. Ce pilier contribue à lutter contre les biais susceptibles de donner lieu à des décisions injustes, voire préjudiciables à certaines parties.
Il est essentiel de garder un œil attentif sur ce qui constitue un modèle, quelles sont les données d’entraînement, et quels résultats en sont issus. Cette explicabilité doit également pouvoir bénéficier aux utilisateurs qui pourront par exemple décider d’utiliser, ou non, un système d’IA, en toute transparence.
- Fiabilité & Sécurité
La fiabilité d’un système d’IA repose sur le fait de le rendre invulnérable aux diverses attaques dont il pourrait être la cible. Cela permet également de pouvoir mieux se fier aux résultats obtenus.
- Confidentialité & Protection des données personnelles
La confidentialité permet de protéger les utilisateurs d’un système d’IA, en particulier leurs données personnelles. La sécurité des utilisateurs en termes de confidentialité doit être une priorité. En effet, le droit encadre strictement le traitement des données personnelles, qui est d’ailleurs conditionné au consentement des utilisateurs.
- Equité
Ce pilier permet de s’assurer que les systèmes d’IA sont correctement calibrés et permettent véritablement aux humains de faire des choix équitables grâce à des modèles qui ne reproduisent pas des préjugés. Pour cela, les systèmes ne doivent, par exemple, pas avoir été entraînés avec des jeux de données biaisés.
- Responsabilité
La complexité des systèmes d’intelligence artificielle rend parfois le responsable d’une défaillance difficile à identifier.
Identifier précisément les responsabilités permet d’attribuer à chaque partie prenante un rôle déterminé qu’elle sera chargée d’accomplir jusqu’au bout. De cette façon les utilisateurs sont également davantage protégés puisqu’ils disposent de recours, et peuvent plus facilement demander réparation en cas de défaillance.
L’Europe a d’ailleurs récemment pris des dispositions concernant cette question de la responsabilité.
- Frugalité
La frugalité est une préoccupation nouvelle, mais elle émerge massivement. En effet, le coût énergétique des nouvelles technologies est très élevé. Par exemple : En Irlande, 20% de l’énergie produite dans le pays est utilisée pour faire fonctionner les datacenters. Microsoft a augmenté sa consommation d’eau de 34% entre 2022 et 2023.
Des mesures doivent donc rapidement être prises pour rendre l’IA durable, c’est-à-dire viable sur le long terme.
Ce sujet vous intéresse ?