L'éthique de l'IA dans les avancées technologiques peut aider à promouvoir un monde avec moins de biais et plus d'équité. Voici ce qu'elle est et pourquoi elle est importante.
Read in English (Lire en anglais).
L'éthique de l'IA représente les principes moraux qui guident les entreprises vers un développement et une utilisation responsables et équitables de l'IA. Alors que l'intelligence artificielle (IA) devient de plus en plus importante pour la société, les experts du domaine ont identifié un besoin de limites éthiques lors de la création et de la mise en œuvre de nouveaux outils d'IA. Bien qu'il n'existe actuellement aucun organisme de gouvernance à grande échelle pour rédiger et appliquer ces règles, de nombreuses entreprises technologiques ont adopté leur propre version de l'IA et éthique ou un code de conduite de l'IA.
Dans cet article, nous explorerons ce qu'est l'éthique dans l'IA, pourquoi elle est importante, ainsi que certains défis et avantages du développement d'un code de conduite pour l'IA. Ensuite, si vous souhaitez en savoir plus sur l'IA et éthique, envisagez de suivre le cours d'IBM IA générative : impact, considérations et questions éthiques.
IA et éthique est l'ensemble des principes directeurs que les parties prenantes (des ingénieurs aux représentants gouvernementaux) utilisent pour garantir que la technologie d'intelligence artificielle est développée et utilisée de manière responsable. Cela signifie adopter une approche sûre, sécurisée, humaine et respectueuse de l'environnement envers l'IA.
Un code d'éthique solide pour l'IA peut inclure l'évitement des biais, la garantie de la confidentialité des utilisateurs et de leurs données, et l'atténuation des risques environnementaux. Les codes d'éthique dans les entreprises et les cadres de réglementation gouvernementaux sont deux moyens principaux par lesquels l'éthique de l'IA peut être mise en œuvre. En couvrant les questions éthiques mondiales et nationales liées à l'IA, et en établissant les bases politiques pour une IA éthique dans les entreprises, ces deux approches contribuent à réguler la technologie de l'IA.
Plus largement, la discussion autour de l'éthique de l'IA a évolué au-delà du cadre de la recherche académique et des organisations à but non lucratif. Aujourd'hui, de grandes entreprises technologiques comme , et Meta ont constitué des équipes pour aborder les questions éthiques qui découlent de la collecte massive de données. Parallèlement, les entités gouvernementales et intergouvernementales ont commencé à élaborer des réglementations et des politiques éthiques basées sur la recherche académique.
La conception de principes éthiques pour une utilisation et un développement responsables de l'IA nécessite une collaboration entre les acteurs de l'industrie, les dirigeants d'entreprise et les représentants gouvernementaux. Les parties prenantes doivent examiner comment les questions sociales, économiques et politiques s'entrecroisent avec l'IA et déterminer comment les machines et les humains peuvent coexister harmonieusement en limitant les risques potentiels ou les conséquences involontaires.
Chacun de ces acteurs joue un rôle important pour garantir moins de biais et de risques pour les technologies d'IA :
Universitaires : Les chercheurs et professeurs sont responsables du développement de statistiques, recherches et idées fondées sur la théorie qui peuvent soutenir les gouvernements, les entreprises et les organisations à but non lucratif.
Gouvernement : Les agences et comités au sein d'un gouvernement peuvent faciliter l'IA et éthique dans une nation. Un bon exemple est le rapport Villani intitulé « Donner un sens à l'intelligence artificielle », qui a été développé sous l'égide du gouvernement français en 2018. Il décrit l'IA et sa relation avec la sensibilisation du public, la réglementation, la gouvernance, l'économie et la sécurité, servant de base à la stratégie nationale française « AI for humanity ».
Entités intergouvernementales : Des entités comme les Nations Unies et la Banque mondiale sont responsables de la sensibilisation et de la rédaction d'accords pour l'IA et éthique à l'échelle mondiale. Par exemple, les 193 États membres de l'UNESCO ont adopté le tout premier accord mondial sur l'Ethics of AI en novembre 2021 pour promouvoir les droits humains et la dignité.
Organisations à but non lucratif : Des organisations à but non lucratif comme Black in AI et Queer in AI aident les groupes diversifiés à obtenir une représentation au sein de la technologie d'IA. Le Future of Life Institute a créé 23 directives qui sont maintenant les Principes d'Asilomar sur l'IA, qui décrivent des risques, défis et résultats spécifiques pour les technologies d'IA.
Entreprises privées : Les dirigeants de Google, Meta et d'autres entreprises technologiques, ainsi que ceux des secteurs bancaires, de conseil, de soins de santé et d'autres industries du secteur privé qui utilisent la technologie d'IA, sont responsables de la création d'équipes d'éthique et de codes de conduite. Cela établit souvent une norme que les entreprises peuvent suivre.
IA et éthique est important car la technologie d'IA est destinée à augmenter ou à remplacer l'intelligence humaine — mais lorsque la technologie est conçue pour répliquer la vie humaine, les mêmes problèmes qui peuvent obscurcir le jugement humain peuvent s'infiltrer dans la technologie.
Les projets d'IA construits sur des données biaisées ou inexactes peuvent avoir des conséquences néfastes, en particulier pour les groupes et individus sous-représentés ou marginalisés. De plus, si les algorithmes d'IA et les modèles d'apprentissage automatique sont construits trop hâtivement, il peut devenir ingérable pour les ingénieurs et les chefs de produit de corriger les biais appris. Il est plus facile d'incorporer un code d'éthique pendant le processus de développement pour atténuer les risques futurs.
La science-fiction — dans les livres, les films et la télévision — a exploré l'idée de l'éthique dans l'intelligence artificielle depuis un certain temps. Dans le film Her de Spike Jonze en 2013, un utilisateur d'ordinateur tombe amoureux de son système d'exploitation en raison de sa voix séduisante. Il est divertissant d'imaginer les façons dont les machines pourraient influencer la vie humaine et repousser les limites de « l'amour », mais cela souligne également la nécessité d'une réflexion approfondie autour de ces systèmes en développement.
Il peut être plus facile d'illustrer l'éthique de l'intelligence artificielle avec des exemples concrets. En décembre 2022, l'application Lensa AI utilisait l'intelligence artificielle pour générer des photos de profil cool, ressemblant à des dessins animés, à partir d'images ordinaires de personnes. D'un point de vue éthique, certaines personnes ont critiqué l'application pour ne pas donner suffisamment de crédit ou d'argent aux artistes qui ont créé l'art numérique original sur lequel l'IA a été entraînée [1]. Selon The Washington Post, Lensa était entraînée sur des milliards de photographies provenant d'Internet sans consentement [2].
Un autre exemple est le modèle d'IA ChatGPT, qui permet aux utilisateurs de produire du contenu original en posant des questions. ChatGPT est entraîné sur des données provenant d'Internet et peut répondre à une question de diverses manières, que ce soit sous forme de poème, de code Python ou de proposition. Un dilemme éthique est que les gens utilisent ChatGPT pour gagner des concours de codage ou écrire des dissertations. Cela soulève également des questions similaires à Lensa, mais avec du texte plutôt que des images.
Ce ne sont que deux exemples populaires d'éthique de l'IA. À mesure que l'IA s'est développée ces dernières années, influençant presque toutes les industries et ayant un impact positif énorme sur des secteurs comme les soins de santé, le sujet de l'éthique de l'IA est devenu encore plus important. Comment garantir une IA sans biais ? Que peut-on faire pour atténuer les risques à l'avenir ? Il existe de nombreuses solutions potentielles, mais les parties prenantes doivent agir de manière responsable et collaborative pour assurer des résultats positifs à travers le monde.
Il existe de nombreux défis concrets qui peuvent aider à illustrer IA et éthique. En voici quelques-uns.
Si l'IA ne collecte pas de données qui représentent précisément la population, ses décisions peuvent être susceptibles de biais historiques. En 2018, Amazon a été critiqué pour son outil de recrutement IA, qui dégradait les CV contenant le mot « femmes » (comme « Société internationale des femmes d'affaires ») [3]. En essence, l'outil d'IA discriminait les femmes et créait un risque juridique pour le géant technologique.
Comme illustré précédemment avec l'exemple de Lensa AI, l'IA s'appuie sur des données extraites de recherches Internet, de photos et commentaires sur les médias sociaux, d'achats en ligne et plus encore. Bien que cela aide à personnaliser l'expérience client, des questions se posent sur l'apparente absence de véritable consentement pour que ces entreprises accèdent à nos informations personnelles.
Certains modèles d'IA sont volumineux et nécessitent des quantités importantes d'énergie pour être entraînés sur des données. Bien que des recherches soient menées pour concevoir des méthodes d'IA écoénergétiques, davantage pourrait être fait pour intégrer des préoccupations éthiques environnementales dans les politiques liées à l'IA.
Créer une IA plus éthique nécessite un examen attentif des implications éthiques de la politique, de l'éducation et de la technologie. Des cadres réglementaires peuvent garantir que les technologies bénéficient à la société plutôt que de lui nuire. À l'échelle mondiale, les gouvernements commencent à appliquer des politiques pour une IA éthique, y compris comment les entreprises devraient gérer les problèmes juridiques si des biais ou d'autres préjudices surviennent.
Quiconque rencontre l'IA devrait comprendre les risques et l'impact négatif potentiel d'une IA qui est contraire à l'éthique ou fausse. La création et la diffusion de ressources accessibles peuvent atténuer ces types de risques.
Il peut sembler contre-intuitif d'utiliser la technologie pour détecter un comportement contraire à l'éthique dans d'autres formes de technologie, mais des outils d'IA peuvent être utilisés pour déterminer si une vidéo, un audio ou un texte est faux ou non. Ces outils peuvent détecter des sources de données contraires à l'éthique et des biais mieux et plus efficacement que les humains.
La question ultime à laquelle notre société doit répondre est : comment contrôlons-nous des machines qui sont plus intelligentes que nous ? Si des questions comme celle-ci vous intriguent, envisagez de vous inscrire à l'un de ces cours sur l'IA sur Coursera :
Pour un aperçu de l'éthique de l'IA, essayez le cours de l'Université de Lund Intelligence artificielle : éthique et défis sociétaux. Dans ce cours de niveau débutant, vous explorerez l'impact éthique et sociétal des technologies d'IA, allant des biais algorithmiques et de la surveillance à l'IA dans les régimes démocratiques vs autoritaires.
Pour explorer le rôle de l'IA dans la résolution de défis complexes, envisagez de vous inscrire à la Spécialisation l'IA au service du bien de DeepLearning.AI. Vous y apprendrez un cadre étape par étape pour le développement de projets d'IA, construirez des projets d'IA axés sur l'obtention de résultats environnementaux positifs, et explorerez des études de cas réelles liées à la santé, au changement climatique et à la gestion des catastrophes.
Pour améliorer votre travail et votre vie quotidienne avec l'IA générative, explorez la Spécialisation principes fondamentaux de l'IA générative d'IBM. En plus de passer en revue l'éthique de l'IA, vous apprendrez également les concepts fondamentaux de l'IA, appliquerez des techniques de prompt pour obtenir le résultat souhaité avec l'IA générative, et identifierez les domaines de votre travail et de votre vie qui peuvent être améliorés par l'IA.
NBC News. «Lensa, the AI portrait app, has soared in popularity. But many artists question the ethics of AI art, https://www.nbcnews.com/tech/internet/lensa-ai-artist-controversy-ethics-privacy-rcna60242. » Consulté le 16 avril 2025.
Washington Post. «Your selfies are helping AI learn. You did not consent to this, https://www.washingtonpost.com/technology/2022/12/09/chatgpt-lensa-ai-ethics/. » Consulté le 16 avril 2025.
Reuters. «Amazon scraps secret AI recruiting tool that showed bias against women, https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G/. » Consulté le 16 avril 2025.
Équipe éditoriale
L’équipe éditoriale de Coursera est composée de rédacteurs, de rédacteurs et de vérificateurs de fai...
Ce contenu a été mis à disposition à des fins d'information uniquement. Il est conseillé aux étudiants d'effectuer des recherches supplémentaires afin de s'assurer que les cours et autres qualifications suivis correspondent à leurs objectifs personnels, professionnels et financiers.