« Hello, IA » : les challenges éthiques du business de l’intelligence artificielle

Laurence Dierickx

« Hello, IA » : les challenges éthiques du business de l’intelligence artificielle

« Hello, IA » : les challenges éthiques du business de l’intelligence artificielle

Laurence Dierickx
8 septembre 2021

Développer et intégrer une éthique de l’intelligence artificielle et de la robotique fait partie des enjeux majeurs de la décennie. Bien que de nombreuses lignes directrices aient vu le jour au cours de ces dernières années, leur mise en pratique ne va pas toujours de soi : une question d’équilibre entre les intérêts commerciaux et ceux de l’individu et de la société.


 

La métaphore de l’intelligence artificielle fait référence à différents systèmes informatiques, utilisés dans une variété de secteurs économiques, et sa définition est par essence volatile. Dans le monde de la recherche, différentes approches coexistent : des systèmes qui agissent intelligemment, des machines qui pensent comme les humains, des machines qui agissent comme des humains, et des machines qui agissent de manière rationnelle. Alan Turing (1912-1954) envisageait l’IA comme une machine ayant la capacité de faire preuve d’un comportement intelligent qui soit indiscernable d’un comportement humain intelligent. John Searle aborde quant à lui l’IA selon qu’elle soit « faible », c’est-à-dire limitée à une seule tâche définie, ou « forte », à savoir disposant d’un raisonnement identique à un être humain. Dans son expérience de la chambre jaune, menée en 1980, il se demandait si un programme informatique complexe était capable de donner un esprit à un système et sa conclusion était qu’une IA ne peut qu’être faible. Si nous sommes encore loin d’une véritable IA capable de démontrer une telle intelligence, il s’agit toutefois d’un rêve caressé par certains scientifiques, dans une vision déterministe qui n’est pas sans risques. Car si l’IA peut être développée pour être profitable à l’individu ou à la société, l’inverse peut s’avérer tout aussi vrai. Comme le rappelait Michel Volle dans « De l’informatique: savoir vivre avec l’automate » (2008), le bien et le mal ne résident pas dans l’outil mais dans les intentions qui le sous-tendent.

Expliquer, c'est (surtout) démystifier

L’intelligence artificielle fait référence à des technologies capables de simuler (ou d’imiter) une activité humaine. Derrière cette métaphore, on retrouve une panoplie de systèmes dont le point commun est de traiter des données et d’en extraire une signification. Les systèmes experts furent les premiers à être expérimentés. Il s’agit de programmes de raisonnement fonctionnant par inférence, et s’appuyant sur une base de connaissances. Les systèmes de planification sont notamment utilisés dans le monde de la robotique. Ils font référence à des algorithmes capables de planifier des séquences d’actions à exécuter. Mais lorsque l’on parle d’IA aujourd’hui, on pense davantage aux algorithmes d’apprentissage automatique (machine learning, deep learning), qui permettent d’améliorer les performances d’une tâche définie en se basant sur une expérience nourrie par des données.

Les algorithmes de machine learning peuvent être répartis en quatre catégories. En premier lieu, l’apprentissage supervisé cherche à établir une représentation compacte d’association entre des entrants et des extrants, par l’intermédiaire d’une fonction de prédiction. Il fait notamment référence à des algorithmes de régression linéaire, qui permettent de modéliser simplement des relations complexes, et à des arbres de décision, dont les faiblesses sont de nécessiter beaucoup de données et d’être parfois difficiles à interpréter. L’apprentissage non supervisé est une technique de deep learning, incluant des algorithmes traitant avec des données non labellisées (ou non annotées). Ils permettent d’analyser un grand nombre de données, de découvrir des connaissances renfermées dans ces données, ainsi que d’établir des prédictions ou des classifications. L’apprentissage semi-supervisé construit des modèles à partir de données labellisées et non labelllisées, par exemple pour établir des classements ou générer du texte de manière automatique, tandis que l’apprentissage par renforcement s’appuie sur des interprétations du système en fonction des récompenses et des punitions qu’il reçoit. Un tel type d’algorithme est notamment utilisé pour les jeux où une machine affronte un humain (et finit souvent par gagner). Tous ces algorithmes nécessitent des machines puissantes (nos ordinateurs portables ne font pas le poids), aini que des données de qualité pour pouvoir fonctionner. Mais que se passe-t-il lorsque ces données sont biaisées ? Fort logiquement, elles donnent lieu à des résultats qui sont eux aussi biaisés.

Source: https://twitter.com/ltdrpa/status/1239446198131417096

 

Bien que nos images mentales de l’intelligence artificielle aient sans doute été façonnées par de nombreuses fictions – encourageant à voir celle-ci comme une amie sympa ou comme la pire ennemie de l’humanité –, ses représentations sont quotidiennement devant nous… sans que nous en soyons forcément conscients. Les technologies de l’IA et de la robotique sont utilisées pour établir des diagnostics médicaux, prédire les comportements des consommateurs ou cibler certains groupes avec des publicités, modéliser l’évolution d’une pandémie, accepter ou refuser l’octroi d’un prêt par une institution bancaire, recruter un candidat, recommander des actualités, déterminer le montant d’une police d’assurance, jouer le rôle d’assistant personnel, prendre en charge les tâches répétitives d’un travailleur humain, piloter des voitures de manière autonome,… Leurs applications commerciales sont nombreuses : au-delà des expériences menées en laboratoires, l’IA c’est aussi – et surtout – une affaire de business. Ce n’est pas pour autant qu’il faut y voir nécessairement un mal. Les bénéfices de ces technologies sont nombreux pour l’individu et la société. Mais pour qu’il y ait bénéfices, il faut en évaluer les risques. Les débats portant sur l’éthique sont sains et nécessaires pour encourager des développements et usages responsables de l’IA.

Le champ de l’éthique se décline en trois écoles dont les fondements sont différents, mais qui peuvent être envisagés de manière complémentaire dans le contexte de l’IA. L’approche conséquentialiste défend l’idée que la valeur d’une action dépend de ses conséquences (une action est juste si ses conséquences sont bonnes) ; l’approche déontologique place le curseur sur le devoir sous-tendant une action ; et l’approche de la vertu met en avant la moralité. Bien que l’éthique et le droit soient perçus comme distincts, certaines règles juridiques peuvent être envisagées sous le prisme éthique. Toutefois, l’éthique a ceci de particulier qu’elle n’est pas contraignante.

Transparence vs explicabilité

En février 2020, la Commission européenne publiait un livre blanc sur l’IA dans lequel elle souligne les changements attendus : amélioration des soins de santé, adaptation de l’agriculture au changement climatique, augmentation de l’efficacité des systèmes de productions… Mais ceci, dit-elle, s’accompagne aussi de risques potentiels « tels que l’opacité de la prise de décisions, la discrimination fondée sur le sexe ou sur d’autres motifs, l’intrusion dans nos vies privées ou encore l’utilisation à des fins criminelles ».  Ceci illustre le fait que les enjeux éthiques d’un secteur ne sont pas forcément ceux d’un autre. Mais dans le débat éthique, l’en d’entre eux se répète de manière transversale: celui de la transparence.

Pour autant, celle-ci est-elle envisageable, possible, dans un contexte où le code est ce qui donne de la valeur pour son propriétaire ? Un algorithme de machine learning peut être utilisé pour entraîner un modèle et améliorer ses performances. Mais celui qui le lance ne comprend pas forcément le parcours de cet algorithme et cela d’autant plus que de petites modifications dans un jeu de données peuvent donner lieu à de grandes différences dans les résultats. Certains algorithmes, comme ceux utilisés dans le deep learning, sont d’ailleurs de véritables boîtes noires. Quant à l’utilisateur lambda, est-il prêt à se lancer dans le déchiffrage d’un algorithme et dans la comprehension avancée de méthodes de calculs et de probabilités ? Dans ce contexte, le principe d’explicabilité semble le meilleur compromis. Il consiste à être capable d’expliquer pourquoi un système est arrivé à un résultat donné. L’explicabilité a ceci comme avantage qu’elle permet de faire sens, de participer à la démystification du système.

Algorithme de classification semi-supervisé « Naive Bayes ». Source : thatware.co Traduction dans le langage R : naiveBayes_model <- naiveBayes(y ~ x1 + x2, data=as.data.frame(cbind(y,x1,x2)))

 

Un catalogue de risques

Le débat éthique est caractérisé par une approche centrée sur les risques. Bien que ceux-ci varient d’un secteur à l’autre, pour les entreprises actives dans le domaine de l’IA, les principaux risques sont ceux liés à leur réputation, à leur valorisation sur les marchés boursiers, et aux condamnations éventuelles dès lors que leurs activités enfreindraient les périmètres définis par la loi. Mais les risques sont aussi ceux du coût pour l’environnement : les technologies de l’IA sont très gourmandes en ressources et les « data center » sont particulièrement énergivores. Selon une étude de l’Institut Allen pour l’intelligence artificielle, l’entraînement d’un système de génération et reconnaissance du langage naturel (le nôtre) est émet autant de dioxyde de carbone que cinq voitures tout au long de leur vie. Quant aux technologies blockchain, caractérisées par la décentralisation du stockage et de la transmission de données, leur coût environnemental donne le vertige : par exemple, l’emprunte carbone du Bitcoin est comparable à celle de la Colombie, un pays qui compte plus de 50 millions d’habitants. A une époque où les défis environnementaux sont majeurs pour la préservation de l’habitabilité de la planète, tout ceci pose question.

Dans le secteur des soins de santé, l’IA s’est montrée très performante pour, par exemple, découvrir des cellules cancéreuses. Mais elle est aussi utilisée, en télémédecine, via des robots dont l’objet est de réduire la sensation de solitude et d’isolement des personnes âgées. Pour celles souffrant de démence, le risque est de ne pas se rendre compte que le robot n’est rien de plus qu’un robot. Dans le domaine de la justice, les algorithmes prédictifs rendent des décisions susceptibles de reproduire des biais humains, dès lors qu’ils s’appuient sur des données composées de jugements antérieurs (aux États-Unis, les biais raciaux sont souvent épinglés). La question des biais se pose également dans le secteur des banques et assurances, mais aussi dans celui du recrutement. Est-il humainement acceptable d’être mis sur la touche sur base de la décision froide d’un algorithme ? De nombreuses études ont également souligné les risques sur l’emploi : si une machine fait le job, pourquoi une entreprise aurait-elle encore besoin de rémunérer des humains ? Il s’agit ici d’une nouvelle révolution industrielle qui concerne l’ensemble des professions et si certains types d’emplois sont voués à disparaître, inévitablement, de nouveaux sont en train de voir le jour. N’oublions pas que derrière tout système informatique, il se trouve toujours des humains qui définissent des règles et des procédures.

A ce catalogue, ajoutons les risques psychologiques induits par des liens affectifs qu’un utilisateur tisserait avec son assistant personnel. Le premier chatbot est né dans les années 1970. Il s’appelait Eliza. Il s’agissait d’un système de psychothérapie de type rogérien consistant à reformuler des affirmations en questions. Eliza ne faisait que rédiger mais elle était si convaincante que certains utilisateurs en sont devenus dépendants. Plus proche de nous, la presse a déjà fait état d’agents conversationnels ayant recommandé à leur utilisateur de se suicider.

Le risque ultime est celui de la mise en danger de la vie d’autrui. Dans le contexte des véhicules autonomes, les questions de responsabilité et de sécurité sont régulièrement mises en avant. En principe, le conducteur est le seul responsable de son véhicule. Mais ce principe est-il suffisant lorsqu’un accident est causé par une défaillance du logiciel ? Par ailleurs, ces véhicules collectent d’énormes quantités de données sur leur utilisation. Mais celles-ci sont aussi essentielles pour en évaluer leurs performances et améliorer leur sécurité. Dans le monde de l’intelligence artificielle et en robotique, l’autonomie se rapporte à un système ayant la capacité de fonctionner sans opérateur humain pendant une période prolongée.

Les armes autonomes font partie des technologies de l’IA les plus contestées, dès lors que leur pouvoir de décision est aussi celui de la vie et de la mort de cibles humaines. Leurs bénéfices sont ceux de pouvoir être utilisées dans des opérations de déminage, de neutralisation d’explosifs ou des missions de sauvetage ou d’assistance. Mais elles peuvent aussi tuer, et cette décision est susceptible de contenir des biais ou des facteurs discriminants. Une arme autonome devrait être capable de distinguer les combattants des non-combattants, de calculer la proportionnalité, et de respecter le principe de commandement pour prévenir des atrocités. Mais pour la coalition campagne Stop Killer Robots, la mort par algorithme est l’ultime indignité : le droit de l’humain est celui de ne pas être tué par une machine.

 

Big tech is watching you (et il n'est pas le seul)

“Data is the new oil” et les acteurs de la big tech l’ont bien compris. La gratuité de leurs services n’est d’ailleurs qu’une illusion : les données de leurs utilisateurs en sont le prix. La collecte, le stockage, le traitement et la commercialisation des données personnelles se heurtent au principe de respect de vie privée. Mais l’utilisateur de Facebook est-il seulement conscient qu’en acceptant les conditions générales de la plateforme, il lui cède non seulement ses données mais le droit de les utiliser comme bon lui semble. C’est aussi ce qui fait d’elle une plateforme attrayante pour le placement publicitaire : l’analyse des données de ses utilisateurs permet aux experts en marketing de cibler des groupes spécifiques. De plus, les systèmes d’IA et les robots sociaux peuvent très bien être utilisés pour manipuler l’opinion publique, y compris en ce qui concerne les opinions politiques. Le scandale Cambridge Analytica a mise en lumière, en 2018, les dangers d’une telle manipulation.

 

 

Si l’on part du principe que le débat éthique trouve ses fondements dans une analyse de risques, celui de l’hyper surveillance est celui qui nous concerne tous. De plus en plus, nos mouvements, nos actions sont enregistrées dans des bases de données. Qu’il s’agisse des données que nous cédons volontairement ou de celles que nous semons derrière nous. Ce sont aussi les données que nos transmettons aux autorités et qui alimentent de gigantesques bases de données que certains gestionnaires aimeraient voir fusionner : adieu vie privée ?

La surveillance généralisée, ce sont aussi les caméras dont certaines villes se sont équipées pour traquer les mouvements suspects sur la voie publique. Derrière ces réseaux de caméras, se trouvent des sociétés commerciales qui vendent des solutions technologiques aux autorités. L’addition des données de surveillance peut aboutir à des utilisations dystopiques, comme c’est le cas en Chine avec son programme de crédit social. Là aussi, des données biaisées peuvent conduire à des décisions elles aussi biaisées. Si un tel système existe dans une dictature où les droits de l’homme s’apparentent le plus souvent à un gros mot, de telles dérives totalitaires sont susceptibles de se produire partout ailleurs, au nom de la sacro-sainte sécurité. Pour de nombreux gouvernements, il n’est pas impensable de réduire le périmètre de la vie privée du citoyen pour appliquer la loi. Mais ici, le débat éthique porte sur le principe de surveillance totale ainsi que sur des abus intentionnels ou accidentels. Est-ce la société dont rêvent les générations futures ?

 

 

L’hyper surveillance se trouve déjà chez vous si vous utilisez un assistant personnel comme Alexa ou Google Home. Elle peut aussi se cacher aussi sous les traits d’innocents jouets, à l’instar de « Hello Barbie » commercialisée par Mattel, qui  encourage les jeunes filles à dialoguer avec la poupée, à leur parler de leur vie. La société a dit s’être engagée à respecter la vie privée de ses clients. Mais nous n’en savons pas plus. Nos relations avec l’IA, sont aussi une relation de confiance. Et si les données collectées de manière massive soulèvent des préoccupations éthiques considérables, il faut aussi se dire que ces données sont aussi à la base d’une amélioration des performances de l’IA. Un autre enjeu concerne la sécurité de ces données : qu’est-ce qui nous garantit qu’elles sont bien protégées et qu’elles ne tomberont pas dans des mains mal intentionnées? Le cloud, ce n’est pas un nuage mais des serveurs physiques bel et bien réels. Encore une fois, il s’agit d’une question de confiance.

La responsabilité des humains derrière (et devant) les machines

Les stratégies du développement de l’intelligence artificielle concernent l’ensemble des acteurs de notre société, qu’ils soient professionnels du secteur, décideurs, chercheurs ou utilisateurs. Le débat éthique a besoin d’être porté par tous, pour garantir un développement dont on ne retiendrait que les bénéfices. La Commission européenne a établi une série de recommandations, qui disposent explicitement l’inclusion de la dimension éthique dans le développement et l’utilisation de nouvelles technologies. Ce ne sont pas seulement le respect des droits fondamentaux des individus qui sont en jeu. De nombreuses lignes directrices existent (à ce propos, il serait intéressant de les regrouper en un seul endroit tant il existe de sources) mais au-delà des intentions, il s’agit aussi de voir comment les intégrer de manière opérationnelle dans les pratiques professionnelles.

Les technologies de l’IA participent à un écosystème sociotechnique au sein duquel gravitent une série d’acteurs qui, s’ils n’ont pas forcément tous un pouvoir décisionnel, sont susceptibles de promouvoir des comportements éthiques. Les indicateurs clés sont ceux de la supervision des systèmes, de leur robustesse, de leur sécurité, de la confidentialité, de la gouvernance des données, de la transparence, de la non-discrimination, du bien-être social et environnemental, du respect de l’intégrité physique, mais aussi de la responsabilité. Dans ce contexte, les acteurs du big tech viennent à l’avant-plan des préoccupations, dès lors qu’ils ont investi massivement dans la recherche sur l’IA et que ce sont eux qui détiennent les laboratoires les pus importants.

Pour le monde de la recherche, cela suppose notamment de s’interroger sur la manière dont les concepteurs de ces systèmes comprennent leurs limitations et les conséquences de leurs utilisations. La question des biais, qui se trouvent autant dans les données que dans les intentions, les processus décisionnels et les contextes sociaux, apparaît également comme un élément-clé. L’étude de l’IA nécessite des collaborations entre disciplines dès lors qu’elle se trouve à la croisée des chemins entre l’économie, la politique, la technologie, la sociologie ou encore la philosophie. Le monde de l’enseignement ne doit pas non plus être en reste car c’est là aussi que se forgent les esprits de citoyens-usagers responsables. Aussi, une approche critique de ces technologies couplée à une éducation à l’IA sont-elles plus que jamais indispensables.

 


Sources

Ce long format a été largement inspiré par deux ouvrages publiés cette année, ainsi que par un rapport scientifique défendant l’idée du développement d’une IA « réfléchie ».


Bartneck, Christoph, Lütge, Christoph, Wagner, Alan, et al. An introduction to ethics in robotics and AI. Springer Nature, 2021.

Stahl, Bernd Carsten. Artificial Intelligence for a Better Future: An Ecosystem Perspective on the Ethics of AI and Emerging Digital Technologies. Springer Nature, 2021.

Novak, Jasminko, Drenska, Kalina, Koroleva, Ksenia, et al. Towards Reflective AI: Needs, Challenges and Directions for Future Research