Il ne faut pas confondre la "psychologie morale" et "l’éthique normative", mélanger la science et la morale. La science dit ce qui est ; la morale, ce qui doit être !
Oui, bon, ça va, vous suivez ?
Pour moi, qui suis technicien, c’est-à-dire, viscéralement matérialiste, alors… dur, dur !
Bon, on continue. Si je vous dis « La science est descriptive et cherche les causes pour "expliquer" les phénomènes, alors que la morale est normative et cherche les raisons pour "justifier" nos actions. » Ça vous parait plus clair ?
Si je vous raconte que la voiture de demain sera sans conducteur et que celui-ci sera remplacé par un ordinateur qui devra prendre des décisions de conduite en fonction de critères qui lui auront été assignés, ça provoquera immédiatement l’opposition : « quelqu’un, quelque part, a décidé sur la base d’une éthique arbitraire qui devait vivre et qui devait mourir » pour donner le coup de volant fatal qui sacrifiera soit le vieillard soit l’enfant… Alors la question, dans ce livre de Martin Gibert, n’est pas de savoir comment les gens pensent qu’on devrait faire la morale aux robots, mais bien :
Comment faire la morale aux robots !


Qui est Martin Gibert ? Un petit cachotier ! Je suppose qu’il est né en France (Quand ? Où ?) Il obtient une Licence de philosophie à l’Université de Clermont II en 1996. Puis une Maitrise de philosophie à l’Université de Toulouse le Mirail en 1998 ainsi que son CAPES de philosophie. En 2000, il obtient le DEA de philosophie à l’Université Paris 8. Et, enfin, un Doctorat en philosophie à l’Université de Montréal en 2012.
Lorsqu’on lui demande quels souvenirs il garde de ses études, il confie : « J’ai plutôt de bons souvenirs de mes études en France. Mais je peux maintenant comparer avec le Canada. Je trouve par exemple dommage que ce soit le programme de l’agrégation (le Championnat de France !) qui dicte le plus souvent les enseignements universitaires. J’ai l’impression que ça perpétue une approche assez conservatrice de la philosophie. […] En Amérique du nord, les choses paraissent beaucoup plus horizontales. Les étudiant.es au doctorat sont considérés comme des collègues par les autres chercheurs. Les profs ne vous regardent pas de haut. Bref, c’est plus sympa. » https://www.les-philosophes.fr/agora/martin-gibert.html
Actuellement, spécialisé en psychologie morale et chercheur en éthique de l’intelligence artificielle à l’Université de Montréal, affilié au CRÉ (Centre de recherche en éthique, http://www.lecre.umontreal.ca/) et à l’IVADO (Institut de valorisation des données, https://ivado.ca/). Il a publié L’imagination en morale (2014) et Voir mon steak comme un animal mort (2015).


Voilà pour l’expertise… Et que nous dit-il, l’expert, à part que programmer les intelligences artificielles (IA) de manière morale est une entreprise « pharaonique » ? Nous allons essayer de brosser les grandes lignes de son livre.
Et puis d’abord, qu’est-ce que l’intelligence ?
Dans le cas d’un organisme biologique, l’intelligence permet de prendre des décisions, d’atteindre des objectifs tels que s’adapter à son environnement, se reproduire ou rester en vie. Une IA vise à atteindre les objectifs que ses programmeurs lui ont assignés. Pour ce faire elle doit être capable de percevoir, d’apprendre, de raisonner, de prédire et d’agir de façon autonome. Mais pour parler d’intelligence, il faut ajouter la capacité de comprendre.
Quelles normes morales doit-on implanter dans les robots ?
Programmer une IA, c’est anticiper les situations auxquelles elle sera confrontée, mais les choses se compliquent surtout parce qu’on doit les programmer de façon morale, c’est-à-dire en fonction de certaines normes.
Les philosophes classent les normes selon plusieurs catégories : les normes conventionnelles qui dépendent de cadres spécifiques (jeu d’échecs, orthographe, syntaxe) ; les normes prudentielles qui nous permettent de satisfaire nos préférences personnelles ; les normes morales qui valent pour tout le monde (le bien, la justice…).
Les choses se corsent lorsqu’on confie à un algorithme autonome ou semi-autonome une tâche qui a des conséquences sur l’existence d’êtres humains. On parle alors “d’agents moraux artificiels” (AMA) au sens faible.
Qui est responsable si, en toute autonomie, ils tuent ou blessent quelqu’un ? Ils ne peuvent être tenu moralement ni légalement responsables de leurs erreurs.
Si on admet qu’une voiture autonome peut être un AMA, il devient possible d’évaluer ses actions et donc, comment programmer un bon robot ? « Tout dépend de la théorie morale sur laquelle on s’appuie. » En 2017 une commission mandatée par le ministère allemand des transports a publié un rapport sur les règles éthiques à suivre en cas d’accident inévitable :
• Il est normalement requis de sauver les humains avant les animaux.
• Il n’est pas obligatoire, mais seulement permis de sacrifier une personne pour en sauver plusieurs.
• Il est interdit de choisir entre un vieillard et un enfant. Toute forme de distinction fondée sur des caractéristiques personnelles (âge, genre, constitution physique ou mentale) est strictement prohibée.
Le comité allemand se réclame manifestement du déontologisme fondé sur l’égalité des droits.
Alors, en cas d’accident inévitable, que faire, qui choisir ?
• S’en remettre au tirage au sort. Introduire une fonction aléatoire dans l’algorithme.
• Laisser faire le hasard des circonstances. La programmation consisterait à ne pas intervenir pour changer la direction inertielle du véhicule.
Comme le révèle une étude du MIT (Massachusetts Institute of Technology) les gens préfèrent généralement « laisser faire » (omission) plutôt que « faire » (action). Or le tirage au sort implique, une fois sur deux, une action.
L’auteur souligne que programmer un robot déontologique suppose une connaissance très fine d’un domaine et une modélisation très complète de son environnement. Ce qui est relativement facile pour une IA jouant aux échecs, mais l’est beaucoup moins si elle évolue dans un milieu ouvert.


Nous venons de voir le bon robot déontologique… Quand est-il du bon AMA utilitariste ?
« Quand le déontologiste s’en remet au hasard, l’utilitariste sort sa calculatrice. » La programmation utilitariste prendrait en compte la quantité de bien être engendrée par une action, l’intensité du plaisir, sa durée, sa probabilité et le nombre d’individus concernés. Oui mais voilà… Comment tenir compte de tous les facteurs qui auront une incidence sur la suite des évènements ?
En cas d’accident inévitable, il n’est plus question de tirage au sort, de s’en remettre au hasard, de ne pas tenir compte des caractéristiques personnelles… En fin de compte, « doter un robot d’un système de prise de décision utilitariste paraît, comme pour le robot déontologiste, une entreprise pharaonique. »


Aller, un dernier pour la route… Le bon robot vertueux !
Apparemment, c’est le mal-aimé, celui « que les profs traitent avant les vacances, s’il leur reste du temps. »
Avec l’éthique de la vertu, il s’agit de prendre modèle sur des personnes qui se conduisent de façon vertueuse (aurait dit Monsieur de La Palice) en se distinguant par des traits de caractère comme l’honnêteté, la bienveillance ou le courage. Or, dans le cas de la voiture autonome, « on peut tout à fait imaginer que Greta [Thunberg] sauverait l’enfant, alors que Jésus serait plus enclin à opter pour un tirage au sort. » Ce qui ne parait pas impossible car aucun de ces choix ne serait en contradiction avec le caractère vertueux de l’un ou de l’autre.
Le robot vertueux a quelque chose d’imprévisible. Peut-être n’existe-t-il pas une seule « bonne réponse » morale, mais cette indétermination est peut-être sa force : si on est prêt à s’en remettre au hasard, pourquoi ne pas accepter l’opacité de certaines décisions ?
Au moins, le robot vertueux sait qu’il doit imiter les personnes vertueuses même s’il ne sait pas pourquoi.
« Pour tout dire, à ce jour, autant les robots déontologistes que les utilitaristes et les vertueux semblent encore incapables d’offrir une solution applicable et satisfaisante. »
« En plus, Jésus ne savait pas conduire et Greta ne veut pas passer son permis. »


Aux apprentis sorciers qui vont se lancer, bientôt, dans la programmation de leur IA, attention de ne pas dépasser les bornes. Attention de ne pas se prendre pour Dieu lui-même. Comme l’a annoncé le "Prophète" Nick Bostrom (https://fr.wikipedia.org/wiki/Nick_Bostrom) dans son ouvrage sur la "Superintelligence" (2014) (https://fr.wikipedia.org/wiki/Superintelligence_:_Paths,_Dangers,_Strategies) :
« Pensez-y, L’IA est la dernière invention que les hommes auront besoin de créer. Les machines seront alors de meilleurs inventeurs qu’on ne l’est. »
La conséquence inévitable d’une machine qui aurait la possibilité de s’améliorer elle-même, est qu’elle finira par produire, à un moment donné, de façon récursive, une intelligence exponentielle, bien plus importante qu’on ne peut l’imaginer : une superintelligence : « On pourrait tout à fait imaginer un scénario catastrophe où la superintelligence échapperait à notre contrôle et anéantirait l’humanité, voire tout potentiel de vie sur Terre. »
La question de Bostrom, en définitive, est la suivante : comment contrôler une superintelligence artificielle ?
La meilleure option semble être d’implanter dès le départ dans une “superintelligence germe” (une IA bébé) des motivations ultimes qui correspondent à nos valeurs.


Et les femmes et la programmation des IA…
Vous vous souvenez de la “commission mandatée par le ministère allemand des transports” dont il était question ci-dessus ? Elle était composée de treize hommes… et d’une femme !
Monsieur le Professeur, Docteur en philosophie, diplômé des universités de Clermont, Toulouse, Paris et Montréal, émigré universitaire au Canada depuis une vingtaine d’années, a son franc parlé et des idées bien arrêtées sur la chose.


Ah, je savais bien que vous voudriez savoir, petit curieux :
« Certes, il est difficile de savoir exactement quelle influence a eu cette disparité sur le style des débats et les recommandations finales. Mais ça ressemble bigrement à un scénario de science-fiction américaine des années 1950. On pourrait le dire comme ça : le monde de l’intelligence artificielle et, plus largement, celui des nouvelles technologies, quand on gratte un peu, ça sent la couille. »


On a vu que les IA sont programmées à l’aide d’algorithmes qui correspondent à nos valeurs morales, qui reproduisent notre environnement, nos sociétés, patriarcales, d’autant que les programmeurs sont des “programmeurs” dans la grosse majorité des cas.
Pourtant, et là je tombe des nues, le premier programmeur est une “programmeuse” :
La comtesse Ada Lovelace, https://fr.wikipedia.org/wiki/Ada_Lovelace
(Ada Lovelace, née en 1815 à Londres décédée en 1852. Elle est principalement connue pour avoir réalisé le premier véritable programme informatique, sur un ancêtre de l'ordinateur : la machine analytique de Charles Babbage. Dans ses notes, on trouve en effet le premier programme publié, destiné à être exécuté par une machine, ce qui fait considérer Ada Lovelace comme « le premier programmeur du monde ») Wiki.
Dans les années 1950-60 les programmeuses n’étaient pas rares, le software était encore perçu comme une extension du travail de secrétariat. En 1984, 40 % des diplômés américains en informatique étaient des femmes, elles n’étaient plus que 22 % en 2018.
La sous-représentation des femmes et des minorités dans la Silicon Valley « accentue la concentration de la richesse entre les mains d’hommes blancs déjà privilégiés. Mais surtout, les programmateurs risquent de faire des AMA à leur image. […] Il serait surprenant qu’une IA ne reflète pas en partie les valeurs de ceux qui la conçoivent. »


Enfin, les émotions jouent un rôle important dans nos vies. « Comment des machines pourraient-elles être réellement morales en ne ressentant rien ? » Comment construire des robots capables de perception morale s’ils ne peuvent éprouver des émotions comme l’indignation ou la colère ? Il semblerait que les recherches sur l’informatique affective et l’empathie artificielle (!?) montrent que les AMA n’ont pas besoin d’éprouver eux-mêmes des émotions pour percevoir les nôtres, « il ne paraît pas impossible pour un algorithme d’apprendre à détecter la peur, la joie, la tristesse, la colère, la surprise ou le dégoût qui transparaissent dans une voix ou un visage. »


D’un point de vue pratique, on ne demande pas forcément que les robots soient des parangons de moralité mais qu’ils aient la capacité de répondre avec flexibilité et sensibilité dans des environnements réels et virtuels, et ce, dans le cadre de normes établies.
Le sésame pour une bonne programmation doit permettre de faire confiance aux robots.
« Et si la solution ne résidait pas justement dans l’éthique de la vertu, ou plutôt dans ces personnes trop rares qu’on dit vertueuses ? À bien y penser elles feraient d’excellentes éducatrices pour enseigner la morale aux robots. »
Face aux robots déontologiques ou utilitaristes, il apparaît comme un bon compromis : une personne vertueuse n’a pas à choisir entre ces deux théories, elle peut très bien se comporter tantôt en déontologiste, tantôt en utilitariste, voire selon d’autres principes. Le robot vertueux est fait pour apprendre. Il n’a pas à passer par des règles mais se nourri en prenant modèle sur des personnes vertueuses. En outre il n’a pas besoin d’être infaillible : « un robot peut être plus ou moins vertueux, le plus important étant qu’il cherche à s’améliorer […] Ne reste plus qu’à trouver de bons exemples à émuler. »


Alors laissons l’imagination de Monsieur le Professeur vagabonder dans ses propositions :


« Ce qu’il faut, c’est choisir de bons exemples pour faire de bons robots. C’est apprécier la personnalité morale des gens et s’inspirer de leurs vertus.
Le courage de Greta et la miséricorde de Jésus.
La loyauté de Confucius et la persévérance d’Ada Lovelace.
Le sens de la justice d’Angela Davis et la bienveillance de Gandhi.
Le regard surplombant d’Isaac et les contre-plongées d’Ursula.
»


========================================


Faire la morale aux robots se termine ici. Mais je ne peux arrêter cette lecture sans poser une question :
À quoi ça sert tout ça ? Ne sommes-nous pas en train de sodomiser les brachycères ? Ou plus communément, de couper des cheveux en quatre inutilement ?
Eh bien NON !
Nous ne sommes plus dans la science-fiction, ou alors, la science-fiction nous a rattrapés. Sans pouvoir préjuger de ce que sera demain (hormis la voiture autonome qui doit choisir entre écraser le vieillard ou l’enfant), voici quelques exemples d’utilisations de robots animés à l’aide d’IA :
En médecine :
• Selon l'INSERM, les applications de l'IA permettent notamment d'améliorer la qualité des soins. L'IA est au cœur de la médecine du futur, avec les opérations assistées, le suivi des patients à distance, les prothèses intelligentes, les traitements personnalisés.
• Des travaux suisses menés chez l’animal démontrent le potentiel d’un système de navigation intra-artériel à peine plus grand qu’un cheveu humain téléguidé à distance par champ magnétique. Son développement devrait permettre d’accéder aux artères les plus fines du corps.
• Un robot pour traiter les métastases à travers la peau. Robotique chirurgicale et intelligence artificielle ont permis de détruire des lésions cancéreuses au niveau du foie sans ouvrir la peau.
• Ce sont les premières "machines biologiques", imaginées à l'aide d'un algorithme évolutif puis réalisées en laboratoire. Cette méthode pourrait générer des "biobots" sur mesure, capable de délivrer un médicament, reconnaitre un cancer ou manger des déchets.
• Des chercheurs américains ont décrit une nouvelle "loi de la physique", qui modélise tous les contacts par friction, notamment lorsqu'un bras robotique doit attraper un objet. Leurs recherches pourraient permettre de grandes avancées dans la conception de dispositifs robotiques de précision, comme en téléchirurgie.
En agriculture :
• "Mineral", le nouveau prototype de chez Google est en voie de rejoindre les champs pour une meilleure gestion des grandes cultures.
En milieux hostiles :
• La robotisation a permis de remplacer l'homme dans des environnements hostiles. Par exemple pour explorer les fonds marins ou dans l'espace, également désamorcer des bombes ou des objets radioactifs.
• Des quadrupèdes robotisés, parfaitement autonomes et fonctionnant en meute, pourraient s’immiscer dans les zones les moins accessibles de la planète Rouge – souterraines notamment – complétant ainsi le travail des rover.
• Les plus belles photos transmises par le rover Curiosity de la Nasa, depuis la planète Mars : https://www.sciencesetavenir.fr/espace/planetes/curiosity-les-plus-belles-photos_97#animatedModal
En particulier, le cliché n°35 qui montre en son centre un fragment de météorite, photographié en octobre 2016, de la taille d’une balle de golf, baptisé "Egg rock". Pour réaliser ce cliché en sélectionnant ce fragment minéral au milieu de tant d’autres cailloux martiens l’intervention d’une IA a été tout à fait efficace.

Philou33
8
Écrit par

Cet utilisateur l'a également mis dans ses coups de cœur et l'a ajouté à ses listes D - Comptables : Ceux qui comptent ! et F - Clair-Obscur

Créée

le 21 juil. 2021

Critique lue 321 fois

3 j'aime

13 commentaires

Philou33

Écrit par

Critique lue 321 fois

3
13

Du même critique

L'Anomalie
Philou33
7

À lire sans tarder… et pour cause !

… Car je ne pense pas trahir un quelconque suspense en soulignant que l’action de "L’Anomalie" se déroule en juin 2021 (Cf. quatrième de couverture) et donc tout ce qui n’est pas advenu peut encore...

le 13 déc. 2020

17 j'aime

5

Les Choses humaines
Philou33
4

OUI pour le fond ! NON pour la forme !

C’est générationnel (Je suis un VIEUX C…). Je n’aime pas les histoires de cul ! Je n’aime pas les histoires où on « fait l’amour » comme d’autres font des cauchemars. Mais, à en croire l’auteure,...

le 13 nov. 2019

14 j'aime

11

Le Bug humain
Philou33
10

L’Homme : ennemi mortel pour l’homme

ATTENTION, ceci n’est pas une "Critique". D’ailleurs je ne m’octroie pas le droit d’émettre des critiques, tout juste des commentaires. Ici, ce serait plutôt un billet d’humeur. Dans ce cercle...

le 20 mars 2020

11 j'aime

5