EXERGUE
Depuis 2005
RSS

Références / IA / Philosophie - Juin 2019

Marie-des-Neiges Ruffo, Itinéraire d'un robot tueur (2018)

Résumé

Idée originale d'un dialogue sur l'IA entre (presque) tous les penseurs de tous les temps spécialement concernés par la question éthique appliquée aux SALA (systèmes d'armes létales autonomes) ou « robots tueurs ». Outre la question de la conscience robotique, la réflexion sur les questions militaires, rarement présentes dans l'espace public actuel, apportera finalement quelques éclairages intéressants, si on en tire les conséquences logiques et critiques.

Marie-des-Neiges Ruffo, Itinéraire d'un robot tueur, coll. « Essais », éd. Le Pommier/Humensis, Paris, 2018, 196 p.

Le livre met en scène la controverse d'un humain opposé à un robot avec la participation d'une galerie de philosophes, d'informaticiens, militaires, juristes et autres de l'antiquité à nos jours (avec un excellent index récapitulatif commenté des auteurs cités en guise de bibliographie, pp. 182-191). Ces participants échangent des arguments au sujet de la conscience et de l'éthique des machines, pour les armes autonomes en particulier. On obtient un foisonnement de thèses qui convergent quand même pour apporter plus de précision sur le sujet, sous réserve qu'on veuille progresser dans la controverse.

Une faiblesse du procédé qui consiste à mettre en scène des philosophes anciens est de négliger qu'ils auraient pu changer d'avis depuis leur époque, comme cela a justement été le cas de Catherine Malabou dans son Métamorphose de l'intelligence, dont j'ai fait un compte rendu critique récemment. Évidemment, outre les désaccords, les positions des uns et des autres comprennent aussi leurs insuffisances qu'il faudrait départager autrement que par l'adoption d'un parti ou d'un autre sur le principe issu de la dissertation (thèse, antithèse, en attendant la synthèse). Un jugement doit savoir trancher.

Le choix de faire parler le robot lui-même est un peu contradictoire puisqu'il semble posséder déjà la conscience qu'on lui dénie pourtant, tandis que l'humain qui s'oppose à l'autonomie robotique semble tantôt omniscient, tantôt ignorant (pour pouvoir laisser parler les philosophes). On pourrait aussi envisager que tout le débat est inutile : si le robot simule le comportement humain, par définition, il peut donc reproduire tout raisonnement qu'on fait à son propos. Toute intelligence est artificielle.

Avec cette question de l'âme robotique, on pense aussi à la fameuse Controverse de Valladolid (1550) entre théologiens (spécialement Bartolomé de Las Casas et Juan Ginés de Sepúlveda) qui débattaient de la conversion forcée des Indiens d'Amérique, sachant qu'il avait déjà été décidé auparavant qu'ils avaient une âme, mais on en retient généralement que c'était cela le débat, du fait de l'absence de prise en compte des conséquences dans les faits. On en avait tiré une excellente reconstitution télévisée en 1992, réalisée par Jean-Daniel Verhaeghe, scénarisé par Jean-Claude Carrière d'après son roman sur le sujet.

N.B. Avant de faire ce commentaire, j'avais signalé par mail à l'autrice deux petites erreurs pratiques sans importance : le livre d'Hubert Dreyfus, Intelligence artificielle : Ce que les ordinateurs ne savent pas encore faire (p. 9), ne contient pas le terme « encore » dans la première édition de 1972 [1]. Et le terme « robot » apparu dans la pièce de théâtre R.U.R. (1920) de Karel Capek (p. 10), ne signifie pas esclave, mais travailleur.

Éthique

Le livre de Ruffo s'organise autour d'un débat éthique sur trois thèmes et chapitres : 1) agora des philosophes, 2) tribunal des avocats, 3) champ de bataille des militaires (p. 10). L'inconvénient de placer le débat sous cet angle de la morale est qu'on semble dire d'emblée que seul l'humain en possède une, en particulier quand on reproche en permanence au robot sa programmation extérieure. C'est très maladroit quand on l'oppose aux militaires qui exécutent aussi les ordres de la hiérarchie. De plus, l'éthique est bien ce qui est formalisé (lois, règles, modes, etc.) contre l'illusion d'une éthique naturelle à l'humain - ce qui serait d'ailleurs aussi une forme de programmation. C'est une erreur philosophique classique. Au cours du débat, il sera néanmoins mentionné que l'humain n'est pas toujours si moral que ça, ce qui est le réalisme empirique minimum, spécialement en ce qui concerne les opérations militaires.

Cette éthique a priori et tout le débat qui en découle apparaissent comme des questions mal posées si on considère que la robotique relève de l'automation (autant bien généraliser quand on généralise). Par définition, on automatisera concrètement ce que la machine fait mieux que l'humain, pour des raisons pratiques ou économiques et pourquoi pas éthiques.

Le livre mentionne d'emblée (pp. 7-8) le banal problème du chômage créé par le remplacement de l'homme par la machine, comme « obsolescence de l'humain » : dans les emplois, pour les jeux, aboutissant au transhumanisme. Et la célèbre citation d'Aristote (de sa propre voix donc) sur l'esclavage rendu inutile par des machines, conclura l'ouvrage. De fait, la philosophie doit tenir compte des incidences concrètes de l'éthique abstraite : pensons à l'époque où la démocratie était réservée à quelques-uns. Dans cette substitution de la machine à l'humain, la question éthique ne se posera ontologiquement pas parce qu'elle sera déjà réglée pratiquement pour chaque domaine concerné où le robot sera plus performant. Il en est forcément de même pour les robots militaires.

Le premier philosophe consulté sur l'Agora par l'humain et le robot invoque justement un critère aristotélicien, « le meilleur ne peut être que le plus moral » (p. 12). On voit ici que l'aspect certes un peu trop formel de la philosophie avait donc déjà résolu la question depuis l'origine, et apparemment, ça ne percute toujours pas (comme pourrait dire un militaire). C'est aussi une information sur la cognition humaine qui nécessite apparemment un temps d'assimilation encore plus long que 2500 ans. Au plan plus spécifique des opérations militaires, le livre signale bien le progrès de l'efficacité technique par la diminution des victimes collatérales : deux civils tués pour un militaire pendant la Deuxième Guerre mondiale, contre un sur quatre en Afghanistan (p. 143), soit huit fois moins.

Sur la morale, les philosophes alliés à l'humain commencent par parler de différence ontologique concernant les notions de « souffrir, intérêts, émotions, conscience, liberté, autonomie » qui disqualifieraient le robot d'office (p. 13). J'ai déjà eu l'occasion de dire dans mon livre sur l'IA que la phénoménologie n'est pas très réglo en s'opposant par le sentiment ou le corps à toute la tradition philosophique rationaliste. D'autant que la question de l'existence du corps (par opposition à un simple ordinateur) est réglée d'emblée pour un robot.

Frans de Waal et Thomas Nagel ou Colin Allen et Wendel Wallach (pp. 21 et 25) envisagent l'empathie et une proto-morale animale ou la douleur comme différence entre l'humain et le robot. La véritable question, outre la spécificité des robots militaires mentionnée par Arkin, serait plutôt que la formalisation de l'environnement naturel et social exige de tenir compte de toutes leurs dimensions. L'émotion est simplement le propre des systèmes biologique comme signal pavlovien, et non comme intelligence de la situation. On a aussi longtemps considéré que l'intelligence des femmes était handicapée par l'émotion, en faire aujourd'hui un critère de démarcation pour qualifier l'humain contre le robot me paraît une malhonnêteté. Les problèmes théoriques de ce genre s'accumulent : Bentham évoque la souffrance des animaux et le fait que le robot n'a pas de système nerveux, mais Christopher D. Stone a défendu le droit des plantes (p. 17) et John Basl évoque le droit de détruire un robot (p. 18). Le problème est qu'il s'agit surtout de produire un discours idéalisé, vu le peu d'éthique de l'humanité. Dans la Rome antique, il existait un droit de vie et de mort sur les esclaves et les épouses. N.B. Pour la cohérence du récit, face à cette négation de sa conscience, il n'était pas nécessaire d'écrire : « une larme coula le long de la joue du robot » (p. 21). Les humains se permettent certaines facilités.

En fait, il faudrait admettre que tant qu'on n'a pas résolu des problèmes moraux pour les humains, on n'a affaire qu'à des conjectures souvent mal formulées, d'où l'idée de correction formelle des erreurs comme mission de la philosophie pour les partisans du positivisme logique. Un de ces biais consiste à généraliser la morale à toute l'humanité par delà les époques et les cultures et sans référence au réel. Ainsi, se poser la question de savoir si l'humain est moral quand il agit immoralement (p. 29) relève d'une forme de naïveté contradictoire. L'idée de morale implique que l'humain agit souvent immoralement, contrairement à la sorte de programmation que souhaiterait paradoxalement la morale ! Certains juges chrétiens se posent, paraît-il, cette question. Classiquement, ils admettent que gratifier l'humain de la liberté de faire le bien et le mal est bien un artifice pour s'autoriser à condamner. Cette liberté humaine est un souvent fictive, un peu comme les armes des westerns où les cowboys tirent sans recharger. C'est surtout pour le spectacle.

De façon un peu lassante sur le sujet, John Basl (p. 18), Ada Lovelace (p. 20), Noel Sharkey (pp. 31-32) et d'autres rappellent que les buts du robot sont donnés par la programmation : « ta finalité, tes buts, [te sont] donnés par ton concepteur [...]. Un aspirateur ne peut pas décider de devenir un fer à repasser » (p. 34). Tandis que pour Patrick Lin, Keith Abney, George Bekey, un robot doit avoir une morale d'esclave qui le fait « obéir à une loi morale dictée par autrui » (p. 35). Cette objection ressassée oublie que l'individu humain ou le militaire ne choisit forcément pas lui-même ses buts, ses ordres et les normes sociales. On peut aussi se rappeler la conception qui dit que c'est Dieu (ou la Nature) qui impose les règles morales. Contrairement à l'informatique, la philosophie n'est vraiment pas un « système à mémoire » si elle oublie sa propre histoire. Ronald Arkin, qui défend le robot, déplore d'ailleurs que les hommes ne suivent pas les règles (p. 21).

Outre la concession des déterminismes humains, gènes, hormones, culture (p. 32), il faudrait que les philosophes enregistrent une bonne fois que l'IA constitue justement une programmation dite non déterministe, surtout par opposition aux machines dédiées (ascenseur, lave-vaisselle...) ou reprogrammables (machines-outils). Les philosophes confondent le fait que l'ordinateur ou le robot fonctionnent bien avec des programmes avec la programmation impérative qui dit exactement ce qu'il faut faire. Outre le fait que l'informatique constitue déjà une machine universelle, c'est-à-dire avec laquelle on peut utiliser plusieurs programmes, l'intelligence artificielle signifie très exactement qu'un ordinateur ou un robot peut accomplir des tâches non définies à l'avance. Cela permet de faire face à un problème pratique nouveau, éventuellement moral. Le fait que les robots actuels ne soient pas assez sophistiqués pour des questions complexes ne signifie pas qu'ils ne peuvent pas résoudre des cas non prévus plus limités. Concrètement, c'est ce que fait un simple programme de jeu : toutes les parties ne sont pas définies à l'avance et il est obligé de suivre les mêmes règles qu'un joueur humain.

Les débats actuels portent précisément sur ce qui peut permettre aux machines (de guerre) de prendre ce genre de décisions. Il n'est pas correct (faux, pour ne pas dire immoral) de dire que c'est impossible a priori, du fait de la nature du robot, quand on s'interroge précisément sur les conditions de possibilité (dites « transcendantales » par Kant). Une raison de cette faute logique des philosophes est que les problèmes moraux sont en principe les mêmes pour l'humain et pour le robot, comme le fameux problème du tramway (choix d'écraser plus ou moins de personnes), outre l'artificialité de tels exemples. Il en résulte que quand on sait formaliser un problème, on sait en principe le programmer. Cela peut correspondre à une loi juridique ou scientifique. La morale correspond plutôt aux questions plus banales du quotidien.

L'argument selon lequel on exigerait toujours un comportement moral de l'humain (p. 37) présente l'humain comme spontanément moral. C'est plutôt le contraire qui a lieu dans la réalité, outre la question logique précédente ou la règle définit l'existence de la faute. La capacité d'expliquer et de justifier des programmes d'IA, contrairement aux humains la plupart du temps, comme le dit Arkin (p. 36), caractérise bien les algorithmes comme des formalisations achevées du débat éthique. Tout raisonnement humain (pour ou contre) pourrait être simulé informatiquement et constituerait donc l'état du débat éthique en prenant en compte toutes les alternatives, ce dont ne seraient pas capables la plupart des philosophes et certainement pas la quasi-totalité des humains. Arkin défend bien cette capacité de traitement de l'information plus performante (p. 37). Le philosophe qui serait capable de telles performances serait d'ailleurs considéré lui-même comme une sorte de robot (un peu comme les personnages de fiction, de type Sherlock Holmes) et, ironiquement, c'est bien l'exigence idéale visée par tout professeur de philosophie de la part de ses élèves !

Les critiques de la modélisation de la vie sur ordinateur et des réalisations diverses (pp. 40-46) reposent au fond sur le fait que les travaux scientifiques (en IA comme ailleurs) sont souvent des prototypes. Il faut du temps pour passer à l'application réelle. L'hypothèse de la croissance exponentielle jusqu'à la singularité de Kurzweil (pp. 41-42), moment où la machine dépassera l'humain, est souvent une promesse marketing de chercheurs (humains) qui anticipent ou extrapolent leurs résultats (pour obtenir des budgets nécessaires à leur réalisation). Mais inversement, l'utilisation actuelle de machines ou de robots signifie forcément qu'ils sont plus efficaces pour leur spécialité, sinon on ne les utilise pas. Si l'efficacité ne résout pas en soi la question de la responsabilité en cas d'erreur (p. 37), c'est aussi vrai pour l'humain.

L'idée que seul le vivant est capable de sens (p. 46) et dire comme Damasio : « le but de l'éthique est la vie bonne [...]. Le robot n'est pas en vie [...]. Le bonheur n'aurait aucune signification pour lui puisqu'il n'éprouve pas de sentiments » (p. 56), outre le syllogisme caricaturalement mécanique, est la même pétition de principe simpliste que celle de la chambre chinoise de Searle, où un système de traduction n'est pas considéré comme comprenant ce qu'il traduit. Ceci est improprement considéré comme une preuve pour les débatteurs (p. 52). J'ai réglé la question dans mon livre précédent, en considérant déjà qu'il ne fallait pas proposer la traduction comme critère pour en refuser le résultat.

De même, le social comme nouvelle démarcation un peu bateau de la morale (p. 50) ne concerne pas l'humain ou l'animal seulement, sans parler des sociétés passées qui seraient jugées immorales aujourd'hui, mais bien la coordination des interactions en général. D'ailleurs, considérer que, pour être moral, il ne suffit pas d'appliquer la règle (p. 56) relève en fait des stades du comportement moral selon Kohlberg qui a développé les théories de Piaget (Pierre Moessinger a parfaitement résumé ces étapes dans La psychologie morale, 1989). Ces deux auteurs auraient gagné à être utilisés ici comme références.

De façon amusante, le chapitre se termine sur l'idée que le problème est « comment passer de l'universel au particulier ? » (p. 56). Ça les philosophes ne savent pas faire !

Droit

La question juridique concerne la responsabilité et la possibilité du robot-éthique ou de degrés d'éthique (p. 14). Si Thomas M. Powers considère (p. 61) qu'on pourrait programmer une morale (kantienne, aristotélicienne ou autre), on peut observer que c'est ce que les philosophes ont essayé de faire pour les humains, comme Bentham et Leibniz avec le calcul utilitariste (p. 65). Outre les résultats mitigés qu'on connaît, il s'agit simplement de la rationalité, idéal traditionnel de la philosophie : ici encore, toute intelligence est artificielle. Ruffo mentionne les AMA (Agent Moral Artificiel) ou les DST (Decision Support Tools) proposés par Drew McDermott (p. 63). Comme l'ouvrage admet l'existence de morales différentes (p. 66), une approche plus sociologique que philosophique considérerait que cela revient à décrire les sociétés existantes et le « droit positif », c'est-à-dire les systèmes juridiques successifs. Mais il faut aussi enregistrer les comportements réellement observables.

Nathalie Nevejans pose le problème du statut juridique du robot (p. 92). Les limites de sa responsabilité (sur le modèle des mineurs ou déments) la reportent sur le propriétaire ou le constructeur selon Lin, Abney et Bekey (p. 93). Étrangement, le problème semble déjà résolu dans la loi, puisque la députée Mady Delvaux mentionne que la directive UE2017 envisage : « de considérer comme une personne électronique tout robot qui prend des décisions autonomes » (p. 95), ce que critique Nevejans qui pense que « cette proposition risquerait de ravaler l'Homme au rang de simple machine. Les robots doivent être placés au service de l'humanité et ne sauraient avoir d'autre place » (pp. 95-96). On peut relativiser cette objection quand on apprend que le but était de créer une taxe. La proposition a été adoptée le 16 février 2017 (p. 96).

Évidemment, les fameuses trois lois de la robotique, du romancier Isaac Asimov : 1) ne pas nuire à un humain, 2) obéir à un humain, sauf si cela contrevient à la première loi, 3) se protéger sauf si cela contrevient aux deux précédentes, même universalisées ensuite à la protection de l'humanité dans son ensemble, soulèvent l'objection humaine qu'elles n'excluent pas les conflits moraux dans ses romans non plus (p. 69). Il faudrait dire aussi que ces trois principes s'opposent aux robots tueurs, comme Asimov lui-même en avait explicitement rejeté la perspective. En ce qui concerne l'usage militaire de la morale, Ronald Arkin propose quatre modules : 1) un « gouverneur éthique » stable, 2) un contrôle modifiable (pour les règles d'engagements sur le terrain), 3) un adaptateur éthique (émotionnel), 4) un gouverneur de responsabilité (juridique) imputée à l'humain en cas d'erreur du robot (pp. 70-71). C'est son alternative aux robots tueurs sans contrôle moral intégré (p. 72). Il s'agit ici d'une amélioration technique aux systèmes déjà disponibles. C'est ainsi qu'on procède, plus empiriquement, dans la réalité sociale.

La machine aux lois universalisables de Thomas M. Powers, avec un principe kantien de l'humanité comme fin et pas comme moyen (pp. 73-74), exige quand même de prendre conscience que les humains traitent aussi les humains comme des moyens. Le problème de Kant était de produire un système de principes plutôt déductifs (top/down) en référence au droit naturel. Il faudrait cependant se souvenir que son Qu'est-ce que les Lumières (1784), qui prône la liberté de conscience, en conclut néanmoins qu'il faut obéir au souverain. C'est de ce principe que le nazi Adolph Eichmann s'est revendiqué à son procès en Israël en 1961-1962. Il ne faut pas oublier que les monarchies de l'époque de Kant, même éclairées par les Lumières, étaient des dictatures. On obtient bien « l'obéissance de cadavre » qu'évoque Arendt à ce propos (p. 74). Il s'agit toujours ici des êtres humains. En tout état de cause, si « Turing pense qu'un robot risque d'être trop moral » (p. 67), la morale est toujours la modélisation du comportement jugé correct.

Ganascia, avec son projet EthicAa, considère bizarrement qu'« on ne peut pas mettre les lois de la guerre dans une machine » (p. 77). Ici encore, il faut partir de ce qui existe. Les mines ou les missiles sont déjà des systèmes automatiques. Quand on parle de morale à propos des systèmes d'armes autonomes, il s'agit d'améliorer leur discernement. De même, si la difficulté évoquée de morale majoritaire des utilitaristes a l'inconvénient de nécessiter une surveillance générale de toutes les interactions (p. 80), il ne faut pas oublier que la connaissance procède toujours par échantillon. Dans la pratique, il suffit de contrôler que les interactions sont conformes au modèle antérieur et noter seulement les variations et les nouveautés. D'ailleurs, Kenji Araki, Radoslaws Komuda & Rafal Rzepka avec CAMILLA, envisagent un agent moral intelligent conscient de sens commun, Artificial Moral Advisor, basé sur le Web (p. 77). L'objection que le Web n'est pas un critère parce qu'on peut y trouver des comportements immoraux (p. 79) exige aussi de noter d'abord qu'il s'agit bien de comportements humains.

Quoi qu'il en soit, comme toujours, l'informatisation correspond simplement à la formalisation de ces comportements. Les biais sont humains et leur formalisation a l'intérêt de les mettre en évidence et de les quantifier, comme le fait une étude humaine. Une approche bottom/up à partir de l'expérience pose effectivement le problème de l'apprentissage de l'immoralité (p. 83), comme le cas fameux du robot de tchat de Microsoft TAY (p. 88) en 2016. Mais ce bot (de dialogue en ligne) n'avait pas vraiment de biais : il a formalisé ce que des humains lui ont enseigné volontairement, soit parce qu'ils étaient sexistes, racistes et nazis eux-mêmes, soit pour démontrer les risques (ce qui est une mauvaise méthode qui revient à casser un vase pour prouver qu'il est cassable, ce que tout le monde sait déjà). Le vrai problème est de savoir comment intégrer une protection contre la désinformation volontaire. C'est bien une question classique de défense. De même, les réponses nulles d'un robot de dialogue de Google évoquées par Searle (pp. 86-87) posent aussi le problème du contrôle de la qualité de l'apprentissage. Il en est de même de l'évaluation de l'apprentissage des élèves et des étudiants. Si l'imprévisibilité des choses apprises croît avec la complexité du système (pp. 84-85), on peut justement considérer qu'il s'agit d'un bon modèle du comportement humain habituel. Ce serait donc l'explication des comportements sexistes, racistes, nazis, etc. Il faut toujours comprendre de quoi il retourne pour éviter la manipulation. Dire qu'un robot guerrier « imprévisible » pourrait être dangereux (pp. 84-85) fait semblant d'ignorer que cette option consiste justement à faire face aux imprévus - ou à égarer l'ennemi (un combattant ne doit pas être prévisible). Insinuer autre chose est malhonnête.

En fait, il ne faut pas faire semblant de se poser des questions éthiques déjà résolues. Une caractéristique classique de l'intelligence artificielle est la récupération des connaissances disponibles dans les systèmes experts. On sait déjà que « tout n'est pas permis à la guerre » (p. 96) et Benoît Royal précisera bien qu'« il existe certains codes éthiques [...] formellement rédigés » (p. 155). Il suffit donc d'appliquer la Convention de Genève ou de La Haye (pp. 97-101) et non de les réinventer. Elles concernent bien les humains et leurs manquements à la morale. Le risque de robots sans supervision selon le rapport d'Human Right Watch (p. 102) ou les difficultés pour distinguer les civils armés pour se défendre (p. 103) concernent aussi les soldats humains. Le problème des drones soulevé par Bradley Jay Stawser ou Grégoire Chamayou concerne effectivement la déclaration de guerre préalable et la possibilité de se rendre (pp. 105-107), mais c'est aussi le cas des opérations des services spéciaux. On peut remarquer de façon amusante que l'idée de John S. Canning sur le robot idéal qui désarme le belligérant en lui prenant son arme (p. 103) pourrait théoriquement être appliquée aisément : un robot devrait être objectivement capable d'être assez précis pour tirer de façon à désarmer l'adversaire comme dans les westerns. Ce qui ne correspondait certainement pas à la pratique historiquement avérée.

Nous avons vu que les participants à la discussion soulignent opportunément l'idée de ne pas transférer une responsabilité au robot pour permettre aux humains de se défausser (pp. 94 et 108). C'est le risque politique habituel. À Noel Sharkey qui s'interroge sur comment punir un robot qui fait le sale boulot (p. 110), on peut rappeler que la Grèce de Platon jugeait les objets qui avaient blessé un humain. Outre qu'il s'agit pour le moment de reprogrammation comme meilleure prise en compte de la situation, dire « on peut reprogrammer [le robot] en guise de réinsertion, mais cela n'a rien à voir avec une punition » (p. 111) devrait noter que pour les humains, une punition est considérée comme une reprogrammation. Le biais de ce genre de débat éthique est de toujours chercher à fonder une différence alors même qu'il s'agit d'une similitude formelle. La question de la responsabilité n'est pas le choix théologique entre liberté et rationalité, mais le fait d'assumer les conséquences des actions. Chez l'humain aussi, l'irrationalité correspond aux bugs ou à l'échec face à la complexité. L'idée d'Arkin selon laquelle le droit et l'éthique seraient mieux respectés par le robot que par l'humain du fait des constats de manquements connus (p. 114) est probablement exacte. Le tribunal de Ruffo a raison de se déclarer incompétent pour trancher de la conscience des robots (p. 117).

De la guerre

Un intérêt du livre est de présenter les débats qui se déroulent au sein des instances militaires à propos des robots tueurs et de leurs pratiques, sous le patronage fictif de Clausewitz et Molke qui rappellent la situation fondamentale d'incertitude de la guerre du fait de la résistance de l'adversaire et des aléas du combat (p. 125). Les généraux américains Krulakj et français Desportes insistent sur l'« influence plus importante des actes individuels » et le « phénomène du caporal stratégique » (p. 127) concernant les initiatives des protagonistes, encore qu'il ne faille pas idéaliser non plus : il s'agit surtout de sauver tes fesses quand les ordres reçus t'envoient au casse-pipe. On est héroïque a posteriori. La guerre est avant tout la mise en situation de confrontation de gens qui n'ont rien à se reprocher personnellement. La violence dans les conflits privés est beaucoup plus rationnelle.

Il ne faut non plus pas se laisser abuser par des rationalisations morales a posteriori. La pratique réelle est simplement de remplir les missions nécessaires en termes de réalisation d'instructions. Ce sont les sous-buts que l'intelligence artificielle formalise pour l'accomplissement d'une tâche. On peut ainsi penser, comme les généraux Krulakj et McChrystal, que l'éthique est aussi une stratégie contre-insurrectionnelle pour « gagner les coeurs et les esprits » (p. 126). Les mots historiques sont de bons slogans de marketing. Outre le fait que l'éthique devrait être la norme de toute façon, sur le terrain, la réalité historique a plutôt été la corruption, la tactique de la terre brûlée et la torture. Depuis longtemps, les insurgés ont été considérés comme des terroristes, par la Gestapo ou les armées coloniales et par les dictatures. Cela peut constituer un aveu que l'éthique et les bonnes intentions de dominateurs sont souvent mal récompensées et que c'est particulièrement énervant pour des êtres humains trop humains.

La problématique de la robotisation vise aussi la perspective de la guerre sans morts, argument publicitaire pour les marchands d'armes (présents dans le livre). Les limites effectives sont qu'« alors ce n'est pas la guerre, c'est autre chose » ou qu'« un mort chez nous suffirait à nous faire perdre » (pp. 130-131). Ce refus du risque renforce la stratégie générale du terrorisme ou de la guérilla pour décourager l'opinion publique en tuant le plus de soldats possible, comme le rappellent l'expérience du Vietnam et les stratèges chinois Qiao Liang et Wang Xiangsui (pp. 132-133). De fait, la guerre dans son ensemble devient une circonstance spéciale du maintien de l'ordre et c'est cet ordre-là qu'il faut redéfinir.

La question du robot est moins celle de l'éthique (problématique identique à celle l'humain sur le fond) que celle de l'autonomie, surtout si on pense comme l'amiral John Fisher qu'il faut savoir désobéir (p. 136), de même que Richard White (p. 138). Cela oppose néanmoins toujours gratuitement humain et robot. Une question d'Arkin : « créer un robot tellement libre et autonome qu'il pourrait faire absolument n'importe quoi ? C'est trop dangereux, surtout pour des robots militaires » (p. 34), signifie en fait que le robot pourrait ne pas tirer (comme le programme de lancement de missiles dans le film Wargame, 1983) ou même changer de camp de lui-même, outre les risques de piratage informatique des drones ou des robots par les adversaires (pp. 148-149). L'idée que « le robot ne refusera jamais de se battre, lui » (p. 138) est forcément fausse s'il est vraiment autonome.

Même pour les questions de simple renseignement, la question me paraît posée sur un plan un peu trop théorique. Vincent Desportes parle de cercle vicieux du toujours plus dans la recherche d'information au détriment de l'action. Ce qui laisse l'initiative à l'ennemi selon Clausewitz (pp. 140-141). Ça peut revenir à regretter le bon vieux temps où l'on ne savait rien (« Waterloo, morne plaine »), avec Napoléon qui attend les renforts et se retrouve face à Blücher. Une fonction de l'IA est d'ailleurs de trier les infos pertinentes, ce que ne savent souvent pas faire les humains, contrairement à l'argument de la primauté de l'analyse sur l'info et du nécessaire temps de la réflexion (pp. 141-142). Ce préjugé humaniste repose encore sur l'opposition théorie/empirisme en favorisant l'idée de surplomb théorique du commandement : une référence à l'idée classique que le soldat Fabrice Del Dongo n'a pas une vision globale de la bataille de Waterloo selon Stendhal, ce qu'avait contredit Jean Norton Cru dans son livre Du Témoignage (1929/1967), à propos des poilus de 14-18.

Les principes généraux déjà disponibles dans les algorithmes doivent être appliqués à la réalité du terrain. C'est bien le « caporal stratégique ». Mais il faut observer la contradiction factuelle avec la fameuse charge de la brigade légère de la bataille de Balaklava, le 25 octobre 1854. Les cavaliers ont obéi docilement à un ordre absurde et lointain. Le poète Tennison (1809-1892) a exalté ce comportement comme sens du sacrifice et de l'obéissance autant que de l'absurdité de la guerre : « Il n'y a pas à discuter / Il n'y a pas à s'interroger / Il n'y a qu'à agir et mourir ». Il ne faut pas régresser, chaque fois qu'on parle d'IA, en lui opposant le sens de l'initiative ou l'intuition humaine (pp. 151-152). Comme le rappelle un intervenant (p. 147), le problème de l'autonomie robotique correspond simplement à l'adaptation à la situation, en particulier pour les cas où l'on perd le contact avec la machine. C'est valable pour tout le monde.

Sur le refus inverse d'abandonner la moralité au robot : « on ne peut pas demander au robot d'être moral à notre place » (p. 159), il faut rappeler les pratiques réelles des humains. On peut célébrer les comportements honorables montrant l'exemple (pp. 157-158), mais il existe aussi un lourd passif militaire déshonorant (colonialismes, nazis, Vietnam, Yougoslavie, Irak, Rwanda, dictatures en général) qui correspond aux manifestations de la nature humaine en situation critique. C'est un peu naïf, pour ne pas dire américain, de se croire toujours les « good guys », même si ça peut servir à brider les comportements pervers. Les morales sont aussi différentes selon les époques. La bonne idée de Kant de définir la moralité comme l'absence de honte de ses actes quand on les raconte à ses petits-enfants (pp. 176-177), reste toujours relative à une culture et à une période donnée. Chaque époque peut utiliser cette idée (d'où l'universalité kantienne), mais parler de sa propre moralité est souvent simplement une négation de la morale d'autrui. Plus lucidement, les militaires invités sont bien conscients de la réalité quand ils parlent des sept péchés capitaux des militaires : anomie, orgueil, peur, vengeance, indifférence, brutalité, inhibition (p. 160).

Insistons encore sur le fait que le principe ontologique (oublié par les philosophes) consiste noter que l'existence de codes est la preuve que l'humain n'est pas moral naturellement et que ces codes incarnent un accord négocié au préalable. Ceci admis, les lois ne sont pas toujours respectées, la morale ne l'est pas non plus. Il faut donc tirer les conséquences de ses propres théories pour construire des modèles et prévoir tous les cas. Dans les bons exemples cités (feel good stories précédentes, pp. 157-158), qui envisagent un accueil favorable des populations face à un comportement éthique, on peut concevoir récursivement (la réversibilité est un stade cognitif de Piaget) que le terrorisme est donc fondé sur l'existence de mauvais exemples. Du coup, dans un premier temps, un assistant moral robotique embarqué (boîtier logique à la M. Spock) pourrait s'avérer plus utile que le seul recours à l'émotion chère à la philosophie phénoménologique.

Intelligence artificielle

Ruffo fait contester par Aristote la possibilité que le robot puisse décider en état d'incertitude, (toujours) du fait qu'il est préprogrammé : « on a juste standardisé les réponses possibles en laissant une part d'aléatoire » (p. 163). Même punition : c'est de toute façon exactement le même problème pour l'humain qui agit comme prévu ou comme défini par la loi (outre ses nombreuses défaillances), sauf en cas de situation inattendue ou nouvelle. Il se trouve alors en situation de prise de décision ou de devoir innover. Tout le monde n'en est pas capable. Quand on y arrive, il s'agit d'une création d'une nouvelle catégorie qui s'ajoute donc aux autres et qui est ensuite introduite dans la palette disponible (schèmes d'action de Piaget). La formalisation de la nouveauté ne doit pas être traitée par le refus de l'explicitation algorithmique de la connaissance sous prétexte de lutter contre la standardisation humaine (p. 179). C'est d'ailleurs le problème de la routine militaire. On peut aussi remarquer que la pratique philosophique en général, et celle de ce livre en particulier, qui consiste à faire parler des philosophes (en figeant leur pensée) revient bien à créer une sorte de programme automatique en « standardisant les réponses possibles ».

Les partisans de l'IA qui se font des illusions au nom de la singularité (p. 84) se retrouvent sur le même plan que ceux qui s'illusionnent sur la moralité spontanée de l'humain. En fait, il s'agit du discours classique de l'intuition opposée aux indices et aux preuves matérielles dans les romans policiers. L'intuition correspond au vieux flic qui refuse le raisonnement (ou l'informatique) au nom de l'expérience, alors qu'il s'agit aussi pour lui de traiter des indices avec des règles, mais de façon non explicite. Ce qui ne veut pas dire qu'il faut tout expliciter pour le robot (programmation impérative), puisque l'IA consiste à programmer des règles d'apprentissage. La singularité correspond à l'idée que les règles en question sont générales et que la machine peut en maîtriser beaucoup plus, mais aussi à la possibilité de faire face à toutes les situations où elles sont insuffisantes. Sur le principe, comme l'IA traite les cas qui n'ont pas été programmés de façon impérative, la singularité est donc déjà réalisée dans tous les systèmes d'IA fonctionnels (quoique limités à un domaine). Pour les difficultés qui subsistent, la machine est dans la même situation qu'un humain devant un problème pratique ou un conflit éthique vraiment nouveau. Ils doivent le résoudre avec leur capacité d'apprentissage. On peut utiliser ici le modèle déjà mentionné des stades moraux de Kohlberg pour comprendre l'évolution par paliers de la capacité cognitive.

La compétence morale en temps de guerre serait, selon Aristote, une capacité de décision fondée sur « la phronèsis, que vous pourriez traduire par prudence. À ne pas confondre avec l'excès de prudence » (p. 161). Les philosophes abusent de la V.O. Inversement, selon mon principe de compréhension comme bonne traduction, il s'agirait ici plus de « maîtrise de soi » ou de « maîtrise de la situation » que d'éthique qui renvoie souvent à la négation de celle d'en face. Si on tente de généraliser, on peut résoudre cette confusion et trouver un moyen de comprendre le principe même des conflits armés. Face à un trouble, la guerre vise à rétablir par la force une loi commune par le principe hégémonique de l'empire. On peut envisager ici que la notion de « juste milieu » d'Aristote veut résoudre plus généralement les contradictions entre des normes antagonistes. L'empire de son élève Alexandre a pu vouloir mettre en oeuvre ce principe.

La synthèse finale de Ruffo proposant classiquement une collaboration humain-machine (p. 177) devrait plutôt correspondre à la compréhension de l'identité de l'humain et de la machine en ce qui concerne la formalisation éthique. Dire « plus qu'au caporal stratégique, l'avenir appartient au phronimos stratégique » où l'homme sur le terrain prend les bonnes décisions (p. 179) est un peu méprisant pour les caporaux. C'est un effet pervers des non-traductions étymologistes pédantes des philosophes qui ne se rendent pas compte qu'ils disent la même chose. Il faudrait aussi noter que la capacité d'initiative empirique en situation est exactement ce que les philosophes ne savent pas faire du fait de leur recours systématique aux seuls principes généraux. Au mieux, ils sont dans l'après-coup. L'argument puéril de la simulation comme mensonge (p. 174) ne vaut pas mieux. Les philosophes confondent les jeux sur les mots ou les étymologies avec l'ontologie (sur le mode : "qui dit éthique dit phronimos", au lieu de   "qui dit loi morale , dit [existence de] fautes morales", comme plus haut). C'est une mauvaise habitude qui ne facilite pas l'assimilation par les étudiants. Ce jeu de références érudites relève des plaisanteries mondaines pour déjà initiés. Post festum.

Pour la question posée par ce livre, il suffit pourtant d'utiliser les connaissances philosophiques disponibles : le problème moral du robot et du militaire n'est pas de tuer (moyen), mais de gagner la guerre (fin). La solution robotique connue, envisagée fugacement comme argument contre Asimov (p. 69), est celle du film Le Cerveau d'acier (Colossus : The Forbin Project, 1970) où un super-ordinateur prend le pouvoir parce que l'homme n'est décidément pas assez raisonnable. Dans cet ordre d'idée, on peut plutôt considérer qu'une intelligence artificielle efficace doit correspondre à la capacité de définir une politique qui réussit à éviter la guerre (« maîtrise de la situation » et non « excès de prudence »). Michel Foucault avait inversé la fameuse citation de Clausewitz en disant : « La politique est la continuation de la guerre par d'autres moyens ». Cela s'accorde également avec l'évitement de la confrontation du stratège Sun Tzu.

La leçon du livre et de son procédé narratif peut être tirée maintenant. Malgré quelques oublis et le biais des mauvaises habitudes disciplinaires de la philosophie, on peut constater que l'originale méthode littéraire et documentaire de Marie-des-Neiges Ruffo constitue bien un modèle de traitement de la connaissance disponible. C'est un véritable système expert qui permet de résoudre le problème posé par la récupération de toutes les expériences intellectuelles disponibles. C'était normalement le projet philosophique avant sa régression romantique. On pourrait généraliser le procédé sur tous les sujets avec les moyens du big data. On voit bien que la question n'est pas la différence humain/machine mais que les problèmes posés relèvent de la logique interne des situations elles-mêmes avec pour seule limite notre capacité à les analyser correctement en vue d'un résultat.

Jacques Bolo

1. J'avais critiqué cet ouvrage et ceux d'autres adversaires de l'IA-forte dans mon livre, Philosophie contre intelligence artificielle, en 1996 [Retour].

courrier Recommander cette page à un ami
Voir aussi :
Soutenez
la revue Exergue
Tous les articles
Références
Critiques

IA
Méthodologie
Culture
Ecologie
Economie
Education
Ethnologie
Relativisme
Société
Europe
Turquie
Démocratie
Sciences
Histoire
Photos
Urbanisme
Sociologie
Reportages
Linguistique
Philosophie
Internet
Politique
Humour
Racismes
Femmes
Démographie
Conneries
Peurdesmots
Médias
Religion
Social
Sports
Carnet
Accueil Ball © 2005- Exergue - Paris Ball Légal Ball Ball Partenaires Ball Contacts