Résumé développé
Introduction
Je rappelais l'état de l'informatique au début des années 1990 et la problématique de l'intelligence artificielle. La situation a beaucoup progressé depuis. L'usage grand public a fait souvent perdre de vue la programmation contenue dans les applications. Mais on reparle de l'intelligence artificielle en mentionnant ses dangers, quoique de façon beaucoup moins philosophique, mais tout aussi sommaire. Il est bon de rappeler les bases de ce à quoi elle correspond pratiquement : la décomposition des opérations dans les algorithmes qui constituent la structure des composants et des programmes.
Chapitre 1 : Philosophie de l'IA
Un point fort de ce chapitre est un exemple impressionnant de délire holiste du professeur Arnheim et des philosophes en général. On y voit que les prétentions phénoménologiques au monopole humain de la connaissance incarnée révèlent simplement un fétichisme verbal. Les exemples donnés par les adversaires de l'IA se perdent dans la régression à l'infini dont une solution existe en programmation élémentaire. Le problème philosophique relève précisément d'un schéma binaire, reproduisant le vertige combinatoire de la philosophie lullienne dont parle Umberto Eco.
À lire Searle, on peut constater que le mentalisme utilise simplement le vocabulaire de la conscience pour parler du monde matériel. Tout se réduit à une série d'abracadabras rhétoriques ou une « analyse des postulats de l'IA » biaisée par une erreur d'analyse sur le fonctionnement des ordinateurs.
Chapitre 2 : L'homme machine
La philosophie phénoménologique du corps ne comprend pas que l'IA ou la robotique sont dans la même situation que l'humain face à l'information. C'est une négation de la conscience réflexive au profit d'une sorte d'intention innée. On constate à de multiples reprises que la distinction homme/machine repose simplement sur des a priori. Il ne faut pas faire semblant d'oublier que la programmation extérieure de la machine, souvent limitée aux micromondes expérimentaux, correspond aussi à celle de l'homme.
Outre la programmation extérieure de tout apprentissage, les opposants à l'IA refusent que les règles soient explicites pour décrire l'humain, en niant le critère de la relation moyen/fin. On peut constater à travers de nombreux exemples concrets que cette erreur repose sur un modèle erroné de l'apprentissage ou de l'environnement réel. La solution de la phénoménologie, pour prétendre rendre compte de l'humain, se limite au seul réductionnisme biologique. Le modèle sokalien des impostures intellectuelles s'applique.
Le cas du programme ELIZA de Weizenbaum pourrait être réinterprété comme une réussite du test de Turing, contrairement à ce que Weizenbaum a cru comprendre lui-même en faisant des erreurs étonnantes. Sur ce modèle d'ELIZA, les critiques de nos opposants à l'IA pourraient être générées automatiquement. Leur décompilation (analyse inverse des programmes) est relativement facile pour produire une parodie les imitant (DREYFY, SEARLY, WEIZY, WINOFLORY) comme le programme ELIZA. C'est finalement peut-être le vrai problème d'un nouveau paradoxe du comédien.
Chapitre 3 : L'image philosophique de la science
Anticipant la critique de Sokal parue l'année suivante, je notais l'usage biaisé ou factice des sciences par les philosophes. Le schéma de rupture avec le sens commun tend à faire préférer l'ésotérisme alors que l'intelligence artificielle récupère l'expertise commune ou scientifique dans les systèmes experts. C'est surtout la quantité de connaissances accumulées qui a découragé le traitement que peut permettre l'IA. D'où l'abdication dans l'irrationalisme.
Hubert Dreyfus aurait pu envisager que la bonne méthode consiste à formaliser les cas concrets qu'il revendique au lieu de reproduire de fausses généralités philosophiques. Son refus de l'existence de premiers pas repose uniquement sur un postulat holiste absurde. La rhétorique de dévalorisation des résultats de l'IA est contradictoire. On peut considérer ma critique de ses thèses comme un début de modélisation de la communication.
Inversement, le rejet de l'enthousiasme et de l'optimisme des chercheurs en IA ignore précisément l'engagement humain dans la progression de la connaissance. La métaphore de l'intelligence artificielle est le bon paradigme dont le but est précisément la simulation. Il suffit d'analyser sérieusement les exemples donnés pour découvrir une stupéfiante analogie au fondement de la phénoménologie.
Le problème de la vision philosophique de la science est sa persistance à nier la validité de l'empirisme ou celle de la technique même quand elle se revendique du concret. Elle peut se comprendre comme une théorie ratée de la fiction.
Chapitre 4 : Traitement de l'information et méthode
Les habituelles contradictions philosophiques et le refus de la neutralité empêchent l'analyse des processus cognitifs et communicationnels. L'explicitation dans le programme correspond bien à la tentative de modéliser le comportement humain à travers des exemples littéraires ou réels. Un système automatique peut signaler les incohérences.
Les « méthodes » d'informatisation comme la méthode Merise® (ou les « ateliers logiciels ») constituent précisément déjà une procédure automatisable de formalisation d'une activité spécifique. Les éléments et les étapes de ces méthodes correspondent en fait à certaines réflexions de l'histoire de la philosophie dont elles résolvent opérationnellement les difficultés, sans que les philosophes en soient simplement avertis.
Le livre d'Umberto Eco, La recherche de la langue parfaite, paru au moment de la rédaction de mon livre, confirme la récapitulation de l'histoire du questionnement philosophique dans le projet de l'intelligence artificielle.
Chapitre 5 : Possibilité des sciences humaines
La philosophie se perd dans un ineffable en contradiction avec son tournant phénoménologique prétendument incarné. Ses pétitions de principe cachent des archaïsmes religieux et elle se réfugie dans un réductionnisme scientiste extrémiste pour nier les sciences sociales. L'IA ne sert d'abord qu'à recueillir la connaissance disponible. La difficulté des sciences humaines réside seulement dans l'enchevêtrement des catégories utilisées par les représentations des acteurs. La philosophie ajoute à la confusion en maintenant des archaïsmes essentialistes.
C'est bien l'IA qui repose ces problèmes de façon opératoire au niveau sociologique. La question de la validation des catégories se résout en recueillant leur expression locale. Car les normes ne sont pas qu'implicites. La phénoménologie correspond plutôt à une nouvelle norme de non-explicitation ! Les mauvaises analogies créent la confusion dans la transmission de la connaissance. Une formalisation sociologique ou psychologique consiste à enregistrer les comportements réels et leurs sanctions sociales qui modélisent les cultures et les personnalités.
La question de la liberté humaine ne s'oppose pas à celle de la machine en cela qu'elles reposent toutes deux sur la nécessité de traiter les mêmes contraintes et la même capacité de délibération. La question de la liberté rejoint celle de la vérité.
Chapitre 6 : Formalisation et langage
Un bon modèle pour la modélisation du langage par l'IA est celui de la didactique des langues étrangères avec ses « interlangues » qui formalisent les grammaires intermédiaires des apprenants par opposition à un holisme innéiste. Ces étapes subjectives sont plus valides que la mode du réductionnisme ou du constructivisme extrémiste : l'ordre est ce qu'on met, pas ce qu'on voit.
Le langage d'IA Prolog montre que la méthode de formalisation du langage offre des moyens d'expliciter et de lever les ambiguïtés et de résoudre l'opposition entre concepts et réalité. Alors que les nombreux exemples des adversaires de l'IA illustrent seulement leur incompréhension du principe de formalisation.
C'est le formalisme qui permet d'envisager de réduire la pensée à un calcul. L'expérience historique ou sociale constate la validité de cette explication. L'obstacle de l'ambiguïté est un biais mystique, dont la levée permet la traduction automatique, contrairement aux faux exemples de ses échecs. Chaque problème effectif correspond à des règles nécessaires et communes à la résolution humaine.
La confusion phénoménologique entre syntaxe, sémantique, morphologie, peut simplement découler des imprécisions de la linguistique balbutiante ou de la fascination littéraire pour les paradoxes ou de l'oubli de la référence au réel. La fameuse sémantique chinoise de Searle dévoile seulement son incompréhension, décidément commune avec ses comparses, de la nature analytique des langues.
C'est précisément la capacité formelle qui peut permettre de distinguer compétence et performance mieux que ne le font les linguistes. L'habitus de Bourdieu conduit-il aux animaux-machines ? Le refus romantique de la rationalité fait finalement flop !
Chapitre 7 : Critères de validité
La théorie générale de la connaissance engagée par le débat entre philosophie et intelligence artificielle peut se réduire à la détermination de critères de validité pour nos productions cognitives.
La philosophie classique opposait essentiellement critère de vérité logique et empirique. Ce sont les limites de cette opposition qui ont suscité les insatisfactions à l'origine des critiques phénoménologiques ou mentalistes de l'IA. Des chercheurs comme Piaget y avaient déjà apporté des réponses.
Au lieu de régresser à un holisme adamique, pour prendre en compte la construction personnelle, il faut au contraire distinguer aussi un critère subjectif, malgré ses dérives ; un critère intersubjectif, qui correspond aux codes culturels concrets, sous réserve d'échapper aux biais conformistes dans lesquels tombe parfois la science ; un critère pragmatique pour prendre en compte les processus cognitifs et l'action concrète ; un critère technique, pour reconnaître les moyens disponibles et leurs limites.
L'opposition à l'IA relève en fait banalement de « la lutte pour la vie dans la cité scientifique ». Dans les années 1960, les chercheurs ont été impuissants à contrer ces attaques qui ont amplifié le phénomène nouveau du scepticisme face au progrès et les structures biaisées du débat scientifique.
Conclusion : What Human Beings Can't Do !
On a pu constater que les limites de l'intelligence artificielle sont surtout celle de la compréhension de ses adversaires autant que l'incapacité de ses partisans à défendre le cadre rationaliste qui est le sien.
Mon analyse de ces quatre textes « pas à pas » montre comment une critique automatisée peut considérer tout texte comme une base de connaissance et la lecture comme une confrontation à des critères de validité. Cette procédure formelle permet d'expliquer les erreurs comme les apports dans la construction de la connaissance du monde par l'individu ou par la science.
* * *
Ce livre était à l'origine un projet de doctorat, avec Raymond Boudon comme directeur de thèse, qui n'a finalement pas été soutenu après avoir été rédigé et traîné en longueur (1987-1993). Le titre du projet original était « Logique de la connaissance formelle et non formelle ». Il concernait la sociologie de la connaissance et portait sur l'opposition entre la connaissance ordinaire et les sciences en général ou les sciences sociales en particulier. Il aurait consisté en une confrontation de connaissance commune et de ses supports, en particulier les médias, les arts & lettres et croyances diverses, avec les travaux d'épistémologie générale ou de sciences sociales qui, à l'époque structuraliste, insistaient sur la « rupture avec le sens commun ». Le marxisme orthodoxe ou académique s'était aussi présenté comme science, avec les mêmes prétentions de rupture à l'égard de l'idéologie bourgeoise ou de la neutralité de la science et de la technique. Les débuts de l'écologie politique tournaient aussi à la critique de la science, de la technique et du « mythe du progrès ».
Je lisais à l'époque des travaux d'épistémologie, comme ceux de Bachelard, Piaget, Kuhn, Feyerabend, Hacking, Latour, Woolgar, Popper, Bloor, les philosophes classiques et d'autres, ainsi que des études sur les mythes ou les religions avec Weber, Eliade, Durant, Freud, Jung, Cazenave, Diel, Gusdorf, les anthropologues, etc. Mon objectif était de confronter les théories de ces auteurs à l'observation de la connaissance commune et ses déviations, que j'étudiais aussi à travers l'école de Palo Alto dont les théories sont assez mal acceptées en France du fait de l'influence freudienne, qui confond traditionnellement la psychopathologie avec l'anthropologie. La philosophie allemande totalisante n'arrange rien. Vingt ans après, les débats intellectuels en France sont la conséquence dégradée de cette confusion qui n'a toujours pas été éclaircie.
À l'époque, Boudon commençait lui aussi à étudier la question de la rationalité avec des livres comme L'idéologie (1986), L'Art de se persuader (1990), Le Juste et le vrai (1995). Sur ce genre de problématiques, il se demandera un peu plus tard Y a-t-il encore une sociologie ? (2003). Bonne question. Je ne suis presque pas allé le voir pendant cette période, en partie parce que je travaillais parallèlement, mais plutôt parce que j'avais commencé à m'intéresser à la micro-informatique au début des années 80. Cette activité me prenait beaucoup de temps. Je suis naturellement tombé sur l'intelligence artificielle qui recoupait mes préoccupations. Une partie de mes lectures en traitait explicitement, comme le fameux débat Piaget/Chomsky du livre Théories du langage, Théories de l'apprentissage (1979), qui réunissait pas mal de spécialistes de l'IA.
Un des problèmes était la question du relativisme, qui a pu se manifester en 2001 par le scandale académique de la soutenance de thèse de l'astrologue Élizabeth Teissier avec le sociologue Michel Maffesoli. Cette affaire est un bon résumé de la problématique relativiste. Quiconque peut évidemment faire une thèse universitaire sur l'astrologie, mais avec celle d'une astrologue la sociologie semble considérer toutes les connaissances comme équivalentes. À la même époque, d'ailleurs, les éditions PUF ont remplacé le « Que sais-je ? » rationaliste sur l'astrologie par un autre plus bienveillant à son égard. Notons que la question devrait se poser aussi pour les religions majoritaires, dont les membres font aussi des thèses sur leurs croyances sans les remettre en question, et c'est parfaitement accepté. Le problème réel de cette affaire me paraît plutôt la dichotomie entre la connaissance commune et les connaissances académiques. Elles semblent coexister sans que la seconde s'intéresse vraiment à la première jusqu'à ce qu'elle s'introduise sur ses plates-bandes. Le maintien de la différence peut aboutir à l'anti-intellectualisme contemporain qui survalorise le discours populaire. Mais la question est de savoir comment traiter les connaissances communes (où l'astrologie et la religion en général sont présentes) sans donner l'impression de les légitimer académiquement ou politiquement. On est également en plein dedans.
Mon texte est une étude de cas qui traite justement de l'irrationalisme au sein du monde académique, autour de quatre livres d'opposants à l'intelligence artificielle. À l'origine, la question de l'IA ne devait constituer qu'un chapitre de la thèse. La richesse quantitative et qualitative des erreurs présentes dans ces quatre livres m'a conduit à me limiter à ce sujet. Ils résument à eux seuls deux cents ans d'histoire de résistance à la rationalité et à la possibilité de modélisation du comportement humain. J'ai écrit mon texte dans une perspective proche du livre de Sokal et Bricmont, Impostures intellectuelles, qui a paru juste après le mien, en 1997. Je suis d'accord avec leur critique des contresens et de l'inadéquation des interprétations des sciences naturelles par les chercheurs des sciences humaines. Mais je trouve certaines de leurs critiques un peu limitées au mode réductionniste du scientisme américain qu'on retrouve dans les critiques de l'IA. Je rapproche davantage l'aspect imposture de l'usage charlatanesque de la magie ou des parasciences ou du scientisme lui-même. Depuis, j'ai eu l'occasion d'écrire qu'une des causes du phénomène correspondait à l'enfermement disciplinaire des universitaires qui ne s'occupent pas assez de vulgarisation pour contrôler l'usage qui est fait de leurs découvertes. La cause récente en est le « publish or perish » qui s'est imposé par la mesure quantitative des publications et qui suscite précisément des fraudes scientifiques parfaitement avérées dans toutes les disciplines.
Finalement, à la relecture, je me dis que j'avais vu assez juste sur la relation entre la connaissance scientifique et la connaissance commune. J'avais envisagé les critiques contre l'intelligence artificielle comme une manifestation des reliquats métaphysiques ou religieux présents dans la philosophie. Je les attribue à l'influence de la philosophie romantique allemande ou de certains biais culturels anglo-saxons, pour les livres critiqués. On peut considérer ces problèmes de sociologie de la connaissance comme la cause de la confusion qui règne en France depuis une bonne quinzaine d'années dans les débats publics et l'université. La diplomatie académique interdisant d'affronter directement les contradictions, des couches s'accumulent comme dans les échelons administratifs des institutions bureaucratiques.
Le problème étant de partir des représentations subjectives et interactives des acteurs, l'intelligence artificielle pourrait permettre l'automatisation des modélisations. Ma méthodologie, qui me rapproche de l'« individualisme méthodologique » de Boudon, peut s'apparenter à une ethnométhodologie qui ne nierait pas la théorie et qui partirait de l'observation empirique des pratiques conceptuelles des acteurs que sont les philosophes. J'ai ajouté dans la deuxième édition que « l'ethnométhodologie pourrait servir de modèle sociologique réel du comportement des acteurs si elle n'était trop dépendante de la phénoménologie allemande » qui a donc eu des conséquences néfastes généralisées. Comme le rappelle Xavier Molénat dans la revue Sciences humaines du 12 mai 2008 : « en 1975, dans un discours resté fameux, le président de l'American Sociological Association, Lewis Coser, avait qualifié le courant ethnométhodologique de secte ». Ce qui a permis aux autres sociologues d'en ignorer la portée. L'ethnométhodologie redonnait pourtant à l'individu et à ses interactions un rôle majeur qui aurait permis de résoudre le biais totalitaire du sociologisme qui dépend lui aussi de l'influence de la philosophie allemande ou du marxisme.
Post-scriptum
Mon examen méticuleux (thèse de doctorat) est fondé sur le recueil des exemples concrets qui montrent que presque tout est faux dans le raisonnement des opposants à l'IA. J'ai appliqué plus tard la même méthode pour le même constat chez Finkielkraut. En fait, mon étude montre qu'on peut écouter ou lire des personnes qui ont l'air sensées, mais dont le raisonnement ne tient pas quand on l'analyse point par point. Ces personnes sont pourtant des professeurs qui continuent à enseigner et à être consultés pour leurs connaissances supposées (ou sont élues à l'Académie française).
J'ai parlé du modèle de la didactique des langues. Le problème me semble résulter d'une forme d'analphabétisme cognitif en production pour les auteurs et en compréhension pour les auditeurs. Le mécanisme correspond au principe de l'écart qu'on observe dans la meilleure maîtrise de sa langue maternelle par rapport à celle d'une langue seconde. Sur le plan conceptuel, on ne maîtrise pas non plus sa langue maternelle autant qu'on le croit parce qu'il ne s'agit pas seulement de syntaxe, mais aussi de contenus qui relèvent en fait des sciences spécifiques.
Sokal et Bricmont ont parlé d'impostures pour le seul usage des concepts de la physique par les auteurs de la French Theory. On leur a reproché (à juste titre) certains excès qui relèvent d'ailleurs du même principe d'absence de maîtrise des sciences humaines concernées. Je parle plutôt de compétences. L'imposture est sociale.
Jacques Bolo
Commander l'ebook sur Google Play Livres
Jacques Bolo, Philosophie contre Intelligence artificielle, éd. Lingua Franca, Paris, 1996, 404 p. (version ebook) 9 €
|