L’ainsi nommée « intelligence artificielle » fascine et donne lieu aux spéculations les plus extravagantes. Entre autres celles-ci :

En copiant les facultés de l’esprit humain et en les portant à une puissance supérieure, elle ouvrirait une nouvelle ère pour l’humanité, celle où les machines feraient de plus en plus le travail à la place des hommes, et bien mieux qu’eux, ce qui, par voie de conséquence, réduirait drastiquement le nombre des emplois et élargirait le champ du loisir. Elles accroîtraient leurs capacités (c’est « l’intelligence augmentée ») au point de leur ouvrir, avec des progrès technologiques inouïs, de nouveaux espaces, par exemple la possibilité de coloniser d’autres planètes. Mieux encore : l’intelligence artificielle pourrait transformer l’homme lui-même en un être surhumain, potentiellement immortel (c’est le « transhumanisme »). Version beaucoup plus inquiétante, popularisée par la science fiction : elle pourrait prendre le pas sur l’homme en permettant la création d’un univers de robots doués de pouvoirs surhumains. Perspective plus proche : elle remplacerait avantageusement les relations humaines, si hasardeuses et si imparfaites, grâce à des robots humanoïdes sensibles, amicaux, attentionnés, voire excellents partenaires sexuels. Et j’en passe.

L’intérêt dans toute cette affaire est bien au contraire de nous montrer ce en quoi les machines « intelligentes » ne peuvent pas et ne seront jamais des quasi-humains, donc de nous renvoyer à des questions d’anthropologie, de morale, et finalement de politique. On va ici simplement poser quelques jalons de cette problématique.

Commençons par le commencement. Les machines intelligentes sont-elles si « intelligentes » que cela ?

 

En quoi les machines intelligentes sont stupides

 

« Intellegerer », c’est, étymologiquement, relier pour discerner, et, à cet égard les machines sont capables de rassembler et de traiter un nombre de données infiniment supérieur à ce qu’un intellect humain est capable de faire, mais elles le font dans un champ donné, toujours très circonscrit. On sait qu’elles peuvent battre le meilleur joueur aux échecs ou au jeu de go –il est vrai au prix d’un matériel impressionnant (des superordinateurs énormes et très voraces en énergie). Elles en appliquent les règles et tirent des inférences de millions de parties jouées par des humains. Le progrès a constitué en ce que les machines intelligentes sont devenues capables d’apprentissage, tout comme l’homme, et même déjà l’animal, quand ils  procèdent par essais et erreurs. Ce deep learning s’est développé en imitant les réseaux de neurones du cerveau. Fort bien. Et cela donne effectivement une puissance de calcul et d’analyse supérieure à la nôtre. Par exemple, en compilant des millions de dossiers médicaux, des milliards de radiographies, des millions de dossiers d’assurance, et en traitant ces données, un superordinateur peut établir, pour telle personne, un diagnostic de cancer plus sûr que celui d’un médecin et suggérer le traitement le plus approprié à son cas. On ne saurait que s’en féliciter.

Mais ce n’est pas tout un cerveau artificiel qui travaille, c’est seulement l’équivalent d’une infime partie du cortex. Il est à noter d’ailleurs qu’un cerveau humain est aussi capable d’une grande puissance, s’il parvient à se déconnecter de toutes les autres stimulations qu’il reçoit, et plus encore si une physiologie particulière l’y dispose (on sait que des autistes peuvent, par exemple, effectuer des opérations arithmétiques complexes à toute vitesse et sans se tromper). Mais, dès que le champ s’élargit, la machine devient « stupide ». Ce qui a fait dire à des spécialistes qu’elle serait incapable de réaliser ce que fait un rat, et peut-être même une fourmi. Elle est également incapable de faire tout ce qu’un petit enfant fait spontanément lorsqu’il apprend à se mouvoir, à saisir des objets, à reconnaître des formes. On est donc très long des capacités d’un cerveau animal, même rudimentaire, et a fortiori de celles d’un cerveau humain, avec ses  presque 100 milliards de  neurones et ses 10.000 milliards de synapses par cm3[1].

Admettons que les machines se perfectionneront. Après tout la voiture autonome peut avoir appris les mouvements de la conduite et reconnaître son environnement, au point, dit-on, qu’elle serait moins accidentogène qu’un conducteur humain, ignorant la fatigue et ne se laissant distraire par rien. Elle fera disparaître, prévoit-on, les métiers de chauffeur de taxi et de chauffeurs livreurs. Elle nous transportera d’un lieu  à un autre sans intervention humaine. Mais, on le voit bien, il s’agit toujours d’une activité limitée et ciblée. Si accident il y a, ou tout autre évènement imprévisible, la machine ne saura quoi faire. Et, surtout, les machines intelligentes ne savent que  copier nos activités dans la mesure même où elles sont machiniques.

 

Les machines intelligentes ne reproduisent qu’une facette du travail humain

 

C’est une vieille histoire. Le premier outil a été un prolongement de la main, ou plus généralement du geste humain. A partir de là on peut raconter l’évolution de la force productive du travail (car les dites « forces productives » ne sont rien d’autre que des facteurs qui accroissent, parfois très indirectement, la productivité du travail). Le machinisme simple, celui qui suit l’activité manuelle complexe de la manufacture, remplace des gestes par des dispositifs que le travailleur se contente de surveiller : c’est le contrôle au premier degré. Puis vient l’automation : le travailleur contrôle non la machine, mais un dispositif qui contrôle la machine (elle devient par exemple une machine à « commande numérique »). Alors oui, on peut parler avec la machine intelligente, d’un nouveau stade, d’une nouvelle époque dans le machinisme, d’une nouvelle révolution technologique, quand c’est la machine qui se contrôle elle-même. C’est ce que fait un robot. Son programme lui dicte les mouvements qu’il a à faire, et ce en fonction d’informations qu’il reçoit de son champ d’opération. On peut voir aujourd’hui, par exemple, un robot imiter parfaitement les gestes d’un opérateur manuel qui travaille à côté de lui, et qu’il pourra donc rapidement remplacer, quand son coût d’amortissement et de fonctionnement sera moins élevé que le salaire versé à ce dernier, compte tenu aussi d’autres avantages (il peut fonctionner jour et nuit, ne se fatigue pas, n’est distrait par rien, ne fait pas grève etc.). Il n’y a pas de doute : tout travail plus ou moins standardisé et répétitif sera un jour effectué par une machine intelligente (c’est déjà vrai pour certains travaux de secrétariat, de réponse téléphonique à des questions standardisées etc.). Il n’y aurait qu’à s’en féliciter, dès lors qu’un opérateur humain serait là pour intervenir quand la machine ne sait plus quoi faire ou répète stupidement ce qu’elle sait faire - ce qui n’est malheureusement pas toujours le cas, comme nous en faisons l’expérience tous les jours.

On discute beaucoup la question de savoir si la généralisation des machines intelligentes ne va pas mettre au chômage des centaines de millions de travailleurs. Même s’il se créera de nouveaux emplois pour produire ces machines, les entretenir et les régler, il est probable qu’il en ira ainsi, et ce serait une formidable occasion de réduire le temps de travail pour tous si ce n’était contraire à la logique du système capitaliste. Mais la question que nous voulons souligner n’est pas là.

L’autre grande facette du travail humain, à côté de l’usage de l’outil (au sens le plus large du terme) est la coopération. Marx l’a particulièrement analysée à peu près en ces termes. Il y a une forme de coopération « objective » qui correspond à une division des tâches, que le machinisme peut parfaitement suppléer (cela devient une « chaîne » d’opérations ou de machines, qui fonctionnent selon un dispositif préétabli - aujourd’hui un programme informatique), mais aussi une coopération « subjective », qui se traduit, par des phénomènes comme l’émulation, l’information mutuelle, l’apprentissage mutuel, et d’autres choses encore comme l’ambiance de travail (pause  café comprise). Le management le sait bien, qui essaie de les exploiter, tout en les réduisant au maximum, de peur des effets d’insubordination qu’ils peuvent produire. Or de ces formes de coopération intersubjective les machines intelligentes sont incapables, car ces formes sont constituées et constitutives de liens interhumains. On verra tout-à-l’heure comment on tente de copier de tels liens, et avec quel succès…

 

Pourquoi les machines intelligentes sont incapables d’inventer

 

On l’a dit cent fois, ces machines ne savent résoudre que les problèmes pour la solution desquels elles sont programmées. Elles ne « pensent pas ». Mais pourquoi donc ? Une raison très simple et très souvent oubliée en est qu’elles ne peuvent se détacher de leur mémoire pour aller voir ailleurs, dans des zones inconnues ou inexplorées. Une grande faculté humaine, ce que Nietzsche avait bien vu, est la faculté d’oubli. Les machines artificielles n’oublient jamais et n’oublient rien. Quand nous oublions, cela ne veut pas dire que nous ne souvenons de rien, mais que nous n’avons conservé que des traces, qu’on pourra éventuellement retrouver et à partir desquelles on pourra reconstituer tout ou partie de ce que nous avons oublié, ceci dit en restant pour le moment au niveau de ce qu’on pourra appeler le préconscient. Or il faut bien oublier pour désencombrer des régions de notre cortex et ainsi aller vers d’autres régions, de nouvelles connexions. C’est ce que les philosophes appelaient l’imagination, et c’est elle qui nous permet d’inventer, souvent à l’improviste, et parfois, comme certains exemples célèbres l’ont montré, dans un état flottant, voire pendant un rêve, quand il ne dissipe par complètement au réveil.

 

Mais pourquoi sommes-nous « bêtes » ?

 

Nous n’avons pas, certes, la puissance calculatrice et déductive des machines artificielles. Celle-ci repose sur les quantités phénoménales de données qu’elles peuvent enregistrer et traiter. Prenons l’exemple de la reconnaissance faciale. Nous avons beau être physionomistes, nous ne ferons jamais aussi bien que les machines, parce que celles-ci ont appris à traiter des milliards d’images recueillies par des  caméras, dont celles produites par les internautes et voyageant sur un réseau (comme  Facebook), et elles le font de façon bien plus sûre que nous. A preuve : on peut aujourd’hui, dans certains pays, payer ses achats en scannant des produits et en utilisant son téléphone mobile pour les faire débiter sur son compte, sans risque d’erreur. De même les machines savent reconnaître un chien d’un chat sans risque de se tromper (on dit alors, un peu abusivement, qu’elles ont le « concept » d’un chat). Mais tout cela est dans la continuité de tout ce que les machines plus simples peuvent nous apporter, et l’histoire des sciences est jalonnée de dispositifs techniques qui ont rendu notre perception du monde plus fine (par exemple lorsque l’on est passé de la vision simple au microscope, puis au microscope électronique), plus rapide et plus sûre. La question que nous voulons soulever est pourquoi, en dépit de tout cela, nous agissons souvent comme des bêtes, c’est-à-dire en deçà de nos capacités.

On est en effet surpris que des esprits formidablement instruits, capables précisément souvent de résoudre des équations très compliquées à l’aide de machines, soient aussi aveugles à des réalités qui tombent sous le sens. On considère en général que c’est l’effet de préjugés relevant notamment de leur position dans la société, et en particulier de leurs intérêts de classe. Sans doute, mais cet effet d’aveuglement reste quelque peu mystérieux.

Alors vient à l’esprit l’idée que c’est là l’effet de notre vieille animalité. Nous avons été dressés par l’évolution à répondre à des situations d’urgence par des réflexes de sauvegarde ou de survie, ce que fait tout animal, mais que nous faisons plus encore parce que nous avons une conscience vive de notre fragilité et de notre mortalité. La machine intelligente, elle, n’a pas conscience qu’elle peut dysfonctionner ou même mourir (tomber définitivement en panne), et, de toute façon, elle s’en fout, car elle n’est pas un être sensible. Elle peut réagir à des signaux d’alerte, mais ne saurait se protéger ni s’auto-réparer.

Cet ancrage dans notre animalité est un point est tellement important que l’on pourrait y trouver l’origine de toutes sortes de biais cognitifs, notamment dans la science économique standard (biais lumineusement analysés par Jacques Généreux dans La déconnomie). Un destin qui n’est pas irrémédiable, mais aux conditions d’une prise de conscience, d’actes de volonté, et de toute une politique éducative.

Il est frappant que, à l’inverse, les hérauts de l’intelligence artificielle ne s’en préoccupent pas, et soient au contraire portés au déni de notre fragilité et de notre mortalité, eux qui voudraient que nous puissions fonctionner comme des machines parfaites, c’est-à-dire potentiellement immortelles. Vieux rêve de l’humanité, et fantasme renouvelé par la croyance dans des vertus miraculeuses de la science.

Mais ce n’est pas tout. Nos savants fous se sont mis à imaginer que nous pouvons fonctionner effectivement comme et aussi bien qu’une machine.

 

L’homo oeconomicus, machine intelligente

 

Il est étonnant de constater la similitude. Une machine intelligente doit traiter un grand nombre de données pour en extraire la solution optimale (ainsi, dans l’un de nos exemples précédents, la reconnaissance d’un visage). Un consommateur rationnel doit de même choisir la liste de produits qui satisferont ses besoins – une donnée pour eux de nature purement individuelle – compte tenu de son budget, et il choisira la solution optimale, celle qui, sous contrainte, maximisera sa satisfaction – un terme vague, emprunté au registre de l’apaisement de la soif ou de la faim. Il fera encore mieux, car il procédera à des « anticipations rationnelles » : il aura en effet calculé ce que sera le marché de demain et ce qu’il aura en moins dans sa bourse en fonction des impôts qu’il aura versés. Même chose pour l’entrepreneur « rationnel » qui prendra des décisions d’investissement en fonction de ses ressources financières, de l’état du marché et de ses évolutions à prévoir.

Tout cela, a-t-on fini par remarquer, ne tient aucun compte de la « complexité humaine ». Comme l’économie « comportementale » aura montré que divers facteurs autres que la préférence individuelle et la taille du porte-monnaie interviennent (des facteurs sociaux, culturels etc.), et qu’elle l’aura vérifié en laboratoire, sinon on ne la croirait pas, on se déclare prêt aujourd’hui à injecter des doses d’autres sciences humaines (la psychologie, la sociologie, la science politique) dans le modèle de base, autrement dit à complexifier un peu les équations pour se rapprocher des comportements effectifs. Mais voilà, on reste dans la perspective machiniste de l’optimisation sous contrainte, en ajoutant des facteurs, sur lesquels on pourrait agir[2].

Or, comme on l’a dit, les machines intelligentes ne fonctionnent que si leur domaine est à la fois strictement limité et doté de complétude. Rien de tel chez l’être humain d’abord parce qu’il n’a pas la puissance de calcul d’une machine (il ne peut comparer en un bref instant des quantités de produits et de prix), ensuite et surtout parce qu’il est mû par ce que Adam Smith appelait des « passions » parfaitement déraisonnables. Par exemple la passion de ce collectionneur qui n’a nullement l’intention d’être un vendeur ou un spéculateur, est totalement incompréhensible, puisque son « besoin » semble illimité. A y réfléchir, on s’aperçoit que la plupart des choix humains sont « irrationnels », n’en déplaise à ceux qui voient le choix d’un conjoint ou l’acte délinquant, voire criminel, comme le résultat d’un calcul coût/avantage. Et le plus fort est que les publicitaires le savent bien : ils ne vont pas seulement vous vanter les qualités d’un produit par rapport aux produits concurrents, ils vont lui associer les fantasmes les plus invraisemblables ou les plus délirants. Le choix rationnel existe certes,  mais il est de faible portée et très subordonné. C’est pourquoi une politique qui ne prendrait pas en considération les passions humaines serait vouée à l’échec ou ne réussirait que par une dictature sur les besoins, dictature dont le ciblage des centres d’intérêt du consommateur par les géants de l’internet à des fins publicitaires est déjà une forme.

Mais que faut-il entendre par « passions » ? Soyons simples. Au moins deux choses : des affects et des pulsions, ce dont toute machine est dénuée.

 

Les machines intelligentes ne peuvent que simuler des affects

 

Les concepteurs de machines ont voulu faire comme si elles avaient des émotions. De très nombreux laboratoires dans le monde s’attachent à créer des robots humanoïdes, avec lesquels on puisse communiquer comme avec des êtres humains. Le marché potentiel est immense, face à toutes les privations ou frustrations de liens interhumains. On crée donc des robots pour tenir compagnie à des personnes âgées et esseulées, pas forcément humanoïdes d’ailleurs (ils peuvent simuler un chien de compagnie), on crée des robots pour que les enfants puissent jouer avec comme de petits amis, on crée pour des adolescents attardés ou timides une « bonne copine » virtuelle ou matérielle (plus rarement un bon copain) afin de remplacer une copine réelle, on fabrique des robots sexuels pour des jeunes hommes (plus rarement des jeunes femmes) en panne de rapports réels (les Japonais sont très souvent vierges jusqu’à la trentaine). Est-il besoin de le dire, ces robots n’éprouvent aucune émotion, car ils n’ont que l’équivalent d’un bout de cortex, mais pas d’hypothalamus, pas de zones de plaisir. Ils ne présentent donc que des signes d’émotion (sourires, mouvements des yeux, quelques expressions langagières, et naturellement pas de signaux de stress ou de peur). Admettons que la reproduction des émotions humaines dans des robots « bio-inspirés » puisse aider les neurosciences à progresser, cela risque quand même de favoriser la robotisation des relations et des services les plus indispensables à l’équilibre psychique et de pousser les individus vers une forme d’autisme social (les enfants, eux, savent très bien faire la différence entre leurs jouets les plus imitatifs et les relations réelles)[3].

La dérive machinique est encore plus grave quand on aborde le domaine des pulsions.

 

Les machines intelligentes n’ont ni inconscient ni désir

 

Le behaviorisme autrefois essayait de reconstruire toute l’activité humaine en termes de stimuli et de réponses, à partir de l’observation de comportements animaux tels que ceux du rat de laboratoire. C’était réducteur et de peu d’intérêt dès qu’on allait vers l’étude des primates, mais, s’agissant de l’homme, cela devenait franchement stupide, car le psychisme humain a une particularité dont on ne va pas ici expliquer la genèse (contentons-nous de dire qu’elle s’origine en particulier dans la prématuration de l’enfant humain), celle de posséder un inconscient profond,  lieu des pulsions du «ça », en langage freudien, et des fantasmes liés à leur refoulement (par exemple le fantasme de toute puissance, dont l’élucidation sert à expliquer bien des choses)[4]. Et de là il résulte que le moteur des comportements humains n’est que secondairement le besoin, qui peut être satisfait, mais fondamentalement le désir, qui ne connaît pas de finitude. Alors apparaît toute l’absurdité de la conception de l’homme rationnel  des économistes, sorte d’avatar du behaviorisme et pilier idéal du calcul capitaliste. Il y aurait plein de leçons politiques à en tirer, mais nous voudrions mettre en évidence un dernier point.

 

Les machines intelligentes ne délibèrent pas et n’ont aucun sens moral

 

C’est pourtant une évidence, le moindre de nos gestes, en dehors des pures routines et des cas d’urgence vitale, appelle une délibération intime : vais-je faire ceci ou cela, maintenant ou plus tard, ou pas du tout ? Et qui dit délibération dit usage de la contradiction[5]. Or, pour qu’il y ait contradiction, il faut un contradicteur, ce contradicteur étant moi-même. Cela signifie, pour faire simple, que nous sommes doubles, et que le double du « sujet » s’est constitué à travers un jeu d’identifications à autrui[6], toute la foule de personnages qui inconsciemment nous ont fait ce que nous sommes. La machine intelligente, elle, n’a pas de double, n’a pas de distance à soi, et c’est pourquoi, tout en étant capable de raisonnement déductif, elle ne réfléchit pas et finalement ne pense pas, ne peut pas et ne pourra jamais penser. C’est pourquoi aussi elle ne peut avoir aucun surmoi, et a fortiori aucun sens moral, même rudimentaire. Ce qui nous fait penser à « l’homme aux écus ».

Faisons un dernier pas. Si nous sommes des êtres fondamentalement contradictoires, il faut alors non pas nier cette réalité native, mais l’assumer et la faire jouer positivement : mettre la raison au service de nos passions, et nos passions au service de notre raison, être un « individu social », comme disait Marx, sans cesser d’être un individu, bien au contraire. Maxime qui vaut au niveau politique : il s’agit de combiner le privé et le collectif pour qu’ils se renforcent l’un l’autre. Maxime qui vaut au niveau environnemental : il faut non pas dominer ou maîtriser la nature, mais construire une relation harmonique avec elle, faute de quoi l’humanité est condamnée à sa disparition.

 

 [1] Les spéculations sur la possibilité de copier fidèlement le cerveau humain, avec ses connexions neuronales,  sont étranges, quand on sait l’incroyable complexité du vivant le plus élémentaire. Une cellule, par exemple, est bien plus qu’un code génétique, elle entretient une multitude de rapports avec son environnement. C’est pourquoi, sans doute, les recherches sur le cancer, qui se sont polarisées sur une anomalie du code génétique, ne donnent que des résultats bien limités (une régression temporaire des marqueurs), faute d’avoir pris en compte les relations de la cellule cancéreuse aves ses nutriments.

[2] Tout vient de l’idée que, si les acteurs rationnels se comportent parfois d’une manière irrationnelle, c’est du fait de « biais de rationalité », venant par exemple de normes sociales générant du conformisme ou des comportements moutonniers (on pourrait même, paraît-il,  identifier, grâce à l’imagerie médicale, les zones cérébrales associées à ces biais), biais qu’il serait dès lors possible de corriger par une bonne information. Il est remarquable que tout l’apport de la sociologie, concernant le poids des structures sociales ou la spécificité des mouvements collectifs, soit réduit à des phénomènes de psychologie cognitive : il s’agit de sauver  à tout prix l’homo oeconomicus, et de conduire l’individu à se comporter selon ses canons. : ne pas se laisser influencer par les autres, bien faire, par exemple, son « marché politique » en fonction de ses seuls intérêts.

[3] La volonté d’imiter les comportements humains s’observe aussi dans le domaine de l’art. Tout récemment un tableau a été réalisé par une machine artificielle – et il s’est vendu aux enchères fort cher. Un tel tableau n’a pourtant rien de ce qui fait une œuvre d’art. Il peut reproduire des procédés de composition formelle, mais ignore ce qui fait émotion, empathie, pour tel ou tel amateur dans un tableau : la subjectivité radicale qui s’y exprime. Autre exemple : la prise de son d’un concert est aujourd’hui puissamment aidée par ordinateur pour varier les intensités, équilibrer les masses etc. Mais il lui fera toujours défaut le « sens artistique » que tel chef d’orchestre, dirigeant par exemple le Boléro de Ravel, lui imprime, et qui fait qu’aucun concert ne ressemblera à un autre.

[4] Les prophètes du cyberborg montrent à quel point ils ne comprennent rien au psychisme humain, quand ils considèrent l’homme comme un être débile, parce qu’il est inachevé à la naissance, impotent, là où l’animal sait d’instinct se mettre debout et se mouvoir. Ils oublient d’abord que ce dernier a tout à apprendre de ses géniteurs et de ses congénères, comme les éthologues l’ont bien montré, mais surtout ils ne voient pas que la prématuration de l’enfant humain, la discordance sensori-motrice qui le caractérise, sont un formidable atout : ils permettent la constitution d’un inconscient profond, qui est un immense réservoir d’affects et de sensations, et qui est heureusement « oublié », et une symbiose avec l’autre, qui fait de lui une véritable éponge à relations. Par la suite la construction de la personnalité se fait à travers de multiples identifications, qui lui permettent d’intérioriser (pour le meilleur, mais aussi parfois pour le pire) tout un univers d’autres humains.

[5] Un animal est capable de décisions difficiles, dans un environnement complexe, mais il ne discute par avec lui-même. A fortiori un ordinateur ignore-t-il la réflexivité, car il n’est pas à fois lui-même et l’autre.

[6] Cela passe par le « stade du miroir », que seuls les primates sont, semble-t-il, capables de franchir.