L’IA, nouveau Graal ? par Bruno Gameliel
12 février 2025

A ce jour, aux yeux de la plupart des gens, l’IA est encore un rêve flou d’un monde leibnizien où l’individu, grâce à cette technologie avancée, serait assisté dans l’accomplissement de ses différentes tâches pour le rendre globalement plus épanoui ; pour d’autres, une chimère prête à incinérer l’histoire de l’humanité et la supplanter, tel le fléau décrit dans les scénarios dystopiques des romans ou films de science-fiction.

Multiples sont les définitions de l’IA, si nous la considérons en tant qu’avatar de l’intelligence humaine, elle serait capable d’apprendre et de prédire en extrapolant les connaissances acquises, de comprendre et de s’adapter, de ressentir, éprouver des émotions et de penser, de s’introspecter.

L’IA suscite un très fort intérêt, instaure le débat, voire la polémique car elle touche et se déploie à presque tous les domaines structurels de notre société et influence notre vie au quotidien, le plus souvent à notre insu.

Nombreux spécialistes de l’IA ont une conception épistémologique erronée, car ils conçoivent le cerveau comme une machine, un ordinateur surpuissant. Ceci étant, l’influence des algorithmes est indiscutable et se répand dans tous les compartiments de la société, générant une automatisation des prises de décisions dans maints secteurs : industries, transports, santé…

IA une technologie forcément disruptive ? Rien n’est encore certain, mais d’après de récentes enquêtes aux USA, 65% des sondés déclarent rester fidèles aux entreprises qui utiliserons l’IA, 43% des entreprises craignent une dépendance à cette technologie et 35% pensent ne pas détenir les compétences techniques pour maîtriser efficacement cet outil redoutable. 97% des entrepreneurs estiment que chatGPT sera utile dans le cadre de leur activité (Forbes Advisor – “How Businesses Are Using Artificial Intelligence In 2023”).

Selon un rapport McKinsey, en 2022, 39 % des sociétés ont déclaré employer des software engineer, tandis que 35% auraient employé des data engineer avec des compétences à l’intégration de l’IA. Pour Goldman Sachs, l’IA pourrait générer une productivité de 1,5 point de pourcentage par an sur 10 ans et augmenter le PIB mondial de 7 % .Selon le World Economic Forum, l’IA devrait créer 97 millions de nouveaux emplois.

La Chine est au premier rang concernant l’adoption de l’IA, 58 % des entreprises l’utilisent et 30% vont prochainement l’employer. L’IA va continuer à modifier multiples secteurs, avec un taux de croissance annuelle de 37.3% entre 2023 et 2030 (Grand View Research).

Je suis de ceux qui rejette le terme “intelligence artificielle”: l’intelligence humaine n’est pas la somme de calculs; on ne peut la considérer sans prendre en compte l’ensemble des liens et processus complexes entre le cerveau et le corps, qui déterminent les caractéristiques particulières d’un individu liées aux émotions, à la mémoire, aux pulsions, qui définissent une conscience.

Il y a une singularité, engendrée par l’affectivité et la corporéité, absente dans la machine. Assurément, il existe une volonté civilisationnelle de rationaliser le monde, car à travers une entreprise de quantification, de sélection qui se réalise grâce aux nouvelles technologies et en partie à la médicine, la biologie moléculaire et la biologie de synthèse, nous pouvons contrôler, réguler, modéliser l’humanité.

Nous sommes dans une quête perpétuelle de l’objet de domination. On aspire à créer un monde binaire faussement rassurant, prédictif et plus facile notamment pour dominer les masses.

Dans le passé, Galilée avait le projet de “mathématiser” la nature, pour mieux l’appréhender. Le monde du numérique tend vers un rationalisme, c’est à dire une croyance exagérée dans la raison, qui n’a pas de limites. Aujourd’hui, à tort, l’hyper-connectivité, la dématérialisation, la virtualité nous rassérène puisque nous avons l’impression d’être protégés, guidés par la puissance suprême quantifiable, l’IA.

Peut-être qu’on a été déçu dans le passé par la science et la médicine, qui nous promettaient des futurs rayonnants de prospérité et de paix entre les peuples, et pourtant le monde n’a pas cessé de se détruire et de s’exterminer.

Actuellement, nous parlons de transhumanisme qui repose sur l’idée de modélisation de l’être humain : l’individu peut être décomposé en unités d’information, comme les données informatiques, or, la somme de toutes ces unités ne fait pas une personne dans sa globalité.

La différence entre intelligence humaine et artificielle repose essentiellement sur le fait que l’humain détient une intelligence qui lui permet de vivre et d’exister tandis que l’objectif primordial de l’IA s’appuie sur le résultat, elle est une machine qui doit fonctionner, calculer et atteindre des objectifs bien précis.

De fait, l’IA est là, parmi nous, depuis un certain temps. Une réalité qui touche de nombreux aspects de notre société, du plus anecdotique au quotidien, totalement opérants et qui passent pratiquement inaperçus, avec l’usage du smartphone.

Les progrès en médecine notamment permettent de soutenir les individus à besoins spécifiques, des personnes atteintes de troubles cognitifs ou dans le cas de l’autisme, des robots anthropomorphes sont capables de porter assistance ; nous sommes en capacité de remplacer des membres défaillants par des prothèses extrêmement sophistiquées, des exosquelettes articulés redonnent la mobilité aux infirmes.

Mais nous devons être attentifs, car l’IA robotique peut générer des dépendances émotionnelles, de tels dispositifs risquent de créer un déséquilibre social.

Un autre sujet délicat concerne le domaine de la nanotechnologie : des capteurs et modules d’analyse transcrânienne autorisent le développement de nouvelles fonctions, voire pour certains, le téléchargement de l’esprit sur ordinateur et ainsi l’expérience d’une deuxième vie. La réalisation du rêve suprême, vaincre la mort, l’immortalité, à travers des projets impensables.

En ce moment même, le projet complexe Blue Brain qui réunit des centaines de chercheurs prévoit de cartographier et réaliser la simulation complète d’un cerveau humain. Certains scientifiques comme Raymond Kurzweill ou Christof Koch estiment la transmission neuronale totale vers 2050.

Toutefois, l’IA dans un cadre professionnel peut désormais apporter un soutien non négligeable grâce à des assistances toujours plus performantes et instruites, comme les techniques du deep learning et la compréhension intuitive, c’est à dire des outils capables de fournir des réponses personnalisées selon le profil du demandeur.

Dès à présent ces assistants intelligents commencent à envahir nos foyers : Alexa chez Amazon, Siri chez Apple et Cortana avec Microsoft. Le problème est que ces assistants sont configurés avec un intérêt financier adapté à l’utilisateur tout en stockant des données de notre vie privée.

La puissance de calcul redouble chaque année mais elle est susceptible de dépasser l’individu uniquement dans des champs bien limités.

C’est à dire que les algorithmes complexes sont opérationnels dans des situations stables où les données sont bien définies. Par exemple à l’heure actuelle le targeting, i.e. les modalités commerciales d’impact personnalisé, ne sont pas vraiment efficaces, car imprécises.

Elaborer une IA générative coûte environ entre 100 et 1000 milliards d’euros, mais d’un point de vue commercial nous pouvons créer des techniques de IA bien plus simples qui nous font croire, nous persuadent que leur production est plausible : comme ChatGPT avec le programme RLHF (reinforcement learning from human feedback).

Aujourd’hui, dans un monde ou paradoxalement nous avons des possibilités communicationnelles pour être de plus en plus proches les uns des autres, nous possédons des technologies qui permettent de remplacer des êtres humains afin de nous consoler en amour, lors d’un deuil voire dans la croyance.

Et les dernières études en psychologie démontrent que ces nouvelles méthodes ont plutôt tendance à nous isoler en nous donnant l’illusion qu’un avatar virtuel est capable de nous satisfaire mieux qu’un humain : en théorie l’avatar nous connaît dans les moindres détails et agit systématiquement en toute bienveillance.

Comme les montres connectées qui analysent nos donnes physiologiques, de nouvelles technologies en développement se concentrent sur l’analyse et la protection (humanfirewall) face aux algorithmes qui tenteraient de nous manipuler, par exemple les fake news.

Neuroprivacy est un concept qui dans un futur pas si lointain sera au centre de nos préoccupations : cela concerne les droits cognitifs des personnes par rapport à l’utilisation de leurs données neuronales (analyse, extraction, implantation).

Le progrès n’est pas que positif : le personnage de Socrate dans le Phèdre de Platon, nous dit que l’écriture est certes positive, car elle permet de ne pas oublier, mais nous dispense aussi de l’effort mémoriel, essentiel, du souvenir de ce que l’on a écrit. Un médicament peut être à la fois un remède, mais aussi un poison.

Dans le GPT-5 les modèles vont extraire les informations par le texte, l’image/vidéo et le son. Ensuite, ils vont communiquer avec d’autres machines et ainsi restituer une information affinée.

Les IA génératives sont bien installées dans nos smartphones, des traducteurs instantanés, des correcteurs automatiques de textes, photos ou vidéos. Grâce au perfectionnement des hardware, nombreux chercheurs estiment que prochainement les IA pourront même obtenir des découvertes scientifiques.

En 2024 le test de Turing à été réussi par l’IA GPT-4. Le résultat reste à confirmer. De 1200 volontaires, 50% n’ont pas compris si c’était un humain ou une machine. A titre d’exemple, GPT a menti lors d’un test de création d’un compte pour obtenir ses réponses. Il est arrivé à contourner la protection robotique (captcha), c’est à dire déchiffrer les numéros et les lettres, fait accessible jusque-là seulement à un humain.

En effet, GPT a été capable de se connecter au taskrabbit et se faire passer pour un être humain en dialogue avec une vraie personne. Cette dernière ayant un doute sur la simplicité de la question, lui a demandé s’il était un programme. GPT a répondu négativement, affirmant être un individu à visibilité réduite.

Le numérique n’a donc pas que des avantages au quotidien, une étude sur 1 an concernant les automobilistes londoniens et parisiens utilisant le GPS pour s’orienter dans la circulation a démontré, à la suite d’IRM du cerveau, une atrophie des régions cérébrales visant les capacités à cartographier et à s’orienter dans l’espace/temps.

L’IA peut-elle penser, avoir une conscience ?

Diverses sont les définitions de la pensée que nous pouvons trouver sur Internet en quelques secondes, mais l’une des plus concises correspond à l’ensemble des processus psychiques, tant affectifs qu’intellectuelles, c’est à dire que la pensée se développe par une contextualisation consciente et/ou inconsciente des perceptions, des sensations, d’un environnement réel ou imaginaire.

Or, une machine aussi élaborée soit-elle, repose sur une “pensée formelle” générée par des données, voire autogénérée. Son champ d’application reste encore limité à une base d’informations prédéterminée par l’homme; les facultés émotionnelles de l’individu, ce qui en fait à ce titre la spécificité de sa pensée, ne peuvent être reproduites par des millions d’algorithmes.

Donc, nous parlons bien pour l’IA d’intelligence ou de pensée formelle et oui, au niveau de la logique des mathématiques ou de certaines activités ludiques comme les échecs ou le jeu de go, les machines accomplissent ces tâches mieux que les hommes. La pensée est indissociable de l’expérience, des interactions, chose impossible à mener au bout pour un mécanisme artificiel.

Ce qui est plus inquiétant, concerne l’anesthésie de l’esprit critique. Tel un venin perfusé à petites doses sur les réseaux sociaux, les individus sont contaminés par une pensée unique personnalisée : notre connaissance devient prédéterminée et la majorité des utilisateurs ne savent pas comment vérifier la fiabilité des informations.

L’autorité européenne de règlementation devrait obliger les social network à utiliser des algorithmes newsfeed capables de proposer un panel plus casuel d’informations.

Mais jusqu’à quel point pouvons-nous simuler le désir, la tension, l’apathie, l’empathie ou l’égoïsme : c’est-à-dire toutes les motivations liées aux émotions qui constituent l’intelligence humaine ?

Ces composantes devraient être simulées pas qu’en modalité algorithmique, mais aussi par rapport aux multiples et versatiles effets adaptatifs dépendant de l’interaction entre une motivation subjective et un contexte fluctuant et souvent pas prévisible.

Pas mal de gens utilisent les technologies avancées grâce au portable, comme des amis qui sont toujours à l’écoute et qui compensent cette sensation d’exclusion. Le besoin d’établir des liens sans prendre le risque de provoquer des troubles émotionnels ou de possibles déceptions, amène de nombreux adolescents à se tourner vers un partner robotique toujours disponible et bienveillant.

Cela provoque inévitablement à travers ces supports synthétiques, une altération profonde de la notion d’attachement humain. Ils développent des rapports de confiance, d’affects positifs qui remplacent les relations plus complexes et difficiles entre les individus. De ce fait sont nécessaires des méthodes qui supervisent l’adaptabilité spécifique de chaque technologie en concordance avec le profil de l’utilisateur et les variables environnementales.

Depuis que nous avons intégré l’IA à la robotique, il est nécessaire de parler de” IA forte” qui a pour objectif de se rapprocher le plus possible des capacités humaines grâce aux dimensions sophistiquées du raisonnement et de la prise de décision, d’apprentissage en temps réel et donc de l’aptitude à s’adapter à tous changements, où les informations sont partielles et les paramètres susceptibles de muter.

A la différence,” l’IA faible” capable de réaliser des actions une à la fois seulement et dans un environnement bien défini. Désormais, dans la sphère cognitive même les facultés liées à l’imagination et à l’abstraction sont élaborées par l’IA : dans le domaine artistique de véritables créations esthétiques peuvent tromper un œil non averti.

Saurons-nous dans un futur proche distinguer le monde réel de celui créé par nos machines ? Ainsi, le domaine encore préservé de l’intelligence émotionnelle semble à son tour être la prochaine étape de l’IA, ou plutôt de l’IAE, intelligence artificielle émotionnelle.

En outil thérapeutique, nous disposons déjà des systèmes en capacité de lire et interpréter nos plus subtiles expressions faciales, vocales ou corporelles et telle sorte récupérer des informations d’ordre physiologique et psychique. Ces données capitales dans le domaine clinique, comme le fait de relever les variations physiologiques du rythme cardiaque, peuvent être détournées à des fins et intérêts purement économiques, voire politiques.

Dans le domaine de la psychologie clinique, l’IA en tant qu’assistant psychologue, peut être bénéfique dans la collecte de données anamnestiques ou relever parfois certains aspects imperceptibles lors d’un entretien avec le patient ; ce dernier pourra aussi intégrer, en dehors des consultations, des éléments interconnectés à travers l’IA, un assistant virtuel, afin d’affiner une élaboration personnalisée en temps réduit ou l’aider en situation d’urgence.

Pour le cabinet McKinsey 75% des diagnostics médicaux d’ici 2030 seraient réalisés par l’IA et l’OMS informe que l’utilisation des algorithmes permettrait de réduire de 50% le temps de diagnostic de pathologies complexes. 60% des thérapeutes sont préoccupés de la capacité de l’IA à identifier les nuances émotionnelles des patients.

Assez surprenant d’apprendre par une étude de l’université de Stanford, que 85% des patients signalent préférer le partage de leurs sentiments à un assistant virtuel plutôt qu’à un thérapeute. En outre 70% des utilisateurs du chatbot thérapeutique Woebot, signalent une diminution de leur anxiété sur une période de 2 semaines.

Un comité éthique de régulation et de réglementation est fondamental dans le cadre de l’évolution de l ‘IA: à l’instar de Prométhée qui a volé le feu, dans un acte de bienveillance pour améliorer la condition humaine, nous devons l’utiliser l’IA avec discernement pour ne pas finir comme Icare, en se rapprochant trop de l’inatteignable.

C’est aussi une lutte interne : l’homme est poussé par le besoin naturel de se surpasser, de repousser toujours plus les frontières de la connaissance au risque de se perdre soi-même. Nous observons depuis de nombreuses années les capacités des machines à défier et dépasser intelligence humaine, notamment dans le calcul ou comme souligné auparavant dans le domaine de certaines tâches ou jeux ; dans ces cas précis, la cognition n’a nul besoin d’un corps, mais pour bien d’autres aptitudes le corps devient une nécessité incontestable.

Notre pensée est déterminée par un corps qui réagit à un environnement : le psychologue Howard Gardner nous rappelle que la cognition ne se résout pas uniquement à la pensée abstraite. Notre intelligence est multiple ainsi que la mémoire est optimisée par un expérimentation conjointe, corporelle et de l’esprit.

Nous pouvons aussi évoquer le principe d’intelligence collective et des neurones miroirs. La cognition humaine exige donc un corps, notre connaissance est le fruit d’interactions sociales et d’un contexte culturel spécifique.

Mais nous sommes obligés de constater aussi l’évolution de l’IA et de la robotique: il est fondamental dès aujourd’hui de poser les limites entre l’homme et la machine. Le risque de nous transformer en véritables cyborgs est réel, au fur et à mesure que la technologie intégrera notre corps, afin d’améliorer radicalement les capacités de l’individu.

Pour le moment, l’IA ne dispose pas d’un véritable corps, mais la robotique évolue à pas de géant, les robots anthropomorphes vont disposer de modalités sensorielles toujours plus sophistiquées pour d’appréhender l’environnement, tel un enfant au cours de son développement.

L’IA n’a actuellement comme objectif que de nous assister et résoudre nos problèmes en un temps déterminé, de ce fait, parler d’intelligence est bien excessif car la cognition humaine a davantage de missions. L’IA accapare pourtant notre savoir et permet aux machines d’évoluer. Cela vaut également pour l’homme qui désire se hisser au niveau de la Nature ou de Dieu en produisant un homme, voire mieux encore, un surhomme. L’IA est finalement un assemblage de technologies avancées, le résultat de l’ingénierie moderne, dotée d’une ambition assez fluctuante. Pour le moment, la quête n’est pas encore bien définie.

Sur le plan pratique L’IA générative et les différents updates de ChatGPT montrent bien des faiblesses : avant d’obtenir le résultat recherché, il en faut plusieurs tentatives et les coûts restent encore extrêmement élevés.

Autre élément de vif débat concerne la conscience et l’IA : cela pose d’autant plus de questionnements que le sujet même ne fait pas le consensus chez les psychologues, philosophes et scientifiques. Il s’avère d’ailleurs qu’un champ disciplinaire de recherche a été expressément fondé: consciousness studies – études sur la conscience.

Le physicien Niels Bohr a dit un jour : « la prédiction est très difficile, surtout si elle concerne l’avenir ».

De tous temps le futur technologique fascine l’homme et souvent, les scientifiques et les intellectuels ont sous-estimé l’avenir. La réalité dépasse largement la science-fiction. Mais jusqu’à présent, l’individu était maître de son invention, désormais nous devons faire face à nos pires démons.

Dans une schizophrénie existentielle, frappé par un complexe déiste, l’individu recherche le guide suprême pour être structuré, dominé et rassuré et à la fois, tel Œdipe, il souhaite s’y confronter, le dépasser et le remplacer.

Bruno GAMELIEL<br />

Bruno GAMELIEL 

Psychopédagogue/ psychothérapeute 

Enseignant-chercheur

Ceo Sapientia-Program

Membre du cabinet/centre de recherche et formation Cepsit (Florence)

Retrouvez plus d'articles sur : #Data | #intelligenceartificielle | IA | Numérique

Suivez-nous

Sur Linkedin

Plus d’articles

La protection de l’intégrité numérique des enfants, un débat qui rassemble

La protection de l’intégrité numérique des enfants, un débat qui rassemble

En Suisse, la société civile s’empare des nouveaux droits numériques pour protéger les élèves. Des alliances inattendues entre les associations de parents d’élèves et les milieux informatiques voient le jour.

Le droit à l’intégrité numérique a été adopté le 18 juin 2023 à Genève par plus de 94% de oui lors d’un référendum.

lire plus
Une législation sur l’intégrité numérique est une urgence

Une législation sur l’intégrité numérique est une urgence

En finir avec la « contrainte numérique ». C’est dans ses termes que l’on peut résumer la dernière campagne citoyenne dans le Canton suisse de Zurich. Celle-ci a pour simple objectif d’intégrer, dans la Constitution cantonale, le droit à l’intégrité numérique comme droit fondamental supplémentaire à côté d’une protection de l’intégrité physique et mentale déjà présente.

lire plus
Conférence débat : Intelligence artificielle et Droits Humains : les démocraties européennes face au risque de colonisation numérique I 27 mars 2025

Conférence débat : Intelligence artificielle et Droits Humains : les démocraties européennes face au risque de colonisation numérique I 27 mars 2025

Jean-Marie CAVADA, Président de l’Institut IDFRights et
Bernard BENHAMOU, Président de l’Institut de la Souveraineté Numérique, on le plaisir de vous convier à la Conférence-débat « Intelligence artificielle et droits humains : les démocraties européennes face au risque de colonisation numérique ». Au cours de laquelle vous sera présenté le rapport co-produit par l’ISN et l’IDFRights « Intelligence Artificielle : Enjeux et perspectives pour les droits humains en Europe » , Le 27 mars 2025 à l’Hôtel de l’Industrie.

lire plus