Pourquoi ne trouvons-nous plus d’encre rouge

2 mai 2022

Accueil I #Contributions I Pourquoi ne trouvons-nous plus d’encre rouge

« Anecdote classique, qui reparaît à chaque guerre :
Un ouvrier français qui part travailler en Allemagne promet d’écrire son impression : Si elle est bonne, il emploiera de l’encre noire, si elle est mauvaise de l’encre rouge.
On reçoit une lettre écrite à l’encre noire où il déclare :
« Nous sommes très bien. Le travail n’est pas dur. La paye est bonne. Les gens sont charmants. Le ravitaillement est abondant. Il n’y a qu’une chose impossible à trouver : c’est de l’encre rouge ».
(“Mon Journal Pendant l’Occupation”, Jean Galthier-Boissière, 1944)

* * *

Comme mentionné dans notre série d’articles sur les droits fondamentaux du numérique, A chaque seconde, des milliards de « fragments numériques » – anodins, anonymes et incontrôlables – sont collectés et stockés dans des data centers :
Par les gouvernements « à des fins de sécurité, de contrôle, de gestion des ressources, d’optimisation des dépenses, recherche en santé, transports etc… »
Par les entreprises privées « en vue d’accroître leur efficacité commerciale et […] leurs profits »,
Par les chercheurs « à des fins d’acquisition et d’amélioration des connaissances »,
Et
Par les individus qui « partagent bénévolement leurs données sur les réseaux sociaux ».

Ce « partage », cette « collecte », ce « stockage », ce « traitement » de données sont L’ENJEU du siècle à venir.

Quel est l’enjeu ? L’interconnexion de l’Intelligence Artificielle (à relativement court terme), du Métavers (à relativement moyen terme) et des ordinateurs quantiques (à relativement long terme).

Qu’y-at-il en jeu ? nos vies et notre faculté à pouvoir disposer de l’encre rouge nécessaire notre liberté sans que l’on nous impose l’encre noire d’une minorité.

Le court terme (relatif)
Si les avancées de l’Intelligence Artificielle (et ses différents domaines d’exploration actuels) connaissent des développements sans précédent dans l’histoire des évolutions technologiques, il est patent que son implication sur nos données et vies personnelles est pareillement sans commune mesure avec ce que l’esprit humain avait créé jusqu’alors.

Ne pas comprendre le fonctionnement de la machine à vapeur a très peu d’importance.
Votre voyage n’en sera pas fondamentalement modifié.

Mais ne pas comprendre pourquoi un algorithme décide de refuser à un lycéen une université est beaucoup plus problématique.
Sa vie, en tant qu’être humain, citoyen et acteur de la société pourra en être bouleversée.
Comme écrit le 28 mars dernier dans Le Monde, un « enjeu éthique de l’IA se profile : celui de l’explicabilité des systèmes algorithmiques. La capacité des organisations à constamment expliquer les systèmes qu’elles conçoivent et utilisent pourrait vite devenir un enjeu politique majeur. ». C’est bien en cela que l’IA, si l’on n’y prend garde, nous retirera définitivement notre encre rouge, notre pouvoir.

Evitons donc le discours angélique ou diabolique et revenons au « raisonnable » car il n’est pas discutable que certains résultats de « deep learning » sont souvent totalement inexplicables.

Et c’est bien là tout le paradigme imparfait de l’IA. Au contraire de la vulgate, l’IA n’est pas là pour trouver une solution exacte mais, pour proposer la solution la meilleure dans un temps et un espace raisonnable (c’est une complexité de la moyenne). La méthode employée par les chercheurs, dite « méthode heuristique », est bien le calcul d’une solution raisonnablement correcte, qui n’est pas d’ailleurs garantie ou parfaite et le peut-elle ou le veut-elle ?

En mai 1997, au cours du deuxième match Kasparov / Deep Blue, dès le 36ème coup, l’avantage pris par la machine est quasi-insurmontable. Mais, au 44ème coup, la machine joue comme un débutant offrant une porte de sortie inespérée au champion du monde… qui n’y croit pas et… abandonne au 45ème…. Sur le moment il est impossible de vérifier que le coup proposé par « Deep Blue » est gagnant ou non (cela nécessiterait des millions d’années de calcul). On doit juste espérer que c’est un bon choix, voire, un très bon choix suffisant pour gagner la partie.

Est-il alors rationnel de confier nos vies à un véhicule autonome ? Qui en aura le contrôle et donc, in fine, qui en sera le responsable ? Qui pourra expliquer pourquoi le véhicule a choisi d’écraser la vieille dame plutôt que l’enfant ?

La machine propose/impose mais, je ne dispose pas de la maîtrise de l’algorithme. C’est bien en cela que l’IA, si l’on n’y prend garde, nous retirera définitivement notre encre rouge, notre pouvoir de liberté.

Une science (l’explicabilité), ici, reste à écrire sans noir, sans rouge mais en transparence.

Le moyen terme (relatif)
La protection de nos données subjectives va être très rapidement bouleversée par l’irruption du Métavers (ou Web 4.0).

Brefs rappels schématiques :

– Le web 1.0 (1990) se contente de pages statiques pour diffuser de l’information. L’utilisateur consomme sans interaction.
– Le web 2.0 (2000) englobe une multitude de possibilités interactives (blogs, réseaux sociaux…). L’utilisateur devient acteur.
– Le web 3.0 (2010) est dit « sémantique » : il rassemble et organise la masse d’informations disponibles (Big Data) en fonction du besoin et des contextes de chaque utilisateur, la machine répondant en fonction de notre localisation, nos goûts, nos usages….
– Le web 4.0 (aujourd’hui) ou l’Internet des objets et de la réalité augmentée et virtuelle.

Ce n’est que le début d’un monde dans lequel le numérique et le physique fusionnent.

Le bien trop méconnu « Laboratoire d’innovations numériques » (https://linc.cnil.fr/) de la CNIL a publié un très intéressant rapport au début de cette année. L’incipit est explicite : « Les projets de métavers se précisent, et les projets de leurs promoteurs se révèlent, depuis le marketing émotionnel, la biométrie, jusqu’au clonage humain ».

Citons la suite in extenso : « La mise en lumière en janvier 2022 par le Financial Times de brevets déposés par Meta (Ex-Facebook) pour son métavers donne déjà corps à ce qui était de l’ordre de l’extrapolation dans le futur des pratiques déjà à l’œuvre dans le web. Ces brevets valident les hypothèses relatives à l’usage de nouveaux capteurs, notamment d’émotion, mais ils révèlent aussi la volonté de la firme de Mark Zuckerberg d’avoir recours aux données biométriques et comportementales pour proposer des publicités – toujours plus – ciblées. L’expression du visage, les mouvements de cils, les mouvements du regard (eye tracking), etc., pourraient être utilisés pour mesurer l’impact des publicités. Les contenus présentés aux individus et l’apparence des objets, des publicités, pourraient eux aussi s’adapter en fonction de ces données, et des réactions des utilisateurs. »

Nous ne sommes plus là dans un jeu vidéo même le plus immersif. Le (les ?) métavers avec leurs cohortes d’utopies, de dérives liées au capitalisme de surveillance, de clones et d’avatars (et leur revente) écrivent clairement l’histoire à l’encre noire…. Sans rouge. Notre identité même va probablement connaître l’un des plus grands bouleversements de l’humanité.

« On dit que tout au long de sa vie l’homme dispose de trois noms : celui donné par ses parents (identité reçue ou subie), celui qui lui sera attribué par ses amis et celui qu’il acquerra par lui-même (identité choisie, construite ou achetée), ce dernier étant jugé supérieur aux deux autres : c’est ce qu’on appelle « se faire un nom » (“Identité Numérique”, Me. Olivier Iteanu, 2008). Nous entrons avec le métavers dans une société où nous créerons une (des) identités virtuelles, possiblement (librement ou non, volontairement ou non) mensongères. Identité(s) protégée(s) ou non, monnayables ou transférables (NFT), il nous faudra éduquer et nous former à cette multiplicité virtuelle infinie qui risque de prendre le pas sur notre monde réellement, lui, par définition « fini ».

Sans noir, sans rouge, il faut ici affirmer la prééminence du réel sur le virtuel, ce dernier ne pouvant ni se substituer ni engendrer plus de droits ou d’obligations que ceux auxquels nous sommes déjà assujettis.

Le Long terme (relatif)
« Télécharger un cerveau humain signifie scanner tous les détails essentiels et les installer ensuite sur un système de calcul suffisamment puissant. Ce processus permettrait de capturer l’intégralité de la personnalité d’une personne, sa mémoire, ses talents, son histoire » (« Humanité 2.0 : la bible du changement », Raymond Kurzweil 2007).

De pair avec ce qui a été précédemment dit : l’avènement des calculateurs quantiques (domaine dans lequel la Chine semble avoir pris une avance considérable, bien plus encore qu’elle ne l’a fait avec la 5G). Si nos ordinateurs actuels, faits de « simples » transistors, travaillent sur des données binaires (0 ou 1 / on ou off / up ou down), les calculateurs quantiques travaillent sur des données (qubits) qui peuvent avoir simultanément plusieurs valeurs, multipliant de façon exponentielle les capacités de calcul et donc … de traitement de l’information.

Ainsi, ces ordinateurs quantiques sont-ils des armes de « destruction massive » des codes et autres systèmes cryptographiques. Si ces derniers sont réputés invincibles aujourd’hui, les mesures de chiffrement des banques en ligne, des signatures numériques et de tout ce qui doit être transmis en toute sécurité sur Internet ou stocké dans les entreprises risque de ne plus avoir aucune valeur du jour au lendemain. En 1994, Peter Shor a démontré comment, avec un ordinateur quantique, aucune clé ne pourra résister…

Vos esprits cartésiens ne manqueront pas d’objecter que les ordinateurs quantiques sont encore simplement « à l’étude ». Il n’en existerait aujourd’hui qu’une trentaine dans le monde…. Mais, vous observerez aussi que l’ordinateur chinois Jizhang 2 n’a besoin que d’une milliseconde pour compléter une tâche nécessitant 30 billions d’années pour l’ordinateur classique le plus rapide du monde…. Et ce grâce à l’exploitation des photons de lumière… Ce « super ordinateur » serait 10 millions de fois plus rapide que le Sycamore de Google, considéré, il y a encore peu de temps (6 mois), comme l’ordinateur quantique le plus puissant au monde.

Selon la RAND Corporation, association américaine à but non lucratif créée en 1945 et dont plusieurs Prix Nobel sont membres, « l’avènement des ordinateurs quantiques présente un risque rétroactif : les informations qui sont transmises aujourd’hui de manière sécurisée peuvent être récupérées par des personnes malveillantes dès aujourd’hui afin d’être déchiffrées et révélées plus tard, une fois que les machines quantiques seront disponibles à plus grande échelle (…) Si la mise en œuvre de nouvelles mesures de sécurité n’a pas lieu au moment où les ordinateurs quantiques capables de fonctionner sont développés, il peut devenir impossible de garantir une authentification sécurisée et la confidentialité des communications » (le rapport ici).

Imaginez tous vos courriers envoyés sans enveloppe….

Imaginez la quantité de données qui pourra être traitée par les gouvernements, les entreprises, les chercheurs et ces super calculateurs : vous pourrez alors envisager les avancées en matière de transport, de marketing, de finance, de santé, d’analyses prédictives… et les risques y afférents pour nos données, pour nos vies.

En démultipliant le potentiel de calcul, l’ordinateur quantique va réduire le temps d’apprentissage et les délais de traitement mais aussi améliorer le raisonnement et la compréhension des Intelligences artificielles….

La boucle est bouclée.

* * *

Intelligence Artificielle, métavers, ordinateurs quantiques, le cocktail est détonnant. Il nous est cependant aujourd’hui servi sans que nous l’ayons choisi. Il ne faut pas qu’il soit subi.

L’Intelligence Artificielle doit être explicable et interprétable, le virtuel ne doit pas se substituer au réel, la qualité des données traitées et leur sécurité doit être garantie : nous avons le droit de savoir en toute transparence, nous avons des devoirs sur notre conduite virtuelle, notre sécurité (et celles de données) doit être garantie au plus haut niveau.

Nous résoudrons, certes, des problèmes, aujourd’hui encore inenvisageables. Mais les risques sont à la hauteur de la Tour de Babel informatique que nous créons. La tentation est grande d’aller encore plus haut, plus vite, plus fort. Pourra-t-on la contrôler ? Sera-t-elle contrôlable?

L’encre noire est déjà entre les mains des machines.
Il nous faut rapidement retrouver un stock d’encre rouge….

Benjamin MARTIN-TARDIVAT
Avocat à la Cour / Attorney-at-Law
Membre du Comité Europe iDFrights