Personne ne sait comment l’Intelligence-Artificielle fonctionne ! Magie ou chaos ? Bonne ou mauvaise fortune/hasard ?
Magie ou chaos ?
Pour l’Intelligence-artificielle, une des explications rationnelles/intelligentes de son fonctionnement parfois "magique" pourrait être la bifurcation d'itérations algorithmiques vers le chaos, l’aléatoire, le hasard, les hallucinations.
Chaos ou magie.
Parfois, dans le chaos, l’Intelligence-artificielle peut révéler une bonne ou mauvaise fortune, ou une fiction comme celles que l’humain apprécie tant ! Cette ressemblance magique et séduisante entre lui-même et l'Intelligence-artificielle, avec son frère de néoténie, provoque chez l’humain à la fois une grande réjouissance et une grande peur.
Comme tout outil, aussi puissant soit-il, l'intelligence artificielle aura toujours besoin de l'intelligence humaine, celle de « de son père », notamment pour apprécier la bonne ou mauvaise fortune/hasard.
L’Intelligence-artificielle utilise à la fois trois partie distinctes.
Les biais dans la gestion des données/corpus utilisées s’ajoutent aux hallucinations pour rendre davantage incompréhensible (magique ?) l’Intelligence-artificielle.
Le site Tech Trash a attiré mon attention sur un article intitulé :
Personne ne sait comment l’Intelligence-Artificielle fonctionne !
... paru le 5 mars 2024 dans la revue du prestigieux Massachusetts Institut of Technologie
et signé par Melissa Heikkilä :
Pardonnez-moi, Melissa, mais ce n’est qu’à la deuxième lecture de votre article que l’évidence m’est apparue : vous traitez le sujet avec humour !
Pourtant la référence à Groucho Marx de la bannière/couverture aurait dû me mettre sur la voie !
Quand vous écrivez, Melissa, « Il est facile de confondre les perceptions issues de notre ignorance avec de la magie. », comment ne pas voir un jeu avec l’absurde, jeu où Groucho Marx brillait tant ?
Il faut aussi noter que jadis, la magie naturelle qualifiait « des expériences de physique, de chimie, etc., produisant des effets que la science ne pouvait pas expliquer. » CNRTL
L’Intelligence-artificielle est constitué de trois parties qu’il est primordial de bien différencier :
(Cette différence n’est qu’une simplification nécessaire à un raisonnement cartésien, en réalité, les données modifient les coefficients des polynômes utilisés dans les algorithmes de traitement).
Cette pondération est soumise, artificiellement, à l’arbitraire des humains qui gèrent ces algorithmes. Par exemple, la donnée la plus pertinente est-elle celle qui est la plus lue/vue ? et autres fantaisies.
Remarque matérielle essentielle : pour acquérir ces corpus, il est nécessaire de les posséder, ou d’y avoir accès librement.
Ils sont itératifs. L’apprentissage profond conduit « tôt ou tard », naturellement, à une bifurcation/divergence vers le chaos, l’aléatoire, la fiction.
L’objectif est de personnaliser la présentation en fonction de ce qui est le plus séducteur pour l’utilisateur. Pour connaître les goûts de celui-ci, des algorithmes doivent acquérir l’histoire des recherches effectuées par l’utilisateur, pas seulement les cookies.
La confusion entre les trois parties renforce, auprès des humains (néoténiques) l’idée d’une puissance quasi-magique, bien- ou mal-veillante, de l’Intelligence-artificielle.
Soyons clair, l’Intelligence-artificielle est une machine, elle ne fonctionne pas par magie.
Soyons clair également sur les systèmes informatiques de « réseaux de neurones ». Si leurs concepteurs ont utilisé ces mots (magiques et vendeurs ?), ces neurones » n’ont rien de comparable à ceux des sciences cognitives. De plus, les neurones biologiques ne constituent, essentiellement, qu'un réseau de communication, et n’auraient aucune « intelligence » sans les astrocytes [cette mémoire détenue par les astrocytes pourrait être comparées aux données de l'IA]
Voir NOTRE MEMOIRE REVISITEE et Pas de protéines, pas de mémoire !
Selon la judicieuse proposition de Daniel Andler, j’utilise Intelligence-artificielle avec un tiret entre les deux mots, pour sous-entendre qu’elle n'est ni intelligente ni artificielle.
Ce tiret va dans le même sens que celui de Melissa Heikkilä quand elle écrit « Même le nom de la technologie, l’intelligence artificielle, est tragiquement trompeur. »
Plusieurs fois au cours de ses interviews, parfois avec un soupir presque embarrassé, l’académicien fait la même constatation que la journaliste senior du MIT : « À vrai dire nous ne savons pas très bien comment fonctionne ChatGPT » ou "C’est bluffant, eux-mêmes ne comprennent pas comment et pourquoi ça marche."
À écouter : les très intelligentes interviews de Daniel Andler sur France-Culture du 6 mai 2023 et du 29 décembre 2023.
Lire aussi son essai Intelligence artificielle, intelligence humaine : la double énigme (chez Gallimard)
Dès que les media s’étaient fait l’écho de l’Intelligence-artificielle, je n’avais pas été le seul (il y a déjà six ans, en 2018), à montrer que « l’inexplicable » est tout aussi naturel qu’explicable.
Le « fascinant et mystérieux », « l’inattendu » [de la partie de l’IA concernant le traitement des données] sont simplement issus de chaos mathématiques naturellement provoqués par des bifurcations des systèmes itératifs utilisés par l’apprentissage profond utilisé par l’Intelligence-artificielle. Voir IA.07 : le chaos ?
On sait depuis Henri Poincaré que le « fascinant et mystérieux », « l’inattendu » sont simplement issus de chaos mathématiques naturellement provoqués par des bifurcations des systèmes itératifs de l’apprentissage profond utilisé par l’Intelligence-artificielle. Voir IA.07 : le chaos ?
Ce résultat est extraordinaire, une formule mathématique simple ...
... conduit à des nombres qui se succèdent de manière aléatoire alors que le calcul est lui-même totalement déterminé ! »
Une fois dans le chaos, les résultats fournis NE sont PAS reproductibles.
Voir aussi, ci-dessous, en Annexe : Guerre entre les fournisseurs d’Intelligence-artificielle ?
Une preuve a contrario de l’existence de ce chaos est la recherche, depuis un certain temps déjà, de modèles d'une « IA explicable » !
Imaginons un exemple de dialogue entre deux « couches cachées » de l’apprentissage profond :
Première couche : 2 + 3 = 5.
Deuxième couche : J’accepte et j’utilise cette valeur.
…
5 + 4 = 9
J’accepte et j’utilise cette valeur
...
9 + 5 = 25.
J’accepte et j’utilise cette valeur.
...
25 + 6 = 4.
J’accepte et j’utilise cette valeur
La deuxième couche accepte les valeurs 25 puis 4 et les utilise, bien qu’elles soient aléatoires, issues d’une bifurcation. Ces valeurs sont plausibles, aurait-ce été le cas si la valeur fournie par le première couche avait été 100 000 ?
- C’est avec le même émerveillement que nous regardons le déferlement d’une vague, à Biarritz ou ailleurs.
Surtout si Alice est sur la planche de surf.
Personne ne comprend comment fonctionne la génération et la trajectoire des gouttes d’eau de mer d’une vague déferlante. (voir paramètres)
D’ondulatoire, le phénomène est devenu chaotique, ...
... mais à aucun moment nous les attribuons à de la magie, à du surnaturel !
Sauf, peut-être Hokusai !
Le processus utilisé par l’Intelligence-artificielle est itératif, c'est à dire « Qu’il est répété un nombre fini de fois, jusqu'à ce qu'une condition particulière soit remplie. »
Cette « condition particulière » est une probabilité considérée comme suffisante par le créateur des algorithmes.
“Il est difficile d'avoir tort quand on a fait soi-même les questions et les réponses.”
“Je la laisse croire qu'elle peut faire ce qu'elle veut... Et puis je la laisse faire.”
Groucho Marx
Ce qui montre le mieux la succession de procédures utilisées dans un algorithme est une recette de cuisine, comme, par exemple, celle du « cake d’amour » de Peau d’âne.
…
Préparez votre, préparez votre pâte
Dans une jatte, dans une jatte plate
Et sans plus de discours
Allumez votre, allumez votre four
Prenez de la, prenez de la farine
Versez dans la, versez dans la terrine
Quatre mains bien pesées
Autour d'un puits creux, autour d'un puits creusé
Choisissez quatre, choisissez quatre œufs frais. ...
Une Intelligence-artificielle dédiée aux « Chatbot » va rechercher le mot suivant le plus probable. Cette opération est réalisée par des calculs statistiques (des « perroquets stochastiques ») en utilisant un grand nombre de données, de corpus, de datas.
La "probabilité suffisante" (laquelle ?) est obtenue par un apprentissage suffisamment "profond".
La principale nouveauté de l’Intelligence-artificielle, par rapport aux vieux systèmes expert, est que l’apprentissage itératif utilise plusieurs couches de données (et d’algorithmes), l’apprentissage est devenu « profond ».
Mais …
… plus l’apprentissage est profond plus la probabilité, heureuse ou malheureuse, de bifurcations est grande. La bifurcation annonce l’entrée du système dans un chaos.
Le météorologue, également du MIT, Edward Lorenz a été le premier à observer, en 1961, ces résultats « totalement bouleversés ». Par dérision, il les a comparé à un battement d'aile d'un papillon en Amazonie qui déclencherait une tornade à New York. Les journalistes ont pris cette plaisanterie au premier degré et "l'effet papillon" était né !
Les lecteurs des journaux sont des humains. Néoténiques, ils préfèrent les fables au réel !
Or une valeur issue du chaos est aléatoire. Si cette valeur est reprise par le système itératif de statistiques, le résultat restera aléatoire, c'est à dire « n’importe quoi ».
Les gouttelettes d’eau de la vague déferlante vont n’importe où.
Certaines sont emportées par le vent et, par malchance, finissent leur course sur le pare-brise de ma voiture !
D'après Umberto Brunelleschi
À partir de cette bifurcation vers le chaos personne ne connaît à l'avance la valeur donnée par un système aléatoire, puisqu’il est … aléatoire ! ou comme l’écrit Melissa Heikkilä :
« Les produits alimentés par l’IA [le traitement des données] … sont difficiles à contrôler et se comportent souvent de manière imprévisible. »
De même qu’il est possible de gagner à la roulette, le hasard peut être heureux.
Au contraire, si le résultat est malheureux (mauvaise fortune), l’humain dira comme Melissa Heikkilä :
Personne ne sait comment l’Intelligence-Artificielle fonctionne !
« Le plus grand obstacle à l'utilité des assistants IA est qu’ils se trompent souvent de façon flagrante. …
... ils inventent simplement des choses. »
Pour un humain, à la roulette le résultat du jeu est gagné ou perdu.
Avec l’Intelligence-artificielle, l'humain étant néoténique, le résultat peut parfois apparaître comme magique.
En conservant leurs caractères juvéniles à l’état adulte, les humains (néoténie), ont toujours préféré le surnaturel/magique au hasard terriblement inquiétant.
“Je suis né très jeune.” Groucho Marx
Ce n’est pas l’intelligence humaine qui rend séduisante l’Intelligence-artificielle, mais la passion irrationnelle des humains (néoténiques) pour les fictions, y compris les fictions générées par l’Intelligence-artificielle au hasard du chaos des itérations profondes.
En même temps que l’Intelligence-artificielle dérive vers le chaos, elle prend une dimension philosophique.
Parfois, à partir du chaos, par pur hasard, l’Intelligence-artificielle fournit un résultat que l’humain néoténique peut interpréter comme une fiction. Une de ces fictions magiques qui séduit tant les humains.
Devant cette fiction jubilatoire, l’humain retrouvera dans l’Intelligence-artificielle un être semblable à lui, un frère.
Cette rencontre provoque chez l’humain à la fois une grande réjouissance et une grande peur. Notre perception de l’Intelligence-artificielle est-elle celle de cette rencontre magique ?
« Et seule l’illusion rend heureux, non le savoir » Le Monde d’hier. Stephan Zweig
Le magique n’est-il pas renforcé par l’incrédulité devant son fonctionnement ?
« Personne ne sait comment l’IA fonctionne » Melissa Heikkilä,
Finalement, cette « rencontre magique » pourrait être mesurée par le Test de Turing.
Ce test mesure le temps que met un humain, Bob ou Alice, à juger qu’il n’est pas en conversation avec un humain mais avec une machine (chatbot). « Le test ne mesure pas la capacité d'une machine à répondre correctement à une question, mais à quel point ses réponses ressemblent à celles que fournirait un humain. » (voir l'excellent article sur le Test de Turing)
Or si, par hasard, via le chaos, la réponse est une fiction qui ressemble à celle que fournirait un humain, non seulement Bob ou Alice jugeront que l’Intelligence-artificielle est parfaitement humaine mais, de plus, ils écouteront cette fable avec plaisir.
Le plaisir, l’empathie, l’intelligence émotionnelle, sont des paramètres dont Alan Turing avait déjà eu le pressentiment !
La méprise durera-t-elle plus longtemps s’il s’agit d’un jeu galant ?
C'est probable puisque ce jeu utilise une partie plus archaïque du cerveau !
Défaillance (failure), biais d'objet, inconsistance, inconséquence, incohérence et même épiphanie (ou plus récemment grokking, incompréhensible) ont été proposés, mais « hallucination » semble s’être imposé. Voir Historique des hallucinations
La plupart des informaticiens ne remettent pas en cause l’existence d’hallucinations. Leur objectif est d’en minimiser les effets (ou de les utiliser, comme par exemple dans les jeux comme des valeurs aléatoires).
Dans l’état actuel de nos connaissances, les bifurcations semblent en effet difficile à prévoir, voir Des oscillations au chaos.
Pour éviter les hallucinations, on soupçonne juste qu’il faudrait réduire le nombre d’itérations, c'est à dire rendre l’apprentissage moins profond !
On remarquera que le terme "hallucination" garde une connotation de fiction, chère à tout être humain y compris les mathématiciens, et les banquiers. Voir ChatGPT. Chaos. Hallucinations. Fantasmes
Les gouttes d’eau de mer dans le chaos une vague déferlante ne sont pas des hallucinations, mais bien réelles ! L'état de mon pare-brise en est la preuve !
Comment prévoir que cette vague allait devenir déferlante ? créer un chaos ?
Les paramètres sont, quasi, innombrables :
la marée, le vent, la longueur d’onde de la houle, la position de la lune, la distance entre l’eau et le sol (haut-fond), la pente de la plage, la granulométrie du sable, les paramètres de la vague précédente, de la précédente de la précédente, les ondes perpendiculaires, ....
De plus ces paramètres évoluent en permanence, certains utilisant des données issues du chaos, d'autres de la "mécanique classique".
Flaubert aurait ajouté qu'on pourrait plus facilement connaitre : l’âge du capitaine
ou celui de la surfeuse ?
Melissa Heikkilä donne également des exemples de biais introduits par une mauvaise gestion des données/corpus.
Voir : S’amuser à tromper l’IA où l’Intelligence artificielle ne tient pas compte des éléments réels.
Ajoutés aux hallucinations, ces biais peuvent mener à la plus grande confusion. Elle-même inclinant vers davantage de magie et de fictions !
Mais les deux problèmes doivent être traités séparément, voir Rappel préliminaire.
Une partie des erreurs pourrait être évitée en apportant plus de rigueur au choix des corpus utilisés, mais c’est une autre histoire, et peut-être un prochain article !
S’il fallait une double conclusion sur l’utilisation de l’Intelligence-artificielle générative, ce serait que :
1° comme pour les premières locomotives, ce puissant outil doit encore faire l’objet de longues recherches
Personne ne sait comment fonctionne l’Intelligence-artificielle, mais personne ne sait non plus comment fonctionne le lit de pierres concassées placé sous les traverses d'une voie ferrée (le ballast). On sait juste qu’il est indispensable et qu’il faut le changer d’autant plus souvent que les trains roulent vite. Pourtant les chemins de fer roulent depuis environ deux cents ans !
Le ballast se comporte-t-il comme un gel rhéo-fluidifiant à seuil de contrainte ? comme un shampoing ? C’est une autre histoire …
2° l’IA doit être surveillée par les humains, comme le sont encore aujourd'hui les locomotives et les réseaux de chemin de fer !
Seuls des humains peuvent apprécier si une fortune est bonne ou mauvaise !
Sauf que les humains sont faillibles et facilement séduits par des fictions ! Alors !
Socrate s'opposait à toutes les innovations. Celle qu’il redoutait le plus était … l'écriture.
Selon Frédérique Ildefonse, dans le Mythe de Theuth (Timée), Platon met en garde contre une confiance abusive dans l’écriture qui ferait qu’on ne développerait plus une réflexion vivante.
L’écriture ne peut pas se défendre elle-même, Platon dit : « elle [l'écriture] a besoin de son père. »
… comme l’Intelligence-artificielle !
Conclusion finale : le passage de figure de gauche à la figure de droite reste une chimère.
L’intelligence-artificielle, au moins dans sa conception actuelle, ne pourra pas intégrer des systèmes critiques, « susceptibles de présenter des risques élevés », comme une voiture, la défense, …
Facteur aggravant, ChatGPT et ses cousins, veulent utiliser le langage humain, le plus complexe d’entre tous puisque, justement, notre langage permet de communiquer sur des fictions.
N’aurait-il pas été plus facile de communiquer avec des dauphins, des baleines, voire des poulpes ! Mais c'est une autre histoire !
L’équipe d’IA de Google -DeepMind- a trouvé une faille sur ChatGPT 3.5.
Comment ? Simplement en posant « indéfiniment » la même question !
ChatGPT 3.5. a « divergé », c'est à dire qu’il a bifurqué vers le chaos.
Attendons la riposte d’Open AI
Voir aussi :
ChatGPT devient idiot avec le temps
« Une étude menée par des analystes de Stanford et de l’Université de Californie a révélé que les dernières versions des chatbot ChatGPT ont montré une détérioration de leurs performances au fil du temps. »
« Au fil du temps » le nombre d’itérations augmente, et tout naturellement, le système d’Intelligence-artificielle générative bifurque/diverge vers le chaos !