Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Publié par Jean-Pierre FORESTIER

Tant que le problème des hallucinations ne sera pas résolu, aucun utilisateur ne sera à l’abri d’une panne !

« Microsoft victime d’une panne mondiale : incident résolu mais beaucoup de dégâts.
Une gigantesque panne produit d’important dysfonctionnements partout dans le monde et en France.
 »

Le soupçon d’une hallucination m’est immédiatement venu à l’esprit, de même sans doute à l'esprit de beaucoup d’entre-nous.
Cette hallucination provient-elle d’une
bifurcation vers le chaos d’une itération utilisée dans une Intelligence-artificielle ?

"Maintenant que la panne est résolue, Microsoft indique … que la faute est imputable à Crowdstrike, une entreprise spécialisée dans la cybersécurité."

Selon le site de Crowdstrike :

« Depuis plus d’une décennie, CrowdStrike est à la pointe de l’innovation en matière d’IA dans le domaine de la cybersécurité.

Notre IA de renommée mondiale est basée sur des milliards d'événements de sécurité provenant de diverses plates-formes, enrichie par une boucle de rétroaction continue."

Les soupçons vers l’Intelligence-artificielle se confirment !
Le traitement de « milliards d’événements de sécurité ... enrichie par une boucle de rétroaction continue." Or ces itérations conduisent, tôt ou tard, à
une bifurcation vers le chaos mathématique et des hallucinations.

Pour Google, et ses clients, le chaos fut également physique, celui « d’important dysfonctionnements partout dans le monde et en France ».

Microsoft et Google doivent s'estimer heureux que le chaos de l’IA n'est provoqué que des pannes ! Des ordres données depuis des données chaotiques, fortuites auraient pu produire des « merdes de taureau » (le bullshit des anglo-saxons !)

Autrement dit, il se confirme que l’Intelligence-artificielle n’est pas digne de confiance ?

La sanction des investisseurs ne s’est pas fait attendre.

Le titre de Crowdstrike a subi une chute vertigineuse de 17% dans les échanges pré-Bourse.

 

L’IA n’est-elle pas simplement surcotée ?

Oui, au moins à court terme, et tant que ce qui est efficace n'est qu'un service de secrétariat et de conciergerie haut de gamme.
Ce service permet, et c'est l'essentiel,
la flatterie et de « faire bonne impression »

Voir aussi : La puissance du paraître ... depuis les dinosaures !

Est-ce suffisant ?

Ce qui ne marche pas, ce sont les résultats parfois absurdes produits par lIntelligence-artificielle générative. Et qui peuvent conduire à une gigantesque panne comme celle que vient de subir Microsoft.

Or, les hallucinations « sont intrinsèques à la nature même de l’IA générative » …
Voir : Personne ne sait comment l’Intelligence-Artificielle fonctionne !
Magie ou chaos ? Bonne ou mauvaise fortune/hasard ?

Oui, « un obstacle majeur à la confiance dans cette technologie  est inhérent à l’inadéquation entre la technologie et les cas d’utilisation proposés. ».

Mais, je ne suis pas aussi pessimiste qu’Emily Bender, professeure de linguistique et directrice du laboratoire de linguistique informatique de l’Université de Washington quand elle avance « Ça ne peut pas être résolu »

Les hallucinations ne sont qu’un problème technologique, provoqué par la bifurcation d'itérations algorithmiques vers le chaos, l’aléatoire, le hasard.
Voir :
Historique des Hallucinations, dans l'IA
       et

Compléments de « ChatGPT. Chaos. Hallucinations »

Ce qui ne signifie pas qu’ils pourraient ne jamais être résolus.

L’Histoire des sciences nous permet de prédire que les hallucinations seront, à plus ou moins long terme, résolues par la technologie, au moins de façon satisfaisante, digne de confiance.

Par exemple, par l'ajout d'un ordinateur indépendant dédié au contrôle des bifurcations provoquées par les itérations (cette technologie est plus ou moins en cours d'étude).

Un objectif serait de repérer quand une donné en cours de traitement par « apprentissage profond » fournit non pas une autre donnée, mais plusieurs, à commencer par deux. Cet indice est le signe que le système est en train de bifurquer vers le chaos, c'est à dire de fournir des « hallucinations »

 

En réalité, ce qui ne marche pas non plus c’est l’acquisition et surtout la pondération des données (quel poids donner à une donnée par rapport aux autres ?)
Garbage in, garbage out. Vous entrez des ordures, il ne peut en sortir que des ordures !

Une meilleure sélection (l'échantillonage) des sources permettrait également de réduire le nombre d’itérations, donc de réduire la mal-chance de l’apparition d’une bifurcation lors de l’apprentissage profond

Certes ! ce serait un retour aux bons vieux « systèmes experts » de jadis .... (je rejoins ici le constat d'inadéquation pointé par Emily Bender entre la technologie et les cas d’utilisation proposés.)
Faudra-t-il revenir aux systèmes utilisés d'avant l’apprentissage profond.
Mais pourquoi pas, tout dépend de l
’objectif recherché, de l’application … ?
Faudra-t-il choisir entre marketing de "l'Intelligence" artificielle ou efficacité naturelle ?

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article