Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Publié par Jean-Pierre FORESTIER

L’essentiel

- L’Intelligence Artificielle n’est qu’une super-super machine qui ne fait guère plus que des statistiques, des tris et des index

- Dans cette boîte noire un humain doit naturellement entrer les bonnes données

et doit intelligemment utiliser les données qui sortent.

- Ces « bonnes » données à entrer (y compris les échantillons pour un apprentissage profond) nécessitent une analyse profonde qui peut rendre superflue le … recours à l’Intelligence artificielle !

- Comme tout machine son fonctionnement doit être vérifié par un Contrôle de qualité, et notamment l’indice de confiance, qui doit être au minimum de 95%.

- Le simple fait que notre intelligence repose sur notre curiosité, néoténique, l’Intelligence Artificielle ne sera jamais intelligente,

 

Les fantasmes et les réalités des angoisses d’Homo sapiens domestiqué (et néoténique) confronté à l’Intelligence Artificielle sont celles qu’il a toujours eues devant l’inconnu de nouvelles machines.

Les Régnants cherchent à se préserver, ou plus exactement, à préserver et "cadrer" leurs enfants.

Les Conquérants profitent de la libération de nouvelles opportunités.

Si l’Intelligence Artificielle commande des machines, sa constitution électronique en fait elle même une machine, rien qu’une machine.

« ces machines ! Elles font bêtement et méchamment tout ce qu’on leur demande… »

 

L’exclamation de Nathalie Devillier me fait penser aux débuts des calculatrices.

 

 

Quand en Travaux dirigés, je répondais à des étudiants que leurs résultats étaient « faux », régulièrement l’un d’entre eux brandissait sa calculette en s’exclamant « M’sieur, la machine ! ».

Il fallait alors que j’explique que la machine est une boite qui ne calcule que les valeurs que l’on y rentre, et que si le résultat est erroné : soit, les valeurs tapées étaient fausses, soit elles avaient été mal tapées, soit les deux. J’insistais pour qu’ils fassent d’abord faire un calcul approximatif sur leur cahier (ébauche du Cahier de laboratoire, document essentiel à tout travail scientifique),

qu’il pouvait utilement précéder mentalement (Merci Monsieur le Ministre d’avoir rétabli le calcul mental dans les programmes scolaires)

 

    Nous avons quelques difficultés à imaginer aujourd’hui les premiers ordinateurs qui avait été mis à notre disposition au laboratoire quand j’étais jeune enseignant, sans écran, la seul possibilité de dialogue était une bruyante imprimante à aiguilles, leurs performances étaient moindres que les calculettes évoquées précédemment.

La première utilisation, la plus naturelle (au moins pour moi !) fut le traitement de données plus précisément il s’agissait de connaître, par des calculs de statistiques, l’indice (intervalle) de confiance indispensable à la validation de résultats expérimentaux.

Quelques lignes de programme permettaient de faire faire à la machine des calculs qui à la main était longs et laborieux.

Il fallait quand même entrer (sans erreur) les trente valeurs dans la machine/boîte, puis interpréter le résultat : 95% était considéré comme bon un indice de confiance et en général le minimum acceptable ; 99%, très bon ; 99,9%, excellent ; qui correspondent respectivement à une significativité (p) de 0,05 ; 0,01 et 0,001

 

Avec un bon indice de confiance la plupart des résultats se situent dans la courbe en cloche de chaque côté de la valeur moyenne.

     Des ordinateurs déjà un peu plus puissants que les précédents nous ont permis de remplacer les cartes perforées et créer des fichiers à multiples entrées, et ... rencontrer le premier bug, celui de « lecture au-delà du fichier » qui s’affichait parfois quand l’ordinateur « patinait ».

 

     Word de Microsoft propose « Un index est une liste déclinée de termes et de sujets rencontrés dans un document, assortie des numéros de pages auxquels ils figurent », par exemple 

Une version précédente de Word proposait une indexation complète automatique, dans laquelle tous les mots se retrouvaient dans une table à la fin du texte, y compris « et », « ou » ; mais la fonction « mise à jour » était, disons, problématique !

 

Si vous vous lancer dans la création d’une table des matières avec les nouvelles versions vous aurez un aperçu de la complexité de l’opération, pourtant les mystérieux algorithmes de Google sont basés sur le même principe d’indexation, il suffit de remplacer « page » par site, utilisateur, etc. y ajouter des statistiques et des gestions de fichiers.

 

Il n’y a pas que les algorithmes qui soient mystérieux, mais c’est une autre histoire !

Les performances des machines modernes se sont envolées, parallèlement elles sont devenues cybernétiques, puis des systèmes experts et finalement de l’Intelligence Artificielle (même s’il cette « intelligence » ne restera que du marketing tant qu’elle ne sera pas biophysique).

    Un point important et qui demandera un développement ultérieur est grande la diversification du champ d’action de ces machines.

 

Même avec les « prouesses » du deep learning (l’apprentissage profond), les machines restent des boîtes qui ne font guère davantage que des statistiques, des tris et des indexations.

Ces boîtes noires continuent à ne faire « bêtement et méchamment tout ce qu’on leur demande » ni plus, ni moins.

Pour l’utilisateur, ses boîtes noires fonctionnent sur le même principe entrée/sortie que les premières calculettes : elles reçoivent des informations (input) et restituent d’autres (output)

 

Par exemple vous voulez diviser 4,12 par 3

Vous entrez (in) 4,12 ; / ; 3

La machine affiche (out) : 1,373333333333333.

 

      Sans exclure d’entrouvrir la boîte par quelques enseignements sur le principe général de la programmation et d’apprendre à écrire quelques lignes rudimentaires d’un algorithme, savoir se servir de l’IA consiste à connaître les informations à entrer et savoir interpréter celles qui en sortent.

Dans l’exemple ci-dessus la première interprétation concerne la division de 4,12 par 3 :

Si 4,12 est la mesure de la longueur d’un salon, 4 correspond aux mètres ; 1 aux décimètres ; et 3 aux centimètres. Le résultat ne peut pas être donné avec une précision supérieure à la mesure initiale.

 

Vous interpréterez le résultat comme étant 1,37 mètre (vous savez par un calcul approximatif préalable que ce serait environ 1,5 mètre)

Aucun des 3333333333333 ne correspondent à une réalité physique. Une précision de la mesure au millimètre près est inutile et illusoire.

 

La détermination du nombre de chiffres significatif 1 ; 3 et 7 est souvent beaucoup plus complexe et je crois que mon exposé sur la métrologie est déjà suffisamment significatif, et long !

Vous pouvez néanmoins vous étonnez des précision ci-contre et retourner visiter le § Tromper avec un seul pixel de Vers une Intelligence biophysique.

      La première étape d’utilisation d’une machine est son choix, elle ne fera ce que vous leur demandez que si ce que vous y entrez est adapté à ce qu’elles savent faire. Inutile d’entrer des données juridiques dans une boîte noire destinée à reconnaître un mélanome. Évident ? Pas toujours !

 

     Deuxième étape : les performances de la machine sont-elles adaptées aux résultats que vous escomptez ? Inutile de mettre en route le dernier algorithme Inception V4 de Google pour diviser 4,12 par 3 !

 

J’ai récemment admiré la pertinence de l’étude effectuée par une société qui avant d’implanter des boutiques pour bobos avait simplement compté le nombre de vélos circulant dans le quartier.

 

      Choisir ce que vous allez entrer dans la boîte nécessite de votre part une analyse du problème, une analyse humaine, encore et toujours !

 

Et il est d’ailleurs possible (probable ?) qu’une fois ces analyses effectuées, le recours à l’IA apparaisse comme superflu !

 

Le fameux deep learning (l’apprentissage profond) de l’IA commence par une analyse humaine également très profonde du choix des échantillons.

Entrer des milliers de photographies d’animaux n’est pas pertinent si vous voulez étudier des champs de maïs car l’Intelligence très artificielle pourrait vous sortir une poule faisane (en bas à droite) et même un chien dans le nuage.   

Si ce que vous entrez dans la machine n’est pas convenable ce qui en sortira de le sera pas non plus, ou pire «  garbage in, garbage out ! »

 

       Ce qui sort de la boîte doit également être analysé, et seul un être humain peut y parvenir en utilisant son intelligence … naturelle (voir prochain article sur le mélanome).

Même si elle est noire, comme tout instrument de mesure, il est prudent de vérifier le bon fonctionnement de cette boîte.

Les robots d’analyse biologique incluent dans leurs séquences des sérums étalons ainsi que les calculs statistiques des paramètres biologiques de la série des sangs analysés, c’est une partie du « Contrôle de qualité ».

L’apprentissage profond peut être considéré comme utilisant un très grand nombre d’étalons (100 000 dans le cas de l’algorithme de détection du mélanome)

 

Dans un domaine comme le droit, existe-t-il des contrats types à soumettre aux robots juridiques ? … et des statistiques de contrôle ?

 

Quant aux domaines évoqués par Isabelle Musnik : « l’information, la communication, la réputation, le marketing, la distribution, les ressources humaines. »,

je peine à imaginer quels pourraient être les étalons, plus généralement les contrôles de qualité. Quelle indice de confiance (95% ; 99% ; 99,9% pouvons-nous espérer ? 

 

Même si cette aide est puissante, le concept actuel de l’IA ne serait donc qu’une aide à la décision, et ne saurait remplacer une décision humaine, dont le problème a été minutieusement analysé.

 

Les calculs de conjonctures et de tendances seront-elles moins biaisées par une question mal posée si elles sont calculées par IA que par Excel ?

Le choix des exemples fournis à la boîte noire pour son deep learning (l’apprentissage profond) n’est-il pas la plus importante source de biais ? Rappelons que ce choix est réalisé selon des critères décidés par l’intelligence naturellement humaine.

 

 

Note :

La gestion des données à l’aide d’un mille-feuille de tableaux Excel ne doit pas, même si elle est possède une fantastique puissance de calcul, … ne doit pas être assimilée avec de l’Intelligence Artificielle, et encore moins avec de l’intelligence naturelle 

 

Le simple fait que notre intelligence repose sur notre curiosité, néoténique, l’Intelligence Artificielle ne sera jamais intelligente, car la curiosité manquera toujours à une machine, même à une machine aussi élaborée qu’un ordinateur.
Un ordinateur n’est qu’un super calculateur, or la curiosité ne se calcule pas !

L’essentiel

Je ne prendrais au sérieux les ingénieurs qui travaillent sur la voiture autonome que quand ils auront réussi à faire fonctionner correctement un robot de piscine.

Sont-il sérieux ou cherchent-ils seulement à satisfaire leurs fantasmes ?

Retour vers la page
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article