Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Publié par Jean-Pierre FORESTIER

Le chaos, la loi et la responsabilité.

Un système qui, comme l’Intelligence-artificielle, peut parfois bifurquer vers le chaos est-il digne de confiance ?

Prudent et réaliste, Google dégage, par avance, sa responsabilité. 

Ambiguïté. Le Parlement européen a voté une loi dont l’objet est de « promouvoir l'adoption de l'intelligence artificielle (IA) ... digne de confiance »

L’incertitude de la bifurcation vers le chaos est un problème juridique inédit.

À l’ouverture de la plupart des sites consulté sur Internet, une bannière nous demande si nous acceptons les cookies.

Les sites utilisant l’Intelligence-artificielle génératrice vont-ils bientôt avertir que :
- Les réponses proposées par l’Intelligence-artificielle peuvent parfois être dues au seul hasard,

- L’utilisateur doit accepter ce risque pour pouvoir utiliser le site.

Ce n’est pas pour bientôt, c’est pour aujourd’hui ! ou presque.

Un courriel de Google, daté du 17 avril 2024, nous avertit qu’…
« Une nouvelle version de nos conditions d'utilisation entrera en vigueur le 22 mai 2024. »

  • Conditions d'utilisation de l'IA générative. Nous allons intégrer nos Conditions supplémentaires de l'IA générative à nos conditions d'utilisation principales et y ajouter de nouvelles précisions concernant l'IA. Par exemple, nous ne revendiquerons pas la propriété des contenus originaux générés par nos services optimisés par l'IA.

'Clauses de non-responsabilité'

Les Services peuvent parfois proposer des contenus inexacts ou choquants qui ne représentent pas l'opinion de Google.

Faites preuve de discernement avant de vous fier aux contenus fournis par les Services, de les publier ou de les utiliser.

Ne comptez pas sur les Services pour obtenir des conseils médicaux, juridiques, financiers ou d'autre nature professionnelle. Les contenus liés à ces thèmes ne sont fournis qu'à titre indicatif et ne remplacent pas les conseils dispensés par un professionnel qualifié.

(Certains sites de traduction automatique indiquent également une "Clause de non responsabilité")

Ces Clauses sont parfaitement claires !

Google nous avoue que les I-A génératives peuvent, parfois, se tromper !
Voir mes commentaires dans L’Intelligence-artificielle et l’humain (dans Pour le meilleur et pour le pire), ainsi que : 

Personne ne sait comment l’Intelligence-Artificielle fonctionne ! Magie ou chaos ? Bonne ou mauvaise fortune ?

.

 

… « et proposer des contenus inexacts ou choquants ».
Google aurait pu être ajouté : des contenus
séduisants, et/ou malveillants/toxiques.

« Faites preuve de discernement ».

Cette invitation s’adresse à l’humain qui lit le texte.
Par la teneur même de ce texte, Google confirme que l'Intelligence-artificielle est un outil, rien qu'un outil,
un outil qui doit être contrôlé par les humains !

Il faudrait aussi considérer que le propre des humains est d'être facilement séduits par des fictions ! Toutes les fictions, y compris celles produites par l'Intelligence-artificielle ...

Le dernier paragraphe reprend et insiste sur la prépondérance de l’humain, et plus particulièrement « un professionnel qualifié »

"Ne comptez pas sur les Services …
... est l’aveu que l’Intelligence-artificielle NE peut PAS être utilisée (sous sa forme actuelle) dans les domaines sensibles, comme la santé, la conduite de machines,
mais aussi ...
tous les domaines où la responsabilité de Google pourrait être engagée.
Avec la responsabilité, nous sommes déjà dans le domaine juridique (
voir ci-dessous).

Prudente et justifiée, la clause de non-responsabilité de Google affirme clairement que l’Intelligence-artificielle n’est pas digne de confiance.

 

 

.

Cette déclaration fera-t-elle réfléchir les investisseurs/spéculateurs ?

J’avais, en 2018, consacré plusieurs articles à ce sujet, qui reste d'actualité
(​​​​​​​Le regard des investisseurs n'étaient ils pas biaisé ?)  :

IA.10.03 : Suite et fin-anc... Confiance et finance

IA.10.04 : Suite et fin-ance... Fantasmes et media

IA.10.05 : Suite et fin-ances. Salaires et pigeons

Jadis, l’essor du Chemin de fer  provoqua un engouement semblable auprès des investisseurs.

 

Quand de son côté, réaliste, Google dégage sa responsabilité, « digne de confiance » est le principe fondamental sur lequel s’appuie la loi sur l’Intelligence-artificielle (AI Act) adoptée le 13 mars 2024 par le Parlement européen.

Article premier

Objet

1. L'objectif du présent règlement est d'améliorer le fonctionnement du marché intérieur et de promouvoir l'adoption de l'intelligence artificielle (IA) axée sur le facteur humain et digne de confiance,

 « digne de confiance » est utilisé quatorze fois dans le texte de loi.

Digne de confiance est également le leitmotiv de la charte publiée par Mozilla

Un autre objectif, avoué dans le texte préparatoire, est le protectionnisme : « La proposition vise aussi spécifiquement à renforcer la compétitivité et la base industrielle de l’Europe dans le domaine de l’IA. »

 

Montage à partir de photographies de Sam Haskins.

Du point de vue philosophique, l’AI Act est nettement d’inspiration rousseauiste, et Voltaire aurait su malicieusement le réfuter !

 

 

également d'après l’œuvre du photographe Sam Haskins

 

Les « Critères de désignation des modèles d'IA à usage général présentant un risque systémique … » sont exposées dans les nombreuses annexes. Toutes des "usine à gaz" ! (white elephant, a Rube Goldberg machine, a Heath Robinson machine)

J’ai néanmoins noté dans l'annexe XIII, un paramètre qui pourrait s’avérer astucieux pour mesurer le nombre d’itérations, c’est simplement « la consommation d'énergie estimée pour l'entraînement » !

« digne de confiance » !

Le qualification « digne » est un peu surprenante, et anthropomorphe. En quoi un machine peut-elle être digne ? Un ordinateur peut-il être "digne" ? une mitrailleuse peut-elle être worthy/digne" ?

L’expression complète en anglais est Trustworthy AI. La meilleure traduction en français n’aurait-elle pas été simplement
« une IA fiable » ?

« Confiance » se retrouve dans « Trust ». Or, pour les anglo-saxons, Trust est un mot puissant, un mot lié à leur conception du droit, la conception d’un contrat basé sur la confiance, trust. Notons que le Royaume-Unis ne fait plus partie de l’Union européenne.


In God We Trust” n’est-elle pas la devise officielle des États Unis d’Amérique ? celle qui figure sur tous les dollars.

En voulant légiférer sur un système utilisant des algorithmes itératifs, le Parlement européen pose un problème juridique inattendu, celui de l’apparition non intentionnelle du chaos, du hasard, de la "fortune".

Ce serait comme vouloir légiférer sur le devenir des gouttes d’eau d’une vague déferlante.

Quand le jeu de hasard est bien identifié, par exemple, la roulette, le juriste sait sur quoi il travaille, il peut calculer des probabilités fiables (dignes de confiance)

Mais avec l’Intelligence-artificielle, le hasard apparaît parfois, après une bifurcation des algorithmes, parfois, pas toujours ! Pas toujours après le même nombre d'itérations.

Même si les algorithmes itératifs sont totalement transparents et dignes de confiance, un gendarme n’empêchera pas l’Intelligence-artificielle générative de bifurquer, parfois, vers le chaos !

Encore une fois, il faut bien faire la différence entre les bifurcations algorithmiques et les biais des données/corpus utilisées. Or ces dernières peuvent, être effectivement biaisées par un humain, de bonne foi (digne de confiance) ou malveillant/toxique.

 

Selon Hume : “La parole, les mots, la langue sont fixés par une convention et un accord humains.” ... entre des humains dignes de confiance.

Si « la parole, les mots, la langue » sont issues du hasard après une bifurcation, le système se retrouve en dehors de la convention, de la confiance, et de l’accord contractuel entre humains.
Le problème juridique devient un problème de responsabilité (celui qui a été évoqué précédemment
pour Google).

J’avais déjà abordé le problème de la responsabilité dans mon article du 22 août 2018, notamment à propos de la « voiture autonome »

Le concepteur d’un assistant basé sur l’IA est-il responsable d’une réponse qui devient aléatoire ? Une réponse qui pourrait être contraire aux valeurs de l’Union européenne ?

En amont de la responsabilité un problème juridique de propriété peut apparaître.
Google prévient que non seulement
Les Services peuvent parfois proposer des contenus inexacts ou choquants, mais « … nous ne revendiquerons pas la propriété des contenus originaux générés par nos services optimisés par l'IA. »

Ce déni de revendication de propriété ne montre-t-il pas que l’Intelligence-artificielle n’est pas digne de confiance ?

.... mais les fictions qu'elle produit sont, parfois, tellement séduisantes ! pour le meilleur et pour le pire.

Pour être informé des derniers articles, inscrivez vous :