Intelligence artificielle (2/2) : Une machine peut-elle être intelligente ?

Théorie de la connaissance, simuler la pensée humaine, responsabilité des machines

Théories de la connaissance, sciences cognitives

La théorie de la connaissance nous éclaire sur la manière dont nous appréhendons le monde. En effet, un véritable « miracle » se produit : nous sommes capables d’analyser nos stimuli sensoriels – images, sons, toucher, odorat, goût – et d’en tirer un apprentissage, une compréhension, une reconnaissance, en les associant à des mots, des concepts, des énoncés, ou des images.

Ainsi, nous avons déjà accompli, en tant qu’humains, le travail que nous cherchons désormais à imposer aux intelligences artificielles (IA). Nous nous inspirons de cette théorie pour structurer nos réflexions sur les moyens de créer cette intelligence.

L’analyse de la relation entre concepts, mots et énoncés, telle que l’ont explorée des philosophes comme Michel Foucault dans son ouvrage de référence L’archéologie du savoir, sert de base à notre réflexion. Foucault a montré comment les énoncés se lient autour d’un concept, d’une idée, ou d’une image, révélant ainsi les risques et les mécanismes sous-jacents. Ces principes peuvent être appliqués pour structurer les pensées et énoncés dans les systèmes d’IA, notamment dans le cadre des énoncés performatifs.

Cependant, cette démarche nous a également révélé la problématique des biais anthropologiques. En analysant l’ensemble des énoncés autour d’un concept, nous découvrons leur dépendance à une situation anthropologique. En d’autres termes, un énoncé n’est jamais neutre : il émerge d’un contexte qui structure notre vision du monde, qu’il s’agisse d’une perspective genrée ou d’une approche scientifique de la réalité, par exemple.

Transmettre ces biais à une machine est inévitable, car ils sont inhérents au langage et aux énoncés eux-mêmes. Si nous souhaitons atténuer ces effets, nous devons en être conscients et les intégrer dans les processus d’apprentissage des IA, notamment par l’application de règles d’analyse des énoncés. Cette reconnaissance des biais permet d’atteindre une pensée plus nuancée, plus sophistiquée – à l’image de la pensée humaine.

Les sciences cognitives, quant à elles, nous montrent comment notre cerveau retient, mémorise et, parfois, se trompe. Elles explorent des moyens de le rendre plus fiable, en réduisant les biais cognitifs. Les premières recherches dans ce domaine se sont probablement concentrées sur les illusions d’optique, qui révèlent comment notre cerveau peut nous tromper. Cette science nous aide à comprendre comment il est possible de manipuler le cerveau, mais aussi de le rendre plus précis. Ces découvertes sont essentielles pour adapter les programmes de simulation d’IA, en introduisant des mécanismes d’auto-apprentissage et de correction d’erreurs.

Par exemple, nous avons découvert que certains neurones jouent un rôle très spécifique, notamment dans la reconnaissance faciale. En apprenant à nos IA à simuler cette capacité, nous les rendons plus intelligentes, plus aptes à analyser et à comprendre le monde.

Ainsi, l’application des principes issus de la théorie de la connaissance et des sciences cognitives est cruciale pour toutes les logiques d’apprentissage, y compris dans le cadre du deep learning.

Jean-Pierre Astolfi identifie cinq modes d’apprentissage humain :

  • Déductif (logique, démonstration, preuve, conséquences)
  • Inductif (causalité, mécanismes explicatifs, lois scientifiques)
  • Dialectique (interaction, interprétation)
  • Divergent (invention, créativité)
  • Analogique (conceptualisation, comparaison, métaphore)

(Extrait d’Edupass, article de JP Astolfi, sur les modes d’apprentissage.)

La détection et l’élimination des biais cognitifs – auxquels les IA ne sont pas non plus exemptes – doivent figurer parmi les règles à appliquer. La liste des biais cognitifs est longue, et leur gestion est essentielle pour garantir des résultats fiables.

En conclusion, les IA ne sont ni plus ni moins fiables que les humains. Elles ne peuvent délivrer que ce que nous leur avons appris, et leurs capacités sont déterminées par les algorithmes qui les sous-tendent. Elles ne sont ni meilleures ni pires que nous, mais elles sont capables d’accomplir davantage de tâches et à une vitesse bien plus rapide.

Les dilemmes, comme celui du pendu*(ou prisonnier) ou autres dilemmes ne seront pas mieux résolus par deux IA indépendantes que par deux humains. Cela reste un dilemme.

*Le dilemme du pendu ou du prisonnier : consiste pour un prisonnier à choisir entre trahir son partenaire ou garder le silence pour minimiser sa peine. L’article présente d’autres paradoxes : une machine pourra en résoudre certains, notamment ceux reposant sur des probabilités, mais elle n’y parviendra pas mieux qu’un mathématicien – seulement plus rapidement.

Simuler la pensée humaine. 

Pour préparer ce sujet et la lecture critique des techniques utilisées dans les IA(s), je vous conseille la lecture de cet article Le perroquet stochastique,” d’ Olivier Ertzscheid, université de Nantes.

Pour rendre possible la simulation de la pensée humaine , une des techniques les plus utilisées est celle des réseaux neuronaux. En effet comme vu plus haut, nous avons supposé que de cette façon nous avions les meilleures chances d’imiter le cerveau humain et quelquefois en empruntant aussi au règne animal.

Les études poussées sur tous les types de réseaux montrent que certaines règles s’y appliquent systématiquement.

  • Primauté de La localité  : nous établissons toutes les connexions possibles avec les nœuds de proximité physique en formant des grappes. 
  • La focalisation sur les hubs : certains de ces nœuds servent à établir toutes les connexions avec les autres hubs plus loin dans les grappes suivantes.
  • Les noeuds de passage : certains de ses noeuds servent en plus à établir des liens directs  avec des grappes très éloignées 
  • Les liens rares : certains neurones créent des liens improbables, très éloignés par une connexion directe.

Aujourd’hui, des systèmes informatiques sont capables de tous ces types de connexion, par apprentissage notamment dit “ profond”. Probablement comme le fait massivement le cerveau d’un jeune humain qui apprend, et ce que nous continuons à faire pratiquement toute notre vie,

En recherche encore plus approfondie nous découvrons que certains de ces noeuds se spécialisent et acquièrent des comportements que je qualifierait ici “d’étranges”, au sens d’ improbable et de surprenant.

Par exemple, ils fournissent un retour quasiment unique avec une très haute certitude d’identification ou de reconnaissance. Nous avons compris ce phénomène en étudiant comment, par exemple, nous étions capable de reconnaître instantanément quelqu’un de notre famille, peut être même de dos, et dans le presque noir… 

Reproduire des compétences neuronales humaines avec une machine est extrêmement complexe, mais nous commençons à y parvenir. Par exemple, les systèmes de reconnaissance d’images ne confondront bientôt plus un couple d’orangs-outans avec un couple de personnes d’origine africaine. Il ne s’agit pas ici de racisme, mais d’une erreur de la machine. Pour elle, les similitudes sont trop nombreuses, et la réponse apprise aboutit souvent à un mauvais résultat. Contrairement à nous, la machine n’a pas encore développé l’équivalent du « neurone grand-mère » ou « neurone Halle Berry » qui permet de différencier instinctivement les visages. Ainsi, la machine peut, par sa simple logique, d’une certaine façon, en toute innocence, confondre un humain avec un animal. Il existe d’autres exemples moins sensibles de ce type d’erreur (voir l’article mentionné plus haut).

Remarque :Aujourd’hui les systèmes d’apprentissage utilisent des banques d’images , dédiées à cet apprentissage, qui leur permettent d’associer images, concepts et mots. Ces banques sont constituées par des hommes ou, et par des automates qui examinent le web ou d’autres banques d’images. La question est que dans ces banques, bien évidemment tous les biais, les erreurs humaines sont présentes. Finalement les IA(s) retraduisent ces biais comme la prédominance mâle et blanche par exemple.

Pour arriver à ce niveau de performance, nous avons dû réfléchir à une algorithmique ad-hoc. Une des techniques algorithmiques les plus développées dans la mise au point des IA(s) est celle dite des systèmes experts. Cette algorithmiques se décrit dans ce que les spécialistes nomment des moteurs d’Inférence fonctionnant sur une base de faits et une base de règles et découpant le raisonnement en une phase dite d’évaluation et une phase dite d’exécution. Des langages de programmation prennent en charge ce type d’algorithmique.

La performance d’un moteur d’inférence dans la résolution plus ou moins forte de questions qui lui sont soumises se mesure par degré niveau 0,0+,1,2…. Les meilleurs moteurs sont du niveau 1 aujourd’hui, l’idéal serait le niveau 2 ou la combinatoire variabilisée au maximum des règles apportées et de la profondeur des bases de faits permettra de simuler de façon presque parfaite le raisonnement humain le plus sophistiqué.

«Mais Jammy,  tout cela ne suffit pas à faire une pensée humaine. Et oui Fred nous avons des traits de génie, des idées disruptives, inattendues qui font que chaque homme est unique et que nous sommes capables de trouver des solutions incroyables à des questions réputées insolubles.»  (allusion à une émission de télévision de vulgarisation scientifique, Fred et Jammy)

Il y a quelques années , des chercheurs en informatiques Russes et Américains ont voulu créer une machine de jeu d’échec , imbattable. La guerre froide étant passée par là, Russes et Américains se sont livrés un combat incroyable avec des grands maîtres d’échecs et sur des machines à jouer, comme celle d’IBM. 

Pendant longtemps, jusqu’en 1980 à peu près, les champions de très haut niveau en échec , un Gasparov, un Fischer, battaient régulièrement le monstre d’IBM, qu’un  joueur même déjà très bien classé n’arrivait pas à surclasser par manque de capacité à anticiper à plus de trois ou quatre coups. Petit à petit, la force brut de calcul  ( La force brut veut dire ici la capacité à calculer tous les coups possibles sur plusieurs dizaines de tour)  et l’introduction de moteurs de choix très sophistiqués dans les programmes , grâce à des stratégies complexes et des calculs probabilistes, les machines n’avaient plus besoin de calculer des dizaines de coups à l’avance, les machines ont commencé à gagner régulièrement. 

Alors l’intérêt s’est déplacé vers un autre jeu, le GO. Son apparente simplicité cache en fait un nombre de combinaisons et de stratégies encore plus considérables que les échecs , et là pendant de très nombreuses années, un bon joueur battait n’importe quel ordinateur.

Et puis quelqu’un a eu l’idée d’imiter un peu plus la façon de jouer des hommes , et il s’est rendu compte qu’à l’origine des coups gagnants de l’homme , il y avait très régulièrement une stratégie , minoritaire , c’est à dire très peu attendue, qui était jouée. Un peu comme si le cerveau humain , pour venir à bout de la froide capacité à calculer de la machine , imaginait un coup fou, un peu impossible, mais qui était parmi les très bonnes stratégies possibles à ce moment-là compte tenu de l’état du jeu. L’apprentissage par renforcement était né (RL),  c’est une des techniques qui sont incorporées à TchatGpt. 

La machine ayant construit son jeu sur d’autres paradigmes, plus classiques,plus probabilistes se trouvait alors prise à revers et n’arrivait plus à reprendre le dessus.

Voilà c’est donc fini, même notre capacité à stratégiser l’imprévu, l’inattendu, est découverte. Désormais, il est possible d’introduire même cette variable ‘coup de génie’ dans les IA(s). Ce qui implique entre autres la prise de risques, choisie à un moment choisi lui aussi et la capacité à accepter de renoncer à une règle ou à en modifier le poids. Et les machines se sont mises à gagner au jeu de Go…

Conclusion  :  dans peu de temps nous serons capable de simuler, souvent assez correctement, la pensée humaine avec tout ce qu’elle a d’inattendue et de complexe. 

Des biais et du point Godwin 

Nous savons, que toute discussion sur des questions conflictuelles entre deux ou plusieurs individus,maintenu un certain temps, converge inexorablement vers ce qu’il est convenu d’appeler le point Godwin, c’est à dire le moment ou l’une des parties va traiter l’autre de Nazi ou faire allusion à la Shoah. Et effectivement les premières tentatives de chatbot, outil de Chat autonome, en ont fait les frais, des propos racistes ou insultants ont été proposés par l’IA du chatbot.(voir expérience du chatbot* Microsoft
*chat + robot = Chatbot.

Nous pouvons donc nous poser cette question, une machine ne pouvant être à priori accusée de racisme, comment peut-on en arriver là ? La réponse est à la fois navrante et extrêmement significative. En explorant le web très logiquement l’IA est tombée sur des propos racistes, souvent présentés comme des évidences ou souvent mis en référence.

Mais notre machine ne sait pas que ces propos sont condamnables, à la fois sur le plan moral et sur le plan judiciaire. Personne ne lui a dit qu’il s’agissait de fake News ou de propos racistes ou licencieux. Il faut noter qu’un certain nettoyage des documents retenus était bien réalisé. Mais la nature des questions posées et le lancement de recherche sur le wen ou les réseaux sociaux faisant inexorablement glisser notre IA vers la faute, Tay en l’occurence, sans qu’à aucun moment elle refuse de diffuser certains propos ou certaines thèses.

Avec ChatGPT ce défaut semble presque corrigé, ce qui veut dire que l’épuration des bases de données images et textes a bien été menée, mais qu’également l’IA a été éduquée à reconnaître les sujets “délicats” et à éviter certains types de réponses.

Si ce risque autour du politiquement correct et pour le condamnable pénalement semble être mieux maîtrisé, il n’y a aucune raison pour que ces IA (s) presque pensantes et en autonomie, ne tombent pas comme nous dans des approximations ou des amalgames dangereux. Mais la seul fait de rendre ses réponses « politiquement correcte » n’est-elle pas une vraie question ? Qui décide et que corrige t-on ?

L’étude des biais cognitifs montre que même avec la meilleure volonté du monde, le risque d’interprétation trop rapide , de recherche d’un résultat attendu, de projection indus, qui sont des biais humains, présents dans beaucoup de nos productions intellectuelles, et donc sur le web, même en ne prenant pas comme source Twitter, nous conduise en fait à ne pas avoir d’objectivité même relative dans les réponses apportées sur les sujets très discutés. Autant sur un sujet scientifique, privilégier une hypothèse n’a pas forcément des conséquences morales ou pénales, autant sur les sujets anthropologiques, sociologiques , cela peut être le cas.

Il est très clair que l’IA, doit comme les humains, arbitrer, évaluer. Par exemple sur ChatGpt, l’IA prépare plusieurs réponses possibles et ensuite évalue celles qui paraissent les plus admisent, les mieux notées, la fréquence , la qualité-fiabilité des sources, pour ne donner qu’une seule réponse in fine. Ce qui peut expliquer des variations dans les réponses quand la même question, ou une question très proche, est posée plusieurs fois.

C’est une des raisons pour lesquelles l’usage de ces outils au niveau scolaire ou universitaire ne peut servir que comme une aide à la réflexion. Et que le travail des professeurs est donc de permettre leur maîtrise intelligente et non leur impossible éviction.

De la responsabilité des machines 

Nous pouvons considérer que pour les besoins d’un objectif , validé comme éthiquement acceptable, nous pourrions doter des machines d’une véritable intelligence pour les rendre propre à la réalisation d’une tâche, d’un objectif, avec une capacité et une ‘intelligence’ souvent supérieure à celle d’un être humain. 

Mais dans la réalité cela existe déjà, nous n’avons pas attendu les robots dotés d’IA pour créer des algorithmes capables de gérer, bien mieux que le cerveau humain, les comportements erratiques des acteurs des salles de marché, opérer le corps humain de façon autonome, éliminer ou choisir des autorisations de prêts bancaire, des régulations de flux automobiles… à chaque fois nous avons transféré notre intelligence, peu ou prou, mais surtout nous avons autorisé une machine doté d’IA à décider pour un homme … 

Que dire des robots tueurs, capables de prendre des décisions… pour éliminer , disons par euphémisme, “neutraliser” un humain.
Imaginons que nous fabriquons une arme télécommandable installée au coin d’une rue et pour laquelle nous avons réalisé  un algorithme de pilotage qui déclenche un tir, après sommation,  sur tout être humain montrant un caractère agressif, ou réalisant une agression physique sur un autre humain. Même si cette caractérisation de l’agression est techniquement parfaite, le drone ne tire pas sur un enfant avec un pistolet en plastique et personnellement je peux trouver cela très bien ou pas. Que faisons-nous de plus avec un robot auquel nous aurions appris, en situation de combat, à neutraliser une tentative hostile perpétrée non seulement par une machine mais aussi par un être humain ? 

Récemment en Syrie,mais aussi sur d’autres terrains d’opérations avec la Turquie et l’Arménie notamment, des nuées de drones ont mené des attaques coordonnées de façon plus ou moins autonome, une partie seulement de ces drones étaient pilotées par des hommes. A la manière des vols intuitifs des étourneaux, grâce à une IA , ces appareils suivaient leur leader et de façon autonome lançaient des attaques ciblées sur des hommes au sol, provoquant débâcle et la défaite des troupes au sol, il semble dans un des cas recensés qu’il s’agissait de l’armée Arménienne.., 

Voilà nous y sommes donc , nous laissons déjà des machines agir en autonomie. Discuter du sexe des anges n’a plus de sens pour savoir de quel type est ou n’est pas l’IA qui permet cette autonomie. Cela ne sert plus qu’à établir une taxinomie, un classement de concepts et d’états utiles seulement à l’analyse. 

Dans cette perspective, il faut donc tenter une fois de plus de convaincre de la nécessité de réguler, d’imposer des règles communes, pour la guerre, comme une nouvelle convention de Genève, ce que nous avons plus ou moins réussi pour les armes chimiques ou atomiques en sachant que certains s’en affranchissent eux-mêmes ou par leurs alliés.

Bien évidemment ces tentatives imposent que des états bandits acceptent néanmoins de discuter de ces limites… vieux débat ! 

Quels domaines, pour faire quoi ? 

Visiblement les IA(s) vont, qu’on le veuille ou non, se généraliser. Elles vont gagner tous les domaines. Il est donc urgent de classifier et d’évaluer les différentes types d’utilisation des IA(s), pour fixer les règles, les responsabilités en fonction des risques, des urgences, des besoins, des volontés politiques… 

Le texte voté par l’Europe, dit « rapport Delvaux » se lance déjà dans cette direction. Il peut servir de base.

La question des domaines d’application est importante, aujourd’hui la tentation est grande de trouver des domaines vendeurs… c’est à dire des domaines ou l’attrait des acheteurs est poussée au maximum, souvent en faisant appel à des sentiments profonds, affectifs, sexuels,… ceux qui vont activer notre cerveau reptilien ou nos émotions. Dans ce registre ont trouve les jeux sexuels couplés à une réalité virtuelle, ou augmentée, mais aussi  les propositions morbides pour faire revivre un mort, et toutes les inventions qui peuvent trouver un public.

Pour ce type de produit, les lois existantes sur les jeux devraient être renforcées, pour tenir compte, comme dans le cas des addictions, des faiblesses morales et psychologiques.

Conclusion : Que penser de nos IA(s)

Sont-elles vraiment intelligentes ?
Pouvons-nous leur faire confiance ?

Il y’a aujourd’hui au moins 7 formes d’intelligence répertoriées par les chercheurs. Par exemple, voir la théorie des intelligences multiples d’Howard Gardner….. il s’agit plutôt de domaines de l’intelligence. Chacun de ses domaines correspond à des aptitudes à résoudre certains problèmes.

Aujourd’hui la plus part de ses domaines ont été investis par les IA(s). (Voir cet Article sur ce sujet  de W,Gardner), avec des niveaux de performance, comparés à ce que peut faire un homme, souvent supérieurs.

Mais avoir atteint un niveau de performance égal ou supérieur à celui d’un homme ne fait pas de ses intelligences des êtres humains. Et n’en fait pas non plus une intelligence qui peut se substituer à celle d’un homme. Elle ne le peut que si nous l’autorisons à le faire. C’est la nécessité de définir cette autorisation, au préalable par un homme qui confère à l’intelligence artificielle son pouvoir réel.

C’est ce qui est dangereux potentiellement et qui décentre la responsabilité d’une IA ou d’un robot doté d’une IA. Prenons l’exemple d’une voiture que nous dotons d’une capacité à conduire en autonomie. Attendue qu’elle ait un comportement mesurable de fiabilité maximum, supérieur à l’homme, peut-on accepter qu’elle écrase un piéton ? Et si c’est le cas, quelles responsabilités sont en jeu et qui, de l’IA où de son concepteur, doit porter une responsabilité. Ou faut-il analyser les types de responsabilité en cause, pénale ou financière et les attribuer ensuite à l’IA ou à son propriétaire, ou à son concepteur ? 

Au delà de cette question fondamentale de la responsabilité, reste la question de la confiance ou de la réelle compétence des IA(s). En effet, si nous doutons, de façon la plus objective possible, de la qualité de ces IA(s), nous pensons qu’elles n’atteignent pas le niveau de fiabilité ou de performance qui nous permettrait d’accepter de leur déléguer un pouvoir, une action. 

Par exemple, imaginons une machine dotée d’IA, un robot capable d’ opérer en ophtalmologie de la cataracte sans aucune intervention humaine. Si son niveau de fiabilité est supérieur aux capacités d’un homme , alors aucune raison de lui refuser nôtre confiance. 

C’est assez facile à imaginer dans des domaines où le résultat est parfaitement mesurable et ne donne pas lieu à interprétation ou contestation. Évidemment il n’en va pas de même pour les IA(s) susceptibles de faire des formulations contestables. Par formulation contestables il faut entendre, discutable sur un plan philosophique ou scientifique ou éthique. C’est le cas des IA(s) reproduisant toutes les formes de pensées humaines, que ce soit pour faire du Chat, répondre à des questions ouvertes, ou constituer des énoncés en réponse à des questions , ou produire des énoncés censés développer une connaissance en apportant une novation ou un développement original.

Ne doutons pas qu’une IA puisse apporter des solutions innovantes, qui relèveraient du génie humain, la simulation de la pensée, comme vu plus haut, permet pour certains domaines déjà et permettra de le faire pratiquement dans tous les domaines. 

Nous devons donc vérifier que les IA(s) méritent notre confiance et toujours penser que tous les énoncés sont contestables parce que précisément ce sont des énoncés produits avec des outils fabriqués par l’homme et qu’ils ne peuvent être totalement indépendants de leurs conditions de production, origines, biais de connaissance, d’apprentissage ou de méthodes… Mais est-ce si différent pour les hommes eux-mêmes et leurs pensées ?

Ne nous retranchons pas derrière une quelconque supériorité humaine sur les IA(s) pour n’importe lequel des domaines de l’intelligence, pour certains domaines Il n’y en a pas déjà maintenant , et pour d’autres il n’y en aura bientôt plus.

Il faut donc respecter deux principes fondamentaux : 

  • Quelque soit la fonction ou la performance des IA(s) elles doivent être contrôlées ou maîtrisées , c’est-à-dire que la délégation que nous leur donnons doit être garantie par des règles précises. 
  • Mais elles doivent être aussi validées ou certifiées, pour s’assurer que le niveau de performance atteint, garantie une efficacité au moins égale à celle d’un homme et respecte les règles et limites fixées.

Maîtrise et certification ou contrôle et validation, sont les deux lois proposées dans cette étude. 

Ces lois , avec celles d’ AZIMOV qui garantissent la sécurité physique des hommes, nous permettent d’accepter sereinement que les IA(s) interagissent loyalement avec nos activités humaines.

Reste la question de la responsabilité juridique, et de toutes les conséquences associées, pénales, civiles . Mais aussi les assurances, la réglementation, par exemple sur la voie publique… Encore de nombreux sujets de réflexions, nous n’avons pas fini d’en parler.

Paul de l’Isle.

Intelligence artificielle : une machine peut-elle être intelligente ? Partie 1/2 


En savoir plus sur Some-ideas ou Quelques idées

Subscribe to get the latest posts sent to your email.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.