« Intelligence artificielle : une révolution sociétale ? » : retour sur le rdv Entre midi & science (11/01/2022)

Publié par Audrey Popineau, le 21 janvier 2022   1.1k

Vous êtes curieux des sciences ? Désireux de comprendre les sujets de société et leurs enjeux ? Chaque mois, un mardi de 12h30 à 13h30, la Galerie Eurêka propose des rencontres avec des scientifiques et des spécialistes, pour échanger et débattre sur un sujet de société.

Si vous n’avez pas assisté au rendez-vous « Entre midi & science » du mardi 11 janvier 2022, sur le thème « Intelligence artificielle : une révolution sociétale ? », ce résumé vous en donnera un aperçu.

Pour échanger sur ce thème, Kavé Salamatian, chercheur et maître de conférences au Laboratoire d’Informatique, Systèmes, Traitement de l’Information et de la Connaissance (LISTIC) de l'Université Savoie Mont Blanc, était l’invité de cette rencontre. Il a apporté des clés pour comprendre quelles sont les caractéristiques de l’Intelligence artificielle et ses impacts sociétaux.

La problématique du calcul : une histoire ancienne

La problématique du calcul est déjà très ancienne. Les concepts abstraits ont commencé à être inventés pour répondre à des cas concrets (par exemple définir les caractéristiques d’un terrain en les figurant sur un cadastre). Les premiers écrits de l’histoire de l’humanité sont d’ailleurs des éléments de comptabilité.

À la fin du XIXe siècle s’est posée la question : « est-il possible de trouver une machine de calcul universelle permettant de répondre à toutes les questions ? ».

Alan Turing développe en 1936 un modèle appelé « machine de Turing » (bien que dénommé « machine », il s’agit d’un objet mathématique, donc abstrait). L’hypothèse en ce qui concerne cette machine de Turing est que tout problème de calcul fondé sur une procédure algorithmique peut être résolu par celle-ci.

Qu’appelle-t-on « intelligence » pour une machine ?

Comment définir l’ « intelligence » de l’ordinateur et de la machine ? Selon Turing, cette idée pourrait être admise lorsqu’il ne sera plus détectable que la réponse a été apportée par une machine. Cela amène une première définition de l’Intelligence Artificielle (IA) : il s’agit de concepts et techniques permettant de développer des machines capables d’imiter l’humain au point que ce que ce n’est plus détectable.

Par ailleurs, la relation entre représentations abstraites et concrètes n’est pas spécifique à la géométrie, elle est partout : on passe son temps à transformer des opérations réelles en représentations abstraites. Dans cette transformation on perd quelque chose (la concrétude), mais on gagne aussi d’autres choses. Ces 50 dernières années ont ainsi vu émerger toute une série de travaux et d’innovations fondamentales, avec comme question « comment transformer une information d’une forme en une autre ? » L’IA c’est aussi cette capacité.

L’IA peut s’inscrire dans quatre cadres :

- se rapprocher de certains comportements humains (dans le cas de prises de décision)

- assurer l’extraction d’informations et connaissances parfois cachées (apprentissage machine)

- faire un travail d’optimisation (non maximale avec les capacités cognitives humaines)

- ajouter des fonctionnalités que l’humain ne possède pas

Intelligence artificielle n’est pas intelligence humaine

Le cadre est défini dans l’interface qui existe entre l’humain et le monde physique autour de lui. L’IA simule cette interface et agit dans le contexte d’optimisation. Cependant, même si l’IA imite l’humain, elle ne peut le remplacer. L’IA n’est pas l’intelligence humaine.

Un ordinateur est un objet auquel on pose une question concrète et qui apporte une réponse concrète. Comme toute machine, il est donc complètement rationnel. Cela se distingue de la caractéristique de l’humain qui est d’être parfois irrationnel. Un ordinateur ne peut sortir de la rationalité initiale qu’on lui a définie, tandis qu’un humain le peut. Or l’histoire de l’Homme a été conduite par cette irrationalité et beaucoup de nos capacités sont nées de cette caractéristique.

Pas si neutre que ça…

L’IA, profondément logique, n’est donc pas comme une intelligence humaine. L’ordinateur est un acteur auquel on pose des questions rationnelles et qui va donner une réponse correcte. Il peut donc être caractérisé comme impartial et de ce point de vue considéré comme neutre. Cependant, la réalité est beaucoup plus complexe car, pour que l’ordinateur réponde à une question, il doit être programmé or les codes faits par les humains peuvent comporter des erreurs.

Par ailleurs, l’ordinateur a pour rôle d’être un acteur de l’environnement dans lequel il se trouve. Il n’est donc pas un élément complètement neutre : il existe avec un système. Ainsi, l’IA est basée sur un système qui s’applique aux personnes qui l’utilisent.

Enjeux politiques et questions sociétales

Aujourd’hui tous les pays du monde ont un plan pour le développement de l’IA. Pour comprendre les impacts sociétaux, il s’agit de se référer aux historiques politiques. Pour cela, quatre narratifs peuvent être distingués :

- IA pour contrôler l’humain

- IA comme moyen d’optimiser les ressources (en aidant à minimiser leur consommation)

- IA pour ouvrir de nouveaux moyens de ressources économiques (en aidant à les optimiser)

- IA pour améliorer l’humain : cela renvoie au transhumanisme

Aucun État n’utilise qu’un seul narratif, il y en a souvent plusieurs qui se croisent.

Le problème sociétal c’est de trouver le bon équilibre entre un gain d’efficacité et la perte de la substance qui fait l’humanité.

La première responsabilité en tant que citoyen s’appuie sur l’information. Aujourd’hui, connaître l’informatique et l’algorithmique doit être de l’ordre de la connaissance de base du citoyen, et non réservé à une élite. Il y a un vrai enjeu d’éducation en ce qui concerne le numérique, et la capacité à gérer les points positifs et négatifs qui en sont issus.

Questions/réponses

- Faire comprendre les algorithmes est complexe, existe-t-il des outils pour cela ?

En premier lieu, une familiarisation aux algorithmes pourrait être faite d’ores-et-déjà auprès des jeunes générations, qui connaissent déjà beaucoup de choses dans le maniement de l’informatique. Par ailleurs, apprendre un langage de programmation n’est pas si compliqué mais tout est question de volonté et de prise de conscience. La relation entre le monde académique et la société reste encore assez ténue : l’objectif aujourd’hui est donc de développer ces liens.

- Le premier travail n’est-il pas de savoir où se trouve l’IA dans notre quotidien ?

Dès qu’un élément comporte un composant de calcul : c’est de l’IA qu’il y a derrière. Toutefois, certaines IA ont un degré de liberté très fort (par exemple un ordinateur) et d’autres très limité (par exemple une montre mécanique).

- Quels sont les dangers de l’IA ?

Le principal danger est que l’IA ait un impact sur nos vies sans qu’on n’en soit acteur. Le problème, si sa maîtrise n’appartient qu’à quelques élites à qui on se réfère, c’est qu’on passe par un intermédiaire.

- Que faire à titre individuel ?

Il s’agit de commencer par se poser des questions et comprendre les enjeux politiques.

- Ne risque-t-on pas de devenir dépendant de l’IA au point d’être complètement assisté et de perdre l’intelligence humaine ?

Ce n’est pas la première fois qu’on se pose cette question dans l’histoire de l’humanité mais à chaque fois on a su avancer. Il s’agit d’avoir conscience des risques et de leurs conséquences, et des éléments pour y résister.

- (remarque) Aujourd’hui les changements technologiques sont très rapides, on peut se retrouver dépassé, les rencontres comme celle d’aujourd’hui sont donc bienvenues. Cependant, ce qui apparaît dans l’évolution actuelle c’est notamment la dépendance des populations aux réseaux. Les politiques et citoyens devraient se pencher sur les algorithmes qui enferment les gens dans une pensée monolithique.

> Ce n’est pas la technologie qui génère le problème, elle ne fait que l’accentuer. Le problème de fond se trouve dans le fait qu’on a de nouveaux outils qui nécessitent de nouveaux apprentissages et fondements. Tout réside dans l’éducation.

En conclusion :

L’IA est concrète et réelle, et agit sur nos vies. Mais en même temps elle est complexe. Les enjeux principaux sont d’informer et de démystifier. C’est en s’impliquant en tant que citoyens que les politiques s’empareront du sujet.