À la fin des années 1980, à la stupeur générale, Garry Kasparov, célèbre joueur d’échecs, était battu par un ordinateur. Depuis, nous nous sommes habitués aux performances exponentielles des machines, à recourir quotidiennement à leurs services, et même à dialoguer avec elles. Mais les processus à l’œuvre et les répercussions sur nos vies demeurent, pour la plupart d’entre nous, mystérieux et alimentent bien des fantasmes.
Professeur d’informatique à Sorbonne Université et conseiller scientifique du cycle Intelligences artificielles, Jean-Gabriel Ganascia retrace le développement de l’intelligence artificielle et pose sur ces problématiques un regard distancié et confiant.
Que désigne l’intelligence artificielle ?
L’intelligence artificielle est une discipline scientifique qui naît en 1955. Le mot est inventé par deux jeunes mathématiciens, John McCarthy et Marvin Lee Minsky qui ont eu l’idée d’étudier l’intelligence en la décomposant en fonctions cognitives si élémentaires que l’on puisse les simuler sur ces objets nouveaux pour l’époque qu’étaient les ordinateurs. En soixante ans, cette entreprise a été poursuivie par de nombreux chercheurs qui en ont montré la fécondité : la perception, à savoir le passage de l’information enregistrée par des capteurs à une représentation, le fonctionnement de la mémoire, l’apprentissage, le raisonnement vu comme un calcul sur les représentations, la communication par la parole ou les gestes, etc. Toutes ces fonctions ont fait l’objet de beaucoup de simulations informatiques. L’intelligence artificielle concerne aussi les robots : la mise en œuvre des décisions sur une machine est aussi modélisée.
Tout cela dessine un paysage assez vaste et nous permet de mieux nous comprendre en tant qu’humain. Une fois modélisées sur un ordinateur, les fonctions cognitives font l’objet d’applications pratiques. Par l’ampleur de son champ, l’intelligence artificielle transforme le monde. Par exemple, le web est lié à l’intelligence artificielle. C’est un modèle de mémoire, l’hypertexte, couplé au réseau de communication Internet. Autre exemple, la reconnaissance des visages. Cela peut être tout à fait ludique, ou pratique pour les gens peu physionomistes. Mais cela peut être un cauchemar si vous imaginez des policiers capables de vous retrouver automatiquement pour vous verbaliser parce que vous avez laissé tomber un papier par terre ou que vous avez traversé au feu rouge.
En quoi l’intelligence artificielle se distingue-t-elle ou se rapproche-t-elle de l’intelligence humaine ?
C’est une très bonne question, parce que l’objectif initial était de mieux comprendre l’intelligence humaine, de la modéliser, de faire quelque chose qui s’en rapproche le plus possible. En même temps, reproduire exactement le fonctionnement du cerveau est impossible. C’est donc une simplification qui permet de rendre compte de processus cognitifs. À chaque fois qu’un modèle est créé, il est confronté à la réalité. Quand on s’aperçoit qu’il n’est pas tout à fait conforme et qu’il y a un écart avec les facultés intellectuelles humaines que l’on cherche à approcher, de nouveaux modèles sont introduits pour réduire cet écart. Comme pour la physique ou l’astrophysique, chaque difficulté aide à progresser dans la compréhension.
De quelle manière l’intelligence artificielle est-elle déjà présente dans notre quotidien ?
Dans nos vies, la première chose, c’est le web. Ensuite, ce sont nos téléphones portables, qui contiennent beaucoup d’intelligence artificielle : les techniques de reconnaissance vocale, digitale ou faciale. L’intelligence artificielle, c’est aussi le traitement de grandes masses de données, dans le domaine médical ou dans le domaine du marketing pour faire de la publicité ciblée.
Ce sont quelques exemples, mais il faut savoir que toutes les sciences, aujourd’hui, sont transformées par l’intelligence artificielle. On procède à des expériences in silico, c’est-à-dire directement sur des données au moyen de calculs complexes informatisés ou de modèles informatiques. Les démarches expérimentales classiques passaient par la mise en place de dispositifs matériels destinés à valider telle ou telle hypothèse théorique en confrontant les données recueillies sur ces dispositifs avec celles qu’anticipait l’hypothèse de départ. Tandis qu’aujourd’hui, les biologistes, avec le séquençage du génome, les physiciens ou les astrophysiciens ou encore les psychologues, grâce à la prolifération de capteurs à bas coût, engrangent d’immenses quantités de données, sur lesquelles ils peuvent tester des hypothèses. Il est même possible de générer automatiquement tout un tas d’hypothèses, puis de les faire évaluer de façon systématique par une machine !
Pouvons-nous considérer qu’une intelligence artificielle, en particulier lorsqu’elle s’incarne dans un corps, peut avoir des émotions ?
Le principe des interfaces humain-machine repose sur la projection d’un agent imaginaire sur une entité artificielle. Cela a été théorisé par le philosophe Daniel Dennett, avec les systèmes intentionnels. On suppose implicitement qu’il existe un agent mû par des intentions, que cet agent possède des désirs et qu’il dispose d’un certain nombre de moyens d’action qu’il mobilise à sa guise en vue de réaliser ses propres désirs.
Est-ce que nous pouvons considérer qu’il a des émotions ? Non, pas au sens propre, parce qu’une machine n’est jamais qu’un assemblage de dispositifs élémentaires, tous maîtrisables. Il n’y a pas d’organicité ; la machine n’a pas d’instinct de survie ; elle ne possède pas ce que Spinoza appelait le « conatus », à savoir la capacité à accroître d’elle-même sa puissance d’être. En tout cas, si elle avait des émotions, celles-ci seraient certainement très différentes des nôtres, parce qu’elles répondraient aux besoins de la machine qui n’ont rien à voir avec nos contraintes vitales, d’ordre biologique.
Quels sont les domaines dans lesquels l’intelligence artificielle se développe le plus actuellement, et dans lesquels elle peut avoir un impact très important dans notre vie quotidienne ?
Je crois que dans le domaine de la santé, l’intelligence artificielle a vraiment beaucoup d’importance aujourd’hui. En tout cas, beaucoup espèrent l’utiliser. Est-ce que cela aura un grand impact sur nos vies ? Je ne le sais pas, c’est une question ouverte. Dans le domaine des transports, il y a les essais de voitures autonomes, mais pas seulement. L’intelligence artificielle permet aussi de réguler la circulation des trains, des métros, des voitures, etc.
Dans le domaine des technologies financières, elle joue déjà un rôle important, pour anticiper les risques. Peut-être y aura-t-il de nouvelles formes d’assurance fondées sur l’exploitation systématique de toutes les données disponibles — par exemple de toutes les traces que nous laissons sur les réseaux sociaux et qui indiquent si nous fumons, si nous sortons le soir, si nous faisons du sport, etc. — pour déterminer le montant, plus ou moins élevé, de la prime que nous aurons à verser ?
Dans le domaine de la défense, certains s’inquiètent de « robots tueurs », à savoir de machines qui décideraient elles-mêmes qui sont les ennemis, et qui engageraient le tir sans consulter qui que ce soit. Cela relève toutefois d’un imaginaire nourri de mythes anciens. En revanche, l’intelligence artificielle a beaucoup d’autres applications dans ce secteur ; ainsi il existe d’ores et déjà des robots qui vont traquer les mines tous seuls, et évitent à beaucoup de soldats de se faire exploser. Le rapport Villani sur l’intelligence artificielle cite aussi les domaines de l’environnement, de l’agriculture, etc.
L’intelligence artificielle ne risque-t-elle pas de reproduire des discriminations produites par les humains ?
La machine est le reflet de ce que nous sommes. Les capteurs ne sont pas « objectifs ». Il y a toujours un biais : l’œil ne perçoit que certaines choses, certaines longueurs d’ondes, avec une certaine résolution. L’apprentissage machine va extraire automatiquement des connaissances à partir de traces physiques enregistrées, par exemple d’une photo. Là encore, il y a énormément de façons de paramétrer les systèmes afin d’extraire plutôt tel ou tel type d’informations. Il faut comprendre qu’il n’y a aucune objectivité dans l’apprentissage machine, contrairement à ce que beaucoup de technophiles fanatiques veulent nous faire croire.
Poser la question de la manière dont vous le faites laisse entendre que, parce que c’est une machine, il y aurait plus de neutralité que si c’était un humain. Je crois que ce n’est pas le cas. En revanche, c’est un outil très utile dans certaines circonstances, à condition de bien en comprendre les limites, et aussi de savoir quels sont les éléments d’informations qui ont été pris en considération pour parvenir à une décision. Sinon, on a ce que l’on appelle une « boîte noire », c’est-à-dire une mécanique aveugle qui nous impose un résultat en nous laissant complètement démunis.
Vous êtes président du Comets, le Comité d’éthique du CNRS, et membre de la CERNA, la Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene. Quelles questions soulève l’intelligence artificielle dans ces instances ?
L’éthique est directement reliée aux mœurs, aux usages, aux habitudes, à la vie en société. Progressivement, de nouvelles questions sont apparues avec la généralisation de l’usage du numérique. Par exemple, la notion de confiance évolue. Est-ce que c’est la même chose avec la blockchain qu’avec la parole donnée ? Dans l’antiquité, un testament écrit était suspect, car falsifiable. Il fallait qu’il y ait des témoins pour « attester ». La parole valait donc plus que l’écrit. Maintenant, la machine est supposée être plus fiable que la parole ou l’écrit.
Avec l’intelligence artificielle, des automates vont pouvoir récolter les informations et prendre des décisions sans l’intervention d’humains. Donc, bien sûr, des questions de responsabilité se posent. Que se passera-t-il si cet automate a une action néfaste ou prend une décision contraire à ce qui avait été imaginé ? Qui est responsable ? Est-ce qu’il y aura une responsabilité propre des machines ? Quel sens cela peut-il avoir d’incriminer une machine ? Voilà autant de questions nouvelles qui se posent aujourd’hui.
Des androïdes, des intelligences artificielles incorporées, peuvent-ils avoir des droits au même titre que les humains ?
Le problème tient au statut juridique des robots. Un rapport du Parlement européen, écrit par la députée luxembourgeoise Mady Delvaux, a proposé d’étendre l’idée de personnalité morale, qui existe pour les sociétés, aux robots. Mais la notion de robot n’est pas clairement définie dans le droit. Cela laisse entendre que les robots vont être considérés comme des personnes, ce qui fait peur, c’est d’ailleurs pour cela que tout le monde s’en émeut. En même temps, en analysant les choses de près, cela n’a aucun sens, parce que les robots n’ont pas vraiment d’autonomie. Leur donner une personnalité juridique permettrait sans doute d’indemniser les victimes en cas d’accident ; c’est d’ailleurs ce qui justifie cette idée qui paraît au premier regard un peu saugrenue. Cela correspond à ce que les spécialistes appellent une « fiction juridique ». A priori, cela semble une bonne idée.
Cependant, à l’examen, je pense que c’est tout à fait critiquable. Pour que l’on soit en mesure d’indemniser les victimes, il faudrait que les fabricants ou les utilisateurs cotisent à des caisses d’assurance. De plus, cela voudrait dire que, pour certains accidents, il n’y aurait pas d’enquêtes. Certes, les victimes seraient indemnisées plus rapidement, mais sans enquête, la vraie responsabilité ne serait jamais établie. En réalité, le robot ne peut être responsable, car il n’est pas libre, au sens propre ; il y a toujours des humains derrière qui lui donnent des objectifs. Sans détermination précise de la responsabilité humaine, on ne saura jamais ce qui a causé l’accident ; de ce fait, la technologie ne pourra pas être modifiée, ni améliorée, donc, à terme, cela peut être très dangereux. De ce point de vue, je crois qu’il ne faut surtout pas donner de personnalité juridique aux robots !
L’intelligence artificielle fait évoluer les relations entre les individus. Mais peut-elle avoir des conséquences sur l’équilibre géopolitique ?
Beaucoup de gens laissent entendre qu’un jour l’intelligence artificielle va prendre son autonomie, qu’elle va constituer un danger pour l’existence humaine. À titre personnel, j’ai du mal à y croire, parce que nous sommes très loin de réalisations qui prennent vraiment leur autonomie au sens où elles auraient des volontés propres, distinctes des nôtres.
En revanche, je crois que des transformations politiques extrêmement importantes sont liées à l’intelligence artificielle et au numérique en général. Aujourd’hui, les territoires sont traversés d’influences diverses et l’intelligence artificielle joue un rôle majeur, parce qu’elle participe à la propagation des données et à l’analyse des informations ; il s’ensuit que la notion d’État de droit fondée sur la co-extension du territoire et de l’État, telle qu’elle a été théorisée au XVIIIe siècle avec les philosophes des Lumières, est remise en cause. C’est le premier point. Le deuxième, c’est l’importance de nouveaux acteurs que l’on appelle les géants de l’Internet ou les GAFA. Ils sont plus forts que les États et les défient d’ailleurs à bien des égards. Ils ont, je crois, une ambition politique qui va au-delà de la simple ambition économique. Ils veulent assumer un certain nombre d’attributs de la souveraineté qui relevaient traditionnellement de la fonction des États.
Les œuvres de fiction autour de l’intelligence artificielle peuvent-elles être le point de départ pour des développements technologiques ?
Comme toujours, c’est un aller-retour, parce que beaucoup d’œuvres de science-fiction se sont inspirées du développement de la technologie dans les années 1940 et 1950. En revanche, la notion de robot vient de la science-fiction. Le terme provient de la pièce de théâtre R. U. R. (Rossum’s Universal Robots) de Karel Čapek. Les premiers automates sont réalisés au même moment. Le mot « robot » a été réutilisé par des ingénieurs pour désigner la discipline qui se consacre à la conception des automates, ce qui veut bien dire que la science-fiction sert de source. C’est un tressage de l’un à l’autre.
En général, les grands films de science-fiction aux États-Unis sont faits par des cinéastes qui demandent à des scientifiques de les aider. Par exemple : Marvin Lee Minsky, qui était à l’origine de l’intelligence artificielle, a lui-même été le conseiller scientifique de Stanley Kubrick pour 2001, l’Odyssée de l’espace. L’étude de la science-fiction est très intéressante, parce qu’elle nous donne un très bon reflet de ce qu’est l’état de la science à un moment donné dans les laboratoires. Minority Report correspond à un certain nombre de choses sur les interfaces humain-machine. Her concerne les agents conversationnels, etc. Il y a donc une stimulation mutuelle, réciproque, très ancienne entre la fiction et la science-fiction.
Ce qui est très dangereux, c’est lorsque les deux sont mélangées sans qu’il soit possible de savoir si c’est de la science ou de la science-fiction. À ce moment-là, on a affaire à un discours qui se prétend rationnel, mais qui, en réalité, est fondé sur l’imaginaire. C’est très gênant avec les tenants de la Singularité technologique aujourd’hui. Ils se présentent comme ingénieurs, comme chercheurs, comme hommes d’affaires, et ils nous disent que cela va arriver, mais en réalité, ce n’est que de la fiction.
Article paru initialement dans de ligne en ligne n°27
XÉtant un service public, nous ne faisons aucun usage commercial des données collectées lors de votre navigation. Nous utilisons les cookies ou technologies similaires pour accéder uniquement à des données personnelles non sensibles stockées sur votre terminal, que nous traitons afin de réaliser des statistiques, mesurer les performances du site, ou permettre des accès à des ressources externes.
Vous pouvez à tout moment revenir sur vos choix en utilisant le lien "Personnaliser". En savoir plusRefuserAccepterPersonnaliser
Politique de confidentialité & cookies
Gestion de vos préférences sur les cookies
Ce site utilise des cookies pour améliorer votre expérience de navigation. Ces cookies sont classés en trois catégories : fonctionnel, statistiques et marketing.
Veuillez retrouver notre politique de gestions de données personnelles et de cookies : page "Informations sur les cookies" et page "Politique de confidentialité"
Ces cookies nous permettent de réaliser des statistiques de mesures d’audiences et de performances en analysant le volume et la source du trafic sur notre site. Ces cookies permettent également d’analyser de façon anonyme le comportement des visiteurs de notre site afin de mesurer et d'améliorer les performances de notre site et de nos campagnes en ligne.
Le recueil de votre consentement n’est pas requis, nous utilisons un logiciel d’analyse d’audience (Matomo) configuré selon les recommandations de la CNIL pour bénéficier de l’exemption de consentement.
https://www.cnil.fr/fr/cookies-et-autres-traceurs/regles/cookies-solutions-pour-les-outils-de-mesure-daudience
Cookie
Type
Durée
Description
_pk_id.*
13 mois
Ce cookie est installé par l'outil d'analyse Web Matomo.
Le cookie _pk_id est utilisé pour stocker des détails sur l'utilisateur tels que l'identifiant unique (ID).
Les cookies créés par Matomo commencent par : _pk_ref, _pk_cvar, _pk_id, _pk_ses.
Pour plus d'informations sur les cookies de Matomo : https://fr.matomo.org/faq/general/faq_146/
_pk_ses.*
30 minutes
Ce cookie est installé par l'outil d'analyse Web Matomo.
Ce cookie _pk_ses de courte durée est utilisé pour stocker temporairement les données de la visite.
Les cookies créés par Matomo commencent par : _pk_ref, _pk_cvar, _pk_id, _pk_ses.
Pour plus d'informations sur les cookies de Matomo : https://fr.matomo.org/faq/general/faq_146/
Les cookies fonctionnels aide à améliorer les performances de certaines fonctionnalités comme partager le contenu du site sur les réseaux sociaux, collecter des retour d'expérience, et autres fonctionnalités.
Cookie
Type
Durée
Description
bcookie
0
2 years
Ce cookie est installé par LinkedIn pour activer les fonctions de LinkedIn sur ce site.
cookielawinfo-checkbox-necessary
0
11 months
Ce cookie est défini par le plugin GDPR Cookie Consent. Les cookies sont utilisés pour stocker le consentement de l'utilisateur pour les cookies dans la catégorie «Nécessaire».
cookielawinfo-checkbox-non-necessary
0
11 months
Ce cookie est défini par le plugin GDPR Cookie Consent. Les cookies sont utilisés pour stocker le consentement de l'utilisateur pour les cookies dans la catégorie «Non nécessaire».
csrftoken
0
11 months
Ce cookie est associé à la plateforme de développement Web Django pour python. Utilisé pour aider à protéger le site Web contre les attaques de falsification de requêtes intersites
lidc
0
1 day
Ce cookie est défini par LinkedIn et utilisé pour le routage.
viewed_cookie_policy
0
11 months
Le cookie est défini par le plugin GDPR Cookie Consent et est utilisé pour stocker si l'utilisateur a consenti ou non à l'utilisation de cookies. Il ne stocke aucune donnée personnelle.
Les cookies analytiques sont utilisés pour comprendre comment les visiteurs interagissent avec le site. Ces cookies génèrent des informations mesurables sur le nombre de visiteurs, le taux de rebond, la source du trafic etc.
Cookie
Type
Durée
Description
everest_g_v2
0
1 year
Le cookie est défini sous le domaine eversttech.net. Le but du cookie est de mapper les clics sur d'autres événements sur le site Web du client.
GPS
0
30 minutes
Ce cookie est défini par Youtube et enregistre un identifiant unique pour suivre les utilisateurs en fonction de leur emplacement géographique
mc
0
1 year
Ce cookie est associé à Quantserve pour suivre de manière anonyme comment un utilisateur interagit avec le site Web.
MR
0
1 week
Ce cookie est utilisé pour mesurer l'utilisation du site Web à des fins d'analyse.
VISITOR_INFO1_LIVE
1
5 months
Ce cookie est défini par Youtube. Utilisé pour suivre les informations des vidéos YouTube intégrées sur un site Web.
YSC
1
Ces cookies sont définis par Youtube et sont utilisés pour suivre les vues des vidéos intégrées.
Les cookies publicitaires sont utilisés pour procurer une expérience optimale aux visiteurs du site avec des publicités et des campagnes marketing pertinentes. Ces cookies traquent les visiteurs à travers les sites et collectent leurs informations pour générer des publicités personnalisées.
Cookie
Type
Durée
Description
ATN
1
2 years
Ce cookie est installé par atdmt.com et stockent des données sur le comportement de l'utilisateur sur plusieurs sites Web. Les données sont ensuite utilisées pour diffuser des publicités pertinentes aux utilisateurs du site Web.
bito
0
1 year
bitoIsSecure
0
1 year
bscookie
1
2 years
chkChromeAb67Sec
0
2 months
CMID
0
1 year
CMPRO
0
2 months
CMPS
0
2 months
CMST
0
1 day
cref
0
1 year
damd
0
1 year
dc
0
9 years
dmvk
0
dmxId
0
9 months
fr
1
2 months
Le cookie est installé par Facebook pour montrer des publicités pertinentes aux utilisateurs et mesurer et améliorer les publicités. Le cookie suit également le comportement de l'utilisateur sur le Web sur les sites dotés d'un pixel Facebook ou d'un plugin social Facebook.
GED_PLAYLIST_ACTIVITY
0
glassbox-session-id
0
30 minutes
IDE
1
2 years
Utilisé par Google DoubleClick, ce cookie stocke des informations sur la façon dont l'utilisateur utilise le site Web et toute autre publicité avant de visiter le site Web. Ceci est utilisé pour présenter aux utilisateurs des publicités qui les concernent en fonction du profil de l'utilisateur.
KADUSERCOOKIE
0
2 months
KTPCACOOKIE
0
1 day
lang
0
Ce cookie est utilisé pour stocker les préférences linguistiques d'un utilisateur afin de diffuser du contenu dans cette langue stockée lors de sa prochaine visite sur le site Web.
lissc
0
1 year
li_sugr
0
2 months
matchbidswitch
0
1 month
MUID
0
1 year
Utilisé par Microsoft comme identifiant unique. Le cookie est défini par des scripts Microsoft intégrés. Le but de ce cookie est de synchroniser l'ID sur de nombreux domaines Microsoft différents pour permettre le suivi des utilisateurs.
pardot
0
Le cookie est défini lorsque le visiteur est connecté en tant qu'utilisateur Pardot.
personalization_id
0
2 years
Ce cookie est utilisé par Twitter pour intégrer les fonctionnalités de partage de ce média social. Il stocke également des informations sur la manière dont l'utilisateur utilise le site Web pour le suivi et le ciblage.
PUBMDCID
0
2 months
Ce cookie est défini par pubmatic.com. Le cookie stocke un identifiant utilisé pour afficher des publicités sur le navigateur des utilisateurs.
ROUTEID
0
ss
1
9 years
SyncRTB3
0
2 months
TDCPM
0
1 year
Le cookie est défini par le service CloudFlare pour stocker un identifiant unique afin d'identifier un appareil d'utilisateurs qui reviennent, qui est ensuite utilisé pour la publicité ciblée.
TDID
0
1 year
Le cookie est défini par le service CloudFlare pour stocker un identifiant unique afin d'identifier un appareil d'utilisateurs qui reviennent, qui est ensuite utilisé pour la publicité ciblée.
test_cookie
0
11 months
ts
1
1 year
tuuid
0
9 years
Ce cookie est défini par .bidswitch.net. Les cookies stockent un identifiant unique dans le but de déterminer les publicités que les utilisateurs ont vues si vous avez visité l'un des sites Web des annonceurs. Les informations sont utilisées pour déterminer quand et à quelle fréquence les utilisateurs verront une certaine bannière.
u
0
2 months
UserMatchHistory
0
1 month
usprivacy
0
1 year
ut
0
9 years
v1st
0
1 year
viewer_token
0
1 month
wfivefivec
0
1 year
_fbp
0
2 months
Ce cookie est défini par Facebook pour diffuser des publicités lorsqu'ils sont sur Facebook ou sur une plate-forme numérique alimentée par la publicité Facebook après avoir visité ce site Web.
Les champs signalés avec une étoile (*) sont obligatoires