Regards Centristes est une série d’études du CREC qui se penchent sur
une question politique, économique, sociale ou sociétale sous le prisme d’une vision
centriste. Dix-neuvième numéro consacré au positionnement
du Centrisme face aux techniques et applications de l’intelligence artificielle
qui commencent à être mises en place dans nos sociétés modernes et qui vont
continuer à l’être dans les décennies à venir. Cette arrivée de l’AI est un
fait capital qui pourrait, in fine, changer, non seulement les caractéristiques
de nos sociétés mais, peut-être aussi, la définition même de ce qu’est
l’être humain ou la vie, avec tous les avantages extraordinaires qu’elles
véhiculent mais aussi tous les dangers – dont certains sont
particulièrement inquiétants voire aux conséquences dramatiques et funestes –
qu’elles recèlent.
L’Intelligence artificielle ou AI, terme inventé par John
McCarthy, est «la construction de programmes informatiques
qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus
satisfaisante par des êtres humains car elles demandent des processus mentaux
de haut niveau tels que: l’apprentissage perceptuel, l’organisation de la mémoire
et le raisonnement critique» selon la définition d’un de ses créateurs, Marvin
Lee Minsky.
«En d’autres termes, explique le site internet du ministère
de la Recherche et de l’Enseignement supérieur, «une intelligence artificielle
c’est avant tout un programme informatique visant à effectuer, au moins aussi
bien que des humains, des tâches nécessitant un certain niveau d’intelligence.
L’horizon à atteindre concerne donc potentiellement l’ensemble des champs de
l’activité humaine: déplacement, apprentissage, raisonnement, socialisation,
créativité, etc. Néanmoins nous sommes encore loin d’avoir créé une machine
capable d’égaler l’humain dans tous les domaines.»
Cependant, le «livret de vulgarisation» édité en mars 2018
par la Mission sur l’intelligence artificielle pilotée par le député et
mathématicien Cédric Villani nous dit que cela n’est pas aussi simple:
«Définir l’intelligence artificielle (IA) n’est pas chose
facile. Le champ est si vaste qu’il est impossible de la restreindre à un
domaine de recherche spécifique; c’est plutôt un programme multidisciplinaire.
Si son ambition initiale était d’imiter les processus cognitifs de l’être
humain, ses objectifs actuels visent plutôt à mettre au point des automates qui
résolvent certains problèmes bien mieux que les humains, par tous les moyens
disponibles. Ainsi l’IA vient au carrefour de plusieurs disciplines: informatique,
mathématique (logique, optimisation, analyse, probabilités, algèbre linéaire),
sciences cognitives... sans oublier les connaissances spécialisées des domaines
auxquelles on souhaite l’appliquer. Et les algorithmes qui la sous-tendent
reposent sur des approches tout aussi variées: analyse sémantique,
représentation symbolique, apprentissage statistique ou exploratoire, réseaux
de neurones, etc.»
Dans le but de développer l’AI, nombre de pays ont débloqué
des fonds et créé des structures comme c’est le cas de la France avec une
stratégie dévoilée par Emmanuel Macron en 2018, à laquelle 1,5 milliard d’euros
est consacrée sur cinq ans afin de permettre au pays d’être dans le top 5 en la
matière qui est actuellement dominée par les Etats-Unis, la Chine, Israël, le
Canada et le Royaume Uni.
Il s’agit là d’une stratégie industrielle pour développer
les entreprises du secteur ainsi que les centres de recherche tout en prenant
en compte les problèmes éthiques.
Ce sont ces problèmes qui nous intéressent ici ainsi que
l’intérêt pour les individus de bénéficier ou non des techniques et des applications
concrètes de l’AI, tant par l’informatique que par l’électronique, dans la vie
quotidienne, réalisées par des machines qui utilisent ces programmes que ce
soit en matière médicale ou militaire, financière ou de transport, etc.
Parce que la seule légitimité politique de l’AI est bien d’être
une technologie qui apporte du mieux aux habitants de la planète.
Or la réponse est loin d’être évidente.
Prenons la sécurité où l’intelligence artificielle est
largement utilisée en particulier dans les pays autoritaires et totalitaires.
Si la seule sécurité recherchée est celle des citoyens, l’AI
est un outil légitime même s’il doit être manié avec précaution pour ne pas
interférer avec leur liberté.
S’il s’agit d’assurer avant tout et coûte que coûte la
sécurité d’un régime rejeté par la population, pire, celle de ses dirigeants,
par la mise sous surveillance de tous les citoyens alors elle n’a plus aucune
légitimité.
Une des peurs les plus récurrentes face à l’AI est qu’elle
puisse produire une machine qui serait plus intelligente que l’être humain et
qu’elle prenne le pouvoir et le contrôle.
Ce scénario (appelé «intelligence artificielle forte»), pour
les spécialistes, demeurent encore aujourd’hui de la science fiction et rien ne
dit que les chercheurs puissent jamais parvenir à créer un tel monstre.
En revanche, le développement de l’«intelligence
artificielle faible» se fait depuis des années dans des tâches spécifiques et
limitées (allant de l’aide au diagnostic en matière médicale à la traduction
instantanée en passant par les recherches sur internet avec les fameux
algorithmes dont le plus connu est celui de Google).
Ainsi, le rapport gouvernemental «Donner un sens à l’intelligence
artificielle» explique les enjeux:
«L’intelligence artificielle affecte désormais tous les
aspects de nos vies sociales. Sans toujours le savoir, nous interagissons
quotidiennement avec des systèmes intelligents qui optimisent nos déplacements,
créent nos playlists favorites ou protègent nos boîtes électroniques des
courriels indésirables. Ils nous servent de manière invisible. C’est du moins
l’objectif qu’on leur assigne : rendre nos vies meilleures, tâche par tâche. Les
progrès récents de l’IA dans de nombreux domaines (voitures autonomes,
reconnaissance d’images, assistants virtuels) et son influence croissante sur
nos vies l’ont placée au centre du débat public. Ces dernières années de nombreuses
voix se sont interrogées sur la capacité de l’IA à réellement œuvrer pour notre
bien-être et sur les dispositions à prendre pour s’assurer que cela soit le
cas. Ce débat a principalement pris la forme d’une large réflexion sur les
enjeux éthiques liés au développement des technologies d’intelligence
artificielle et plus largement des algorithmes. En différents endroits du
monde, experts, régulateurs, universitaires, entrepreneurs et citoyens
discutent et échangent régulièrement sur les effets indésirables, actuels ou
potentiels de ceux-ci et les moyens de les atténuer.»
En France, les pouvoirs publics ont définis quatre secteurs
prioritaires où doivent se concentrer les efforts de son développement: la
santé, les transports, l'environnement et la défense.
Une des questions cruciales sur l’AI, est l’utilisation de
ses capacités en matière de reconnaissance et d’interprétation d’images.
Au départ, celles-ci ont plusieurs applications possibles
comme l’évoque ce rapport gouvernemental issu de la mission confiée à Cédric
Villani:
«Interpréter une image —reconnaître une personne ou un objet
et l’environnement avoisinant —est une chose relativement facile pour un
humain. Chaque jour, notre cerveau traite sans grand effort des informations
visuelles complexes: une photo de famille, une voiture, un paysage. Mais pour
un ordinateur, c’est une tâche très difficile. Pourtant l’enjeu est de taille,
car le développement de la voiture autonome (pour la perception de son
environnement), l’annotation automatique d’images, l’amélioration des systèmes
d’identification, la détection de pathologies à partir de dispositifs
d’imagerie médicale sont tous dépendants des progrès en matière de reconnaissance
d’images et de vidéos.»
Mais l’une d’elle est bien la surveillance des individus et,
une surveillance à grande échelle comme l’a déjà mis en place la Chine, pays
totalitaire et que nous avons évoqué plus haut.
Une autre qui pose les mêmes questionnements sur sa
légitimité démocratique et les dangers qu’elle recèle et sur laquelle tous les
pays du monde travaillent est «la police prédictive».
Le même rapport note ainsi:
«Les départements de police, en premier lieu aux États-Unis
et à présent en Europe, explorent la possibilité d’utiliser des algorithmes
prédictifs dans le cadre de leurs activités. Cette méthode, communément appelée
police prédictive, fait référence à l’application des techniques de prévision
et d’analyse de données massives (big data) à la prévention de la criminalité.
Elle renvoie en réalité à deux applications distinctes : la première consiste à
analyser des données géographiques pour identifier des zones à risque
(hotspots) où des délits et des crimes sont susceptibles de se produire afin
d’accroître la surveillance de ces zones et ainsi produire une force de
dissuasion. La seconde concerne plutôt l’analyse des données sociales et des comportements
des individus pour identifier des victimes ou criminels potentiels et agir
promptement. Ces deux applications sont déjà déployées dans plusieurs
métropoles américaines, et les services de police et de gendarmerie français et
européens s’interrogent sur l’opportunité de les intégrer à leurs outils de
prévention. Les premiers travaux disponibles sur leurs effets aux États-Unis
incitent à la prudence. Les solutions de police et justice prédictive
comportent non seulement d’importantes limites techniques, mais ils peuvent
également se révéler attentatoires aux libertés fondamentales (vie privée,
droit à un procès équitable).Sur un plan purement pratique, il nous faut garder
à l’esprit qu’aussi sophistiqués qu’ils puissent être, ces systèmes restent
faillibles : ils peuvent se tromper et mal classifier les individus qu’ils
évaluent avec, comme conséquence, des effets potentiellement désastreux sur
leur vie.»
Autre questions cruciale, l’utilisation des informations
collectées via les systèmes d’AI sur chacun de nous et qui peuvent être
disponibles par des individus, des groupes et des entités qui peuvent s’en
servir pour de multiples raisons (comme l’employeur pour «éliminer» les «brebis
galeuses») et pour nous contrôler.
Dans cette liste des possibles «dérapages» de l’AI, il faut
mentionner l’explosion des «fake news» grâce, notamment, à la possibilité de
les diffuser via les réseaux sociaux et autres sites internet par la grâce d’algorithmes
qui permettent d’inonder la toile de ces infox qui deviennent virales et sont
souvent reprises par les médias traditionnels (dont les cellules de «fact
checkers», vérificateurs de faits, sont, au plus, pas assez importantes quand
ce n’est pas totalement inefficaces, voire, elles-mêmes propagatrices de ces
fake news qu’elles prétendent combattre…).
D’où la nécessité, pour le Centrisme, d’établir un cadre
légal, un code de bonne conduite, un organisme de contrôle et un large débat
continuel au sein de la population avec la possibilité, à tout moment, de
prendre des décisions rapides avant que la situation ne s’impose aux citoyens
comme un fait accompli.
Parce que l’AI a évidemment une double facette comme toutes
les technologies, celle d’améliorer notre vie et notre quotidien mais aussi
celle de créer des menaces.
Dans le cas présent, la manipulation et le contrôle des
personnes recèlent en elles des atteintes graves à la liberté et à l’individualité
de celles-ci mas aussi au système démocratique.
Néanmoins, il est illusoire de penser que l’on peut bloquer
le développement de l’AI et ce serait même aller à l’encontre de progrès
évidents dans de multiples secteurs.
Ainsi, une récente étude montre que celle-ci obtient de
meilleurs résultats que les médecins dans la détection des cancers du sein, un
exemple parmi d’autres qui encourage à l’utiliser.
Pour autant, comme toute technique, elle doit être encadrée
pour qu’elle serve les humains et non le contraire et qu’elle serve tous les
humains et non les projets de quelques uns à leur unique profit et pour leurs
entreprises qui seraient des dangers pour le respect de la dignité humaine.
C’est évidemment la position du Centrisme vis-à-vis des
valeurs humanistes qui le fondent.
Un Centrisme qui ne peut que partager la proposition de
Cédric Villani: «Il faut une instance pour émettre des avis, donner des
jugements en toute indépendance, qui puisse être saisie par le gouvernement
comme par les citoyens, et qui nous dise ce qui est acceptable ou non
acceptable».
Alexandre Vatimbella avec l’équipe du CREC
Dans la même collection: