Image principale 1
Image principale 1
Stock-adobe.com©

Le développement de l'intelligence artificielle : risque ou opportunité ?

Temps de lecture  11 minutes

Par : La Rédaction

L'intelligence artificielle (IA) et ses usages se développent rapidement. L'IA suscite des débats sur les opportunités ou les dangers qu’elle représente. Face à cette "révolution technologique", quels rôles les institutions publiques entendent-elles jouer, entre promotion d’une technologie et protection des droits et libertés ?

État des lieux

L'intelligence artificielle n'est plus un thème d'anticipation pour amateurs de science fiction. Elle s'est installée depuis une dizaine d'année dans de nombreux secteurs d'activité : industrie, administrations, santé, services, commerce... dans la continuité de l'ère de la digitalisation entamée dans les années 2000.

La Commission européenne propose une définition de l'IA : "ensemble de logiciels qui est développé au nom d'une ou plusieurs techniques et approches, qui peut, pour un ensemble donné d'objectifs définis par l'homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit." 

La technologie IA fait appel à trois types de techniques et d'approches : 

  • l'apprentissage automatique (à l'aide de données d'entrainement) ;
  • une approche fondée sur la logique et la connaissance ;
  • une approche statistique.

Elle est rendue possible grâce à la conjonction de plusieurs facteurs  :

  • une généralisation de la donnée numérique ;
  • des interconnexions permettant les flux d'échanges de données ;  
  • des algorithmes de plus en plus complexes inspirés des sciences neuronales ; 
  • la progression exponentielle de la puissance des processeurs (loi de Moore).

L'arrivée récente d'applications dites "génératives" comme ChatGPT ou Midjourney a révélé, à la fois, la maturité de la technologie IA qui lui permet de se déployer dans le secteur grand public, et une propension du public à intégrer dans ses usages la présence d'une assistance artificielle, y compris dans le champ de la création.

Si de nombreuses applications grand public font d'ores et déjà appel à l'IA (assistants de conduite, traducteurs en temps réel, outils de discussion virtuelle, moteurs de recherche...), les bouleversements induits par l'IA sont encore peu visibles. 

Mais compte tenu de la puissance de l'outil et de sa rapidité de développement, les pouvoirs publics se sont emparé de la question, notamment pour étudier les impacts dans les secteurs structurels (emploi, éducation, justice, sécurité, santé publique...).

Dès lors, deux axes majeurs ont émergé des travaux confiés aux institutions nationales sur les stratégies de développement de l'IA (Conseil d'État, commissions parlementaires, CNIL...) :

  • la nécessité de développer la technologie IA par des politiques d'investissement fortes en direction des start-ups, des administrations, des territoires, afin d'être présents dans un domaine déjà très concurrentiel ;
  • la nécessité de mettre en place des règles communes quant à l'usage de l'IA au plan national et européen et imposer des pratiques de l'IA respectueuses des valeurs de libertés individuelles et de protection des individus et des données personnelles.

De la machine de Turing à ChatGPT

De la machine de Turing dans les années 40, au stade actuel de reproduction artificielle de réseaux neuronaux profonds, l'IA n'a cessé de progresser par phases successives au cours des décennies :

  • les débuts de l'exploration de la pensée artificielle dans les années 50 ;
  • l'ère des règles et des arbres de recherche dans la décennie 50-60 aboutissant au programme de jeu d'échec "Deep blue" d'IBM ;
  • l'apprentissage automatique grâce à la mise au point d'algorithmes capables d'apprendre à partir des données et d'améliorer leurs performances au fil du temps, début des réseaux neuronaux profonds ;
  • l'ère du Big Data dans les années 2000 qui permet de développer des modèles d'apprentissage automatique plus sophistiqués grâce à la quantité massive de données disponibles ;
  • l'apprentissage en profondeur ("deep learning") à partir de 2010 qui abouti aujourd'hui à la reconnaissance d'images, à la compréhension du langage naturel, et, demain, à la compréhension contextuelle par une "IA forte" ou "superintelligence". 

Risques identifiés

Le rapport Villani remis en 2018, "donner un sens à l'intelligence artificielle", prône le développement d'une IA avec un État qui soit moteur des transformations à venir dans quatre champs stratégiques : la santé, l'environnement, les transports et la mobilité, la défense et la sécurité.

Pour y parvenir, le rapport recommande de développer la recherche en IA, notamment par la création d'instituts interdisciplinaires d'intelligence artificielle (3IA) répartis sur l'ensemble du territoire national, ces instituts devant permettre de rivaliser avec les moyens "quasi-illimités" des grands acteurs privés.

Le rapport pointe également la nécessité d'anticiper les impacts sur le travail et l'emploi compte tenu des effets combinés de l'IA, de l'automatisation et de la robotique dans de nombreux champs d'activité.

L'étude sur les impacts économiques et sociaux de l'IA de France Stratégie corrobore les risques pointés par le rapport Villani sur l'emploi : 

  • une plus grande "prolétarisation" des travailleurs privés d’un savoir ;
  • un désengagement des travailleurs du fait de l’appauvrissement des relations interpersonnelles ;
  • une délégation accrue de la prise de décision.

Etude sur d'impact de l'IA dans trois secteurs professionnels

Une étude de France Stratégie observe plus précisément les effets sur le travail et l'emploi dans trois secteurs ayant déjà recours à l'IA : le transport, les banques et la santé.

L'étude retient trois scénarios possibles : une requalification à la hausse pour certains postes déchargés des tâches élémentaires par l'IA ; une perte de qualification pour d'autres surclassés  par l'IA ; un plus grand isolement pour les travailleurs cantonnés à une rôle de simples exécutants.. 

Risques de dépendance et de plateformisation 

Au delà des effets de l'IA sur le travail et l'emploi, les différentes commissions pointent un risque de domination économique des GAFAM si les États européens ne parviennent pas à définir des règles en commun et déployer leurs propres compétences en matière d'IA.

Avec le rôle central qu'occupera l'IA dans de nombreux secteurs d'activité à l'avenir (industrie, service, médecine...), les acteurs majeurs de l'IA (Google, Amazone, IBM...) pourraient devenir incontournables et définir eux-mêmes les règles du jeu.

L'étude de France Stratégie met en garde contre un effet de plateformisation similaire à celui constaté dans le secteur du tourisme avec l'émergence d'entreprises comme Booking, Uber ou Airbnb. Cette situation pourrait conduire à une concentration encore plus importante de la valeur économique entre les mains des GAFAM avec pour conséquence de moindres recettes fiscales pour les États et un risque de perte de souveraineté.   

La question des données est présentée comme essentielle dans le rapport Villani qui insiste sur la nécessité de renforcer l'écosystème européen de la donnée, notamment "en favorisant l'accès aux données, la circulation de celles-ci et leur partage". Cette politique a déjà été amorcée au niveau européen avec le Digital Market Act. Mais il s'agit de la renforcer dans un objectif de "souveraineté et d'autonomie stratégique pour la France et l'Union européenne".   

Les stratégies de l'État pour le développement de l'IA

Le rapport du Conseil d'État rédigé en 2022 "Intelligence artificielle et action publique : construire la confiance, servir la performance" plaide pour le développement de l'IA dans les services publics sous réserve du respect de sept principes structurants pour une "IA publique de confiance" :

  • la primauté humaine ;
  • la performance ;
  • l’équité et la non-discrimination ;
  • la transparence ;
  • la sûreté (cybersécurité) ;
  • la soutenabilité environnementale ;
  • l’autonomie stratégique.

Le rapport met en avant les atouts de l'État, grand collecteur de données numériques, qui peut s'appuyer sur l'expérience de transformation numérique engagée depuis1998 dans les services administratifs et sur la création de structures nationales dédiées au numérique :

  • la direction interministérielle du numérique (Dinum) mise en place en 2019, chargée d'élaborer la stratégie numérique de l'État et de piloter sa mise en œuvre ;
  • la Commission nationale informatique et liberté (CNIL) qui examine les enjeux de la pénétration des systèmes numériques dans la société du point de vue de la protection des données personnelles ;
  • la direction interministérielle de la transformation publique (DITP) qui constitue, auprès des administrations, un appui pour la mise en œuvre et l'accélération des politiques prioritaires du gouvernement

Cette volonté de développement de l'IA par les acteurs publics se manifeste également par l'élaboration de plans stratégiques successifs depuis 2017 :

  • Le plan France IA, qui fait suite au rapport Stratégie France IA présenté en mars 2017. Il vise à "promouvoir la recherche, l'innovation et l'adoption de l'IA en France". Ce plan comprend des investissements dans la recherche fondamentale, la création de chaires universitaires, le soutien aux start-ups et la promotion d'une éthique l'IA ;
  • Le programme d'investissement d'avenir de 2021 (PIA ) doté de 20 milliards d'euros sur 5 ans qui comprend une enveloppe de 12,5 milliards d'euros pour financer des investissements dans les filières technologiques et des projets collaboratifs ;
  • La stratégie nationale pour l'IA.

Ce processus de développement passe aussi par un soutien public à des initiatives associatives dont la vocation est de rapprocher les acteurs du secteur : France Digitale (crée en 2012), Hub France IA.

La stratégie nationale pour l'intelligence artificielle

La Stratégie nationale pour l'intelligence artificielle annoncée en 2018 dans la foulée de la mission présidée par Cédric Villani, ambitionne "une structuration de long terme de l'écosystème IA". Cette stratégie s'opère en deux phases : de 2018 à 2022 et de 2021 à 2025. 

À l'issue de la première phase, dotée initialement de 1,5 milliard d'euros, le ministère de l'économie et des finances annonce un bilan de 81 laboratoires d'IA, de 502 startups spécialisées en IA et de 13 459 emplois spécifiquement dans l'IA et 70 000 emplois indirects.

La deuxième phase du plan lancée en 2021 prévoit de consacrer un investissement de 2,22 milliards d'euros à l'IA sur cinq ans, dont 1,5 milliard d'euros de financements publics et 506 millions d'euros de cofinancements privés. Certains domaines de l'IA sont particulièrement ciblés : 

  • l'IA embarquée ou intégrée, présente dans les appareils ou les composants
  • l'IA "de confiance" répondant à des normes de transparence et de confidentialité ;
  • l'IA au service de la transition écologique ;
  • l'IA générative et les modèles géants de langage.

Des appels à projets sont lancés par Bpi France, la Banque des Territoires, l'Agence nationale de la recherche. Ils concernent divers développements techniques de l'IA : les systèmes fonctionnels critiques, la science des données au service des territoires, l'architecture d'algorithmes... 

Quelle politique de l'IA au niveau européen ?

En 2018, la Commission européenne présentait un plan coordonné pour le développement de l'IA. Ce plan avait pour vocation d'inciter les pays membres de l'UE à ouvrir les débats sur le sujet et à développer une stratégie nationale qui passe par l'investissement.

Le Parlement européen s'est prononcé le 14 juin 2023 en faveur du projet européen de régulation de l'intelligence artificielle

Le proposition de règlement de l'UE sur l'intelligence artificielle (AI Act) vise à établir un cadre réglementaire pour l'utilisation de l'IA au sein de l'Union européenne qui s'appuie notamment sur une catégorisation des systèmes d'IA en fonction de leur niveau de risque :

  • les systèmes d'IA interdits car considérés comme particulièrement dangereux pour les droits fondamentaux, tels que les systèmes de surveillance sociale utilisés par les autorités publiques pour surveiller ou évaluer le comportement des personnes ;
  • les systèmes d'IA à haut risque tels que les dispositifs médicaux ou les technologies de transport autonomes, qui nécessitent des exigences strictes de transparence, de traçabilité, d'évaluation de la conformité, de documentation technique, de surveillance et de contrôle.
  • les systèmes d'IA à risque limité soumis à des exigences moins strictes que les systèmes à haut risque, mais qui doivent néanmoins respecter certaines normes.

Le règlement UE prévoit également des mécanismes de certification par des organismes tiers pour les systèmes d'IA à haut risque afin de garantir leur conformité aux règles établies et l'établissement de normes auxquelles les fournisseurs de systèmes d'IA devront se conformer pour se déployer sur le marché européen.