L’IA ne doit pas être laissée aux « caprices » du marché, alerte l’ONU
Publié le - par Le Blob.fr, avec l’AFP
Le développement de l’intelligence artificielle (IA) et les risques associés ne peuvent être abandonnés « aux caprices » du marché, mettent en garde jeudi des experts de l’ONU qui plaident pour des outils de coopération internationale sans aller toutefois jusqu’à une agence mondiale de gouvernance.
Le secrétaire général de l’ONU, Antonio Guterres, avait mis en place il y a près d’un an ce comité d’une quarantaine d’experts dans le domaine des technologies, du droit ou de la protection des données personnelles, issus du monde universitaire, de gouvernements ou encore du secteur privé comme Microsoft, Google-Alphabet et OpenAI. Leur rapport final, publié à quelques jours du « Sommet pour l’avenir » à New York, constate sans surprise « le déficit de gouvernance mondiale en matière d’IA », et la quasi exclusion des pays en développement des discussions sur un sujet existentiel.
Ainsi, sur les 193 Etats membres de l’ONU, seuls sept font partie de sept initiatives majeures liées à la gouvernance de l’IA (dans le cadre de l’OCDE, du G20 ou du Conseil de l’Europe), et 118 en sont totalement absents, principalement des pays du sud. Pourtant, la nature même, « transfrontalière » de ces technologies « nécessite une approche mondiale », insiste le comité.
« L’IA doit servir l’humanité de façon équitable et sûre », a répété cette semaine Antonio Guterres. « Sans contrôle, les dangers posés par l’intelligence artificielle pourraient avoir des implications graves pour la démocratie, la paix et la stabilité ».
Dans ce contexte, le comité d’experts appelle les États membres de l’ONU à mettre en place des outils pour une meilleure coopération mondiale, encourager les progrès de l’humanité et éviter les dérapages. Parce que « personne » ne peut aujourd’hui prédire l’évolution de ces technologies et ceux qui prennent les décisions ne rendent pas de comptes lors du développement et de l’utilisation de systèmes « qu’ils ne comprennent pas ». Dans ces circonstances, « le développement, le déploiement et l’utilisation d’une telle technologie ne peuvent être laissés seulement aux caprices des marchés », insistent-ils, soulignant le rôle « crucial » des gouvernements et des organisations régionales.
Premier outil suggéré, la création d’un Groupe international d’experts scientifiques sur l’IA, s’inspirant du modèle des experts de l’ONU sur le climat (Giec) dont les rapports font référence en la matière. Ces scientifiques éclaireraient la communauté internationale sur les risques émergents, les secteurs où des recherches supplémentaires sont nécessaires ou encore identifieraient comment certaines technologies pourraient aider à remplir les objectifs de développement durable (élimination de la faim, de la pauvreté, égalité hommes-femmes, climat…). Cette idée est reprise dans le projet de Pacte numérique mondial, encore en discussion, qui doit être adopté dimanche par les 193 Etats membres de l’ONU lors du « Sommet de l’avenir ».
Les experts suggèrent également la mise en place d’un dialogue politique intergouvernemental régulier sur le sujet et d’un fonds pour aider les pays en retard. Pour servir de « colle » entre les différents outils, ils plaident pour la mise en place d’une structure légère au sein du secrétariat de l’ONU. En revanche, ils ne soutiennent pas l’idée d’une agence internationale de gouvernance à part entière, évoquée notamment par Antonio Guterres, sur le modèle par exemple de l’Agence internationale pour l’énergie atomique (AIEA). Même si leur mandat leur demandait d’explorer cette possibilité, « nous ne recommandons pas à ce stade d’établir un telle agence ». « Si les risques de l’IA deviennent plus sérieux, et plus concentrés, il pourrait devenir nécessaire pour les Etats membres d’envisager une institution internationale plus robuste, avec des pouvoirs de surveillance, de signalement, de vérification et d’exécution », tempèrent-ils.
Même s’ils notent que dresser une liste exhaustive des risques est une « cause perdue d’avance » dans un secteur au développement ultra rapide dont personne ne peut prédire l’évolution, ils listent toutefois certains dangers identifiés : désinformation qui menace la démocratie, deepfakes plus personnels (sexuels notamment), violations des droits humains, armes autonomes, utilisation par des groupes criminels ou terroristes…
« Etant donné la rapidité, l’autonomie et l’opacité des systèmes d’IA, attendre l’émergence d’une menace pourrait signifier qu’il est déjà trop tard pour y répondre », admettent-ils, comptant sur l’évaluation scientifique constante et les échanges politiques pour que « le monde ne soit pas pris par surprise ».