Nos propositionsLivres blancs

Livre blanc

64 propositions pour une éthique des systèmes d'intelligence artificielle

En restitution des premières Assises nationales de l’éthique du numérique à Nevers

Fichiers

Qu’est-ce qu’une éthique de l’IA ? Quelques propos introductifs Le présent livre blanc intervient dans un contexte de prime abord peu favorable à la diffusion de propositions sur l’éthique de l’IA.

64 propositions pour une éthique des systèmes d'intelligence artificielle
Conceptual rendering of facial recognition technology depicting artificial intelligence scan de Bigate Creative

L’espace médiatique et politique semble en effet saturé de références à ce thème majeur, mais pourtant assez diffus. Depuis la mise sur le marché de ChatGPT en novembre 2022, le discours politique, économique et médiatique est empli de références à l’intelligence artificielle, dont il est devenu banal d’affirmer qu’elle doit être « responsable », « éthique », « de confiance ». Volontiers décrite comme une révolution technologique inédite et une source infinie d’opportunités pour l’humanité par les uns, l’IA est en même temps décriée par les autres, tant ses impacts sociaux, énergétiques et économiques questionnent. Il fallait donc poser la question : qu’est-ce que l’éthique de l’IA, finalement ?

Elle a été posée, frontalement, aux participantes et participants aux premières Assises nationales de l’éthique du numérique, dont le thème était précisément « l’éthique des systèmes d’IA ».

Tenues à Nevers (58), à l’invitation de la ville et de l’agglomération et avec le soutien de nombreux acteurs de la région (Région Bourgogne ; Université Bourgogne Europe, Faculté de droit Guy Coquille de Nevers), de laboratoires (CREDIMI ; CID ; IRENEE) et du secteur du numérique (Chaire Smart Cities de l’Université Bourgogne Europe, Institut AI and Sustainability de l’ESSCA, Fondation Anthony Mainguéné, Chaire Plateformes numériques et souveraineté de l’Université de Lorraine), ces Assises ont permis à une centaine de personnes de réfléchir concrètement à ce sujet. Les Assises ont été marquées par l’esprit de « transparence constructive » qui caractérise les travaux de l’Observatoire de l’éthique publique : il s’est agi de construire des solutions, de créer des idées, pour les porter ensuite au niveau national, européen et international.

L’événement a débuté par une première conférence par laquelle l’auteur de ces lignes a rappelé quelques-unes de ses propositions récentes à ce sujet, et posé le cadre des discussions.

La première proposition consiste à dégager trois piliers d’une éthique de l’IA simplifiée : l’intégrité, la dignité et la durabilité[1]. Plutôt que de multiplier les lignes directrices complexes combinant parfois une dizaine de principes éthiques, pour certains peu opérationnels, un modèle à trois entrées paraît, en effet, aisément mobilisable[2]. Dans ce modèle, le développement de systèmes d’IA serait intègre, à condition d’être transparent ; que ses avantages comme ses inconvénients soient publiquement connus ; et que ses biais fassent l’objet de communication et de tentatives de corrections respectueuses des deux autres piliers. On peut ajouter aux conditions d’intégrité d’un système d’IA son développement respectueux du droit applicable et l’interrogation de ses concepteurs, sans nécessairement pouvoir tous les anticiper, à propos des mésusages possibles de leur création. Un système IA respecterait le principe de dignité si son développement et son usage profitaient au développement humain et que ses coûts sociaux étaient acceptables dans une société donnée – en considérant l’ensemble de sa chaîne de valeur, à commencer par les conditions d’extraction des matériaux nécessaires à la construction des centres de données et des infrastructures. Enfin, une IA serait durable si elle ne compromettait pas la capacité des générations futures à vivre, à exploiter différemment les ressources naturelles et à faire leurs propres choix au service de leur développement.

La deuxième proposition consiste à prendre de la hauteur sur ce modèle pour constater qu’il ne permet pas de sortir de l’approche strictement « principiste » ou « principielle » de l’éthique de l’intelligence artificielle. Autrement dit, si une réduction du nombre croissant de « principes » d’éthique de l’IA – alors que la Recommandation de l’UNESCO en inventorie par exemple 10, dont la plupart sont en réalité des doubles principes[3] – est utile pour y voir plus clair, mais ne résout pas le problème de fond. En réduisant l’éthique d’une innovation à une liste de principes, voire au simple respect de dispositions législatives peu protectrices en l’état, on passe à côté de l’essentiel. Pour s’en convaincre, il suffit de lire littérature sur l’éthique des affaires, qui ne se satisfait pas non plus de listes de principes plus ou moins clairement définis[4], et dont l’éthique du numérique dérive directement. L’éthique est un questionnement quant à son propre comportement, et même un processus de questionnement. La borner à une série de principes pas toujours clairs à propos desquels il conviendrait de s’interroger ne fait que figer le questionnement, lequel doit au contraire être évolutif. Aussi est-il indispensable de sortir de cette approche, ou à tout le moins de ne pas limiter l’éthique de l’IA à une démarche de type principiste.

La troisième proposition consiste à tirer les leçons de ce qui précède. Cela consiste essentiellement à ralentir pour réfléchir. L’approche principielle est une solution de facilité : une fois un travail de réflexion autour des principes réalisé, ou des principes établis par d’autres réinvestis, il peut être tentant de tourner cette page pour se concentrer sur le développement, l’innovation, la réussite du modèle économique. Pourtant, les risques de l’intelligence artificielle, dont on mesure chaque jour davantage l’ampleur, ne peuvent être concrètement pris en considération sans un travail de fond impliquant une réflexion longue, peu adaptées aux sirènes de l’urgence économique – mais nécessaire à la considération de l’urgence écologique, qui prescrit elle-aussi un ralentissement généralisé et une rationalisation du développement à marche forcée, en tout lieu, de systèmes d’IA génératives. Cette troisième proposition pouvait, en avril 2025 à l’ouverture des Assises, trouver appui dans l’avis n°7 du Comité national pilote d’éthique du numérique, et particulièrement la préconisation G2 : vitesse d’adoption par les acteurs économiques : « [l]es acteurs économiques et les autorités publiques doivent faire preuve de prudence dans la vitesse d’adoption des systèmes d’IA générative et prévoir des évaluations préalables et continues »[5].

Les Assises s’ouvraient donc avec un double enjeu comme boussole : ne pas en rester aux listes de principes, et ralentir (ou s’asseoir, comme y invitent des Assises !) pour mieux réfléchir. Incidemment, il s’est donc agi de cibler les meilleurs usages – selon des critères à construire collectivement – et interroger l’intérêt des autres.

Les discussions se sont tenues autour de plusieurs séances plénières et de pas moins sept ateliers dont on trouvera dans ce livre blanc une synthèse des débats et propositions qui en sont ressortis. Chaque atelier réunissait un(e) universitaire, un(e) membre de l’Observatoire de l’éthique publique, un(e) élu(e) local(e) ou un(e) agent(e) d’administration ou d’entreprise publique, et un(e) rapporteur(e) chargé(e) de rédiger la synthèse des réflexions. On peut mentionner ici les thèmes retenus, qui font tous l’objet de propositions dans le présent livre blanc : l’administration augmentée par l’IA (quelles limites éthiques à l’utilisation de l’IA dans la prise de décision ?), les limites éthiques au développement des systèmes de surveillance algorithmique, mettre l’IA au service de la science, concilier développement de l’IA et droits des travailleurs, mettre l’IA au service de la transparence de la gestion publique, concilier développement technologique et protection de l’environnement, les moyens éthiques pour lutter contre la désinformation en ligne.

Il en ressort plus de 64 propositions concrètes que l’on découvrira dans les pages qui suivent, sous la brillante plume des rapporteurs, toutes et tous en doctorat de droit dans plusieurs universités françaises.

Depuis ces travaux menés en avril 2025, la donne a-t-elle fondamentalement changé, s’agissant de l’éthique de l’IA ?

Il est permis de penser que non.

Certes, des évolutions peuvent être identifiées, à commencer par celle des systèmes d’IA eux-mêmes, qui ont continué à se perfectionner. Pour autant les difficultés qu’ils posent n’ont pas cessé et ont même continué à soulever de graves difficultés. Que l’on songe – pour ne prendre que des situations postérieures aux Assises de Nevers en avril 2025 – au suicide d’un jeune adolescent états-uniens dont une IA générative lui aurait prodigué des conseils à cet effet[6], à la révélation du pillage des œuvres musicales semble-t-il organisé par les développeurs de ces outils, qualifié de « plus grand vol de propriété intellectuelle de l’histoire »[7], des nouvelles études démontrant de manière peu contestable les méfaits de l’utilisation de l’IA à l’école[8], ou encore à la mise en service de « Grok », outil d’IA générative intégré au réseau social X et qui s’apparente à la fois à un grouffre économico-énergétique[9] et à un outil de cyberharcèlement[10]…le tableau n’est guère reluisant.

Les avancées de l’IA au service de l’humanité, que les discours technosolutionnistes importé d’outre-Atlantique ne manquent pas de louer en martelant que la technologie est la seule voie possible[11], se font pour leur part attendre : l’IA n’a toujours pas résolu la crise climatique (elle a plutôt tendance à l’aggraver), apporté la paix dans le monde ni fait considérablement évoluer l’humain d’un point de vue cognitif. En revanche, le développement de modèles d’IA utiles au quotidien des collectivités, des chercheurs et des citoyennes et citoyens se poursuit, se dont il faut se féliciter – la lutte contre le technosolutionnisme débridé ne devant pas pour autant entraîner une forme de technophobie. On peut ici mentionner, à titre d’exemple, des recherches en cours sur les IA « frugales » permettant des applications en médecine, en transcription de textes historiques ou encore en sciences cognitives[12].

D’un autre côté, de nombreuses administrations et institutions ont, depuis les Assises de Nevers, établi et publié des chartes et outils[13] permettant d’y voir plus clair. Surtout, elles amorcent un virage depuis l’éthique principielle vers la déontologie, établissant dans plusieurs cas ce qui s’apparente à des obligations de comportement déontologique. On citera ainsi la Charte d’utilisation de l’IA au sein de la juridiction administrative, ou encore la Charte relative à l'utilisation de l'IA générative dans les services du Premier ministre de septembre 2025, qui indique des utilisations « proscrites ».

Il était à vrai dire temps de changer de logique : après les principes émergeants, souvent de manière volontaire et à leur initiative, pour encadrer le développement d’outils d’IA par les concepteurs et promoteurs de ces systèmes, il fallait que les usagers – notamment publics – s’organisent pour y faire face. L’inconvénient d’une telle logique, que l’on retrouve aussi en matière de cybersécurité, est qu’elle fait peser la responsabilité, ou une grande part de responsabilité, sur l’usager et non sur le concepteur – ce qui laisse ce dernier libre, dans les limites finalement peu contraignantes du Règlement européen sur l’IA et conformément à l’approche historique libérale de l’Union, de développer des systèmes hautement problématiques d’un point de vue strictement éthique. L’avantage est qu’elle incite à la réflexion et à la mobilisation intellectuelle de tous les acteurs de la société.

Il est d’ailleurs notable que le discours public sur l’IA commence à évoluer, à la faveur de la publication de rapports établissant le peu de préparation et de réflexion de certains investissements et soutiens publics à la généralisation de l’IA générative. Le rapport de la Cour des comptes publié le 8 janvier 2026, « France Travail et l'intelligence artificielle », a constitué à cet égard un pavé dans la mare. La Cour « encourage France Travail à explorer davantage le concours de l’IA aux gains d’efficience »[14] ; note que le « pilotage de la donnée constitue une faiblesse récurrente »[15], que « [l]a quasi-absence d’analyse d’impact sur la protection des données concernant les traitements de données personnelles figurant dans les cas d’usage d’IA traduit l’absence d’une analyse des risques sur les données personnelle »[16], que « France Travail ne s’est pas suffisamment préparé, en amont, à l’entrée en vigueur du règlement européen sur l’IA »[17] ou encore que « [l]’encadrement éthique de l’IA est également perfectible. Le respect des engagements pris par l’opérateur dans sa charte éthique, publiée en avril 2022, n’est pas garanti »[18]. Il n’est pas douteux, au regard de la vitesse d’adoption d’outil d’IA par toute entité publique ou privée – à la demande insistante des pouvoirs publics – depuis 2022, que de tels constats se multiplieront dans les semaines et mois à venir.

Aussi les recommandations qui sont formulées dans le présent livre blanc devraient s’avérer très utiles à l’amélioration des pratiques et à la réflexion globale sur l’intérêt et l’encadrement des outils d’intelligence artificielle.

 

Qu’il soit, enfin, permis de remercier l’ensemble des personnes qui ont rendu possible la réalisation de ces Assises et de ce livre blanc. En premier lieu, les partenaires de l’événement, déjà cités et qui doivent être de nouveau remerciés – au premier chef desquels la ville de Nevers, Nevers Agglomération et l’Université Bourgogne Europe, premiers soutiens de l’événement avec l’Observatoire de l’éthique publique. Que soient également remerciés les élus qui ont permis l’organisation concrète des Assises : Denis Thuriot, Bertrand Couturier, Alain Bourcier, ainsi que Sandrine Cochet et Marine Le Goïc. En deuxième lieu, des remerciements spécifiques doivent être formulés à l’exceptionnelle équipe de rapporteur(e)s qui ont produit les synthèses et réflexions suivantes : Fabrice Amougou, Yamina Bouadi, Edouard Cortot, Selma Demir, Dan Ibala et Marine Placca. En troisième et dernier lieu, merci à Dan Ibala et Anaïs Rebuccini pour la phase finale de ce travail.

 

Rendez-vous en mai 2026 pour la deuxième édition des Assises nationales de l’éthique du numérique, qui porteront sur un autre enjeu majeur de nos sociétés : Éthique et cybersécurité.

 

Janvier 2026.

Raphaël Maurel

Directeur du département Éthique du numérique de l’Observatoire de l’éthique publique

Maître de conférences HDR à l’Université Bourgogne Europe, CREDIMI

Membre de l’Institut universitaire de France

Fichiers

Publié le 21/01/2026

Sous la direction de

Raphaël Maurel

Raphaël Maurel

L'auteur

Fabrice Amougou

Fabrice Amougou

L'autrice

Yamina Bouadi

Yamina Bouadi

L'auteur

Edouard Cortot

Edouard Cortot

L'autrice

Selma Demir

Selma Demir

L'autrice

Marine Placca

Marine Placca

Co-auteur

Dan Ibala