Toutefois, l’évolution de cette technologie en un outil d’émancipation de nos sociétés démocratiques doit être assurée, et ce le plus rapidement possible. Cela peut passer par le développement, le déploiement et l’adoption d’une littératie en IA dans toutes les structures, y compris les organisations de la société civile.

Qu’est-ce que la littératie en IA ?

Le concept de littératie, qui trouve ses racines dans la capacité à lire et à écrire, apparaît régulièrement dans le débat public. Au cœur de cette approche se trouve la volonté de doter chaque citoyen des connaissances et des compétences nécessaires pour évoluer de manière autonome dans un environnement technologique en constante évolution. Nous considérons donc la littératie en IA comme la capacité à comprendre, utiliser et évaluer de manière critique les systèmes d’intelligence artificielle. Cet objectif démocratique peut se décliner en cinq objectifs opérationnels :

  1. 1. Comprendre les principes de base de l’IA, qui déterminent ses capacités et ses limites, sans nécessairement maîtriser les aspects techniques les plus complexes. Il s'agit de démystifier ces technologies pour avoir une représentation réaliste de ce que les systèmes d’IA peuvent ou non faire, ainsi que de distinguer les évolutions probables des promesses spéculatives. Par exemple, une société civile travaillant sur les droits humains comprend qu’un outil d’IA générative peut aider à résumer de longs documents de politique publique, mais sait aussi qu’il ne « comprend » pas toujours le contexte ou les valeurs, et ne peut donc pas remplacer un jugement juridique ou éthique expert dans l’analyse de sujets sensibles.

  1. 2. Utiliser ces outils de manière efficace, asaptée et sécurisée, en développant des compétences pratiques permettant de tirer parti des opportunités tout en limitant les risques. Une société civile peut utiliser des outils d’IA pour rédiger des demandes de subventions ou traduire des supports de campagne plus efficacement, tout en veillant au respect des règles internes en matière de protection des données.

  1. 3. Évaluer de manière critique les résultats produits par l’IA et leurs effets sociétaux, en comprenant en premier lieu que les réponses apportées par l’IA peuvent être fausses (hallucinations), biaisées, limitées, et qu’elles peuvent avoir des effets sur la désinformation et la manipulation des publics et utilisateurs. Par exemple, une organisation de veille médiatique vérifie systématiquement les résumés générés par l’IA avant publication, consciente que l’outil peut reproduire des biais dominants.

  1. 4. Prendre des décisions éclairées quant à l’utilisation de l’IA. Concrètement, cela signifie adopter des pratiques responsables, tant dans l’usage que dans le déploiement de l’IA. Aujourd’hui, une grande attention est portée à la « puissance » des modèles, notamment ceux comptant des centaines de milliards de paramètres. Pourtant, le « juste équilibre »se situe généralement autour de 40 à 50 milliards de paramètres. Des modèles de cette taille suffisent pour la plupart des cas d’usage ciblés. À l’image des logiciels, il est peu pertinent de payer pour une suite complète si l’on n’utilise qu’une fraction de ses fonctionnalités.

  1. 5. Contribuer aux débats démocratiques, ne serait-ce que par le fait de décrire et expliciter ses usages, et pouvoir exprimer des besoins ou des attentes, au regard des précédents points. Cette dimension doit être abordée dans une perspective citoyenne. L’objectif est de garantir que chacun soit bien informé et capable de faire preuve d’esprit critique afin de se forger sa propre opinion. Pour les dirigeants de société civile, cela permet également de mieux comprendre les stratégies des acteurs économiques et les politiques publiques susceptibles d’affecter directement leur activité.

Cadre juridique de la littératie en IA

Le terme « littératie » est présent depuis longtemps dans le débat public français et européen. Dès 2004, Stuart A. Selber proposait une grille de lecture pour la computer literacy. Depuis, plusieurs évolutions ont été réalisées dans le cadre du développement de l’intelligence artificielle, avec l’ajout de la dimension éthique notamment (UQAM, 2024).

Ces concepts théoriques ont également inspiré des lignes directrices, comme celles récemment produites par l’OCDE et la Commission européenne dans le rapport « Empowering Learners for the Age of AI », qui préfigure même une standardisation internationale de la littératie en IA. Ces lignes directrices peuvent être comparées ou complétées par celles développées par l’UNESCO pour l’ère de l’IA générative, qui intègrent la littératie algorithmique dans une approche globale d’éducation aux médias et à l’information. Bien que ces avancées soient bienvenues, elles restent insuffisantes pour proposer un programme de formation et d’acculturation pleinement à la hauteur des enjeux posés par les modèles d’IA.

Néanmoins, ces réflexions ont trouvé un écho dans le domaine législatif. L’adoption en juin 2024 du règlement européen sur l’intelligence artificielle (AI Act) constitue une étape majeure vers la mise en place d’un cadre structuré pour l’usage de l’IA dans l’Union européenne. Au-delà de la classification des systèmes selon leur niveau de risque (inacceptable, élevé, limité, minimal), l’article 4 introduit (pour la première fois) une obligation à une « littératie en IA » pour tous les acteurs impliqués dans le cycle de vie d’un système. Cela concerne les fournisseurs, les intégrateurs, les déployeurs et les utilisateurs finaux, même si les modalités précises restent floues. Cet article précise également la responsabilité des fournisseurs et des déployeurs, qui doivent « prendre des mesures pour assurer, dans la mesure du possible, un niveau de contrôle suffisant sur l’IA ». Par ailleurs, la Commission européenne a présenté un plan global de simplification numérique (« digital omnibus »), tout en proposant d’assouplir l’exigence de « contrôle de l’IA » prévue par l’AI Act, la réduisant à une simple incitation laissée à la bonne volonté des entreprises.

Littératie en IA et développement économique, social et démocratique des sociétés civiles

Parallèlement, en France, la fracture numérique reste très présente et pourrait aggraver (ou amplifier) le manque de littératie en IA au sein des organisations. En effet, plus de 16 millions de personnes sont encore exclues du numérique, ce qui pose un défi majeur : faire de l’IA un facteur d’inégalités plutôt qu’un levier d’inclusion. La capacité à s’approprier l’IA générative devient ainsi une question de justice sociale et démocratique. Or, la technologie ne transforme la société que si elle est réellement adoptée, ce qui suppose un accompagnement continu des individus face à la diversité des usages et des ressources.

Ainsi, l’adoption d’une véritable littératie en intelligence artificielle constitue un levier stratégique majeur pour le développement des sociétés civile, autour de trois enjeux complémentaires :

  • Économique: L’histoire des technologies montre que les gains de productivité profitent à ceux qui savent diffuser largement les compétences nécessaires à leur utilisation. Investir dans la formation à l’IA offre donc un rendement supérieur à un soutien uniquement axé sur la recherche et développement (R&D). Une réorientation partielle des investissements massifs attendus vers la montée en compétences des employés et des utilisateurs permettrait de réduire les inégalités d’accès aux bénéfices de l’innovation en IA. Pour les sociétés civiles, cet enjeu est valable quel que soit leur taille ou leur budget de formation.

  • Social: La littératie en IA permet de concilier l’adoption rapide des technologies (ne pas « rater le train ») avec le développement d’un esprit critique. Elle répond à la tension entre les impératifs économiques d’innovation et la nécessité d’une appropriation inclusive, essentielle pour éviter l’exclusion et renforcer la justice sociale.

  • Démocratique: Dans le monde actuel, il est crucial de former les citoyens à comprendre et questionner les systèmes d’IA afin de préserver l’action démocratique face à la montée des décisions algorithmiques. La littératie en IA devient ainsi un impératif démocratique, garantissant qu’elle serve à autonomiser les individus plutôt qu’à renforcer les inégalités.

En conclusion, la littératie IA s’impose comme un enjeu clé, non seulement en matière de formation, mais aussi de démocratie et de citoyenneté. Il s’agit d’accompagner les collaborateurs et les dirigeants dans l’adoption (ou le rejet) de technologies désormais omniprésentes, mais surtout de permettre des décisions éclairées quant à leur usage. Cette montée en compétences conditionnera la possibilité d’un choix libre, responsable et critique, tant à l’échelle individuelle que collective.

Au sein de votre organisation, ne prenez pas le risque que l’IA devienne une technologie opaque. Investir dans la littératie en IA, c’est choisir de mettre la technologie au service de l’autonomie, de la justice sociale et de la vitalité démocratique.

Votre avis compte!

Que pensez-vous de ce texte ? Prenez 30 secondes pour partager votre retour et nous aider à créer un contenu significatif pour la société civile!


Avertissements

Cette ressource a été créée dans le cadre du projet AI for Social Change, au sein du programme Digital Activism de TechSoup, avec le soutien de Google.org.

Les outils d’IA évoluent rapidement et, bien que nous fassions de notre mieux pour garantir la validité des contenus proposés, certains éléments peuvent ne plus être à jour. Si vous constatez qu’une information est obsolète, merci de nous le signaler à l’adresse suivante : content@techsoup.org.

« AI literacy and CSOs: legal guidelines and the main challenges », par Jean-François Lucas et Martin Lepinette, 2026, pour Hive Mind, est mis à disposition sous licence CC BY 4.0.