Si vous éprouvez des sentiments multiples et contradictoires, vous n'êtes pas seul(e). Et voici ce que j’ai appris en accompagnant des organisations dans leur parcours vers une IA responsable : cette tension n’est pas un problème à résoudre. C'est de la sagesse. C'est le point de départ de tout ce qui suit.
La tension est réelle – et elle vous en dit long
Les organisations de la société civile ressentent la pression. Les bailleurs de fonds s'interrogent sur votre stratégie en matière d'IA. Votre équipe utilise déjà des outils que vous n'avez pas officiellement approuvés. La technologie évolue plus vite que vos politiques. Et en filigrane, il y a une question persistante : Comment utiliser ces outils puissants sans perdre ce qui fait notre identité ?
Cette tension se manifeste dans des dilemmes spécifiques :
Efficacité ou authenticité : L'IA peut nous aider à en faire plus, mais ce « plus » sert-il notre mission ou ne fait-il que remplir nos agendas ?
Innovation ou sécurité : Nous voulons être avant-gardistes, mais pas au détriment des communautés que nous servons.
Accès ou protection de la vie privée : L'IA pourrait nous aider à toucher davantage de personnes, mais quelles données échangeons-nous pour y parvenir ?
Ces questions n'ont pas de réponses claires. Elles se situent sur un spectre, et la position de votre organisation sera différente de celle d’une autre. Ce n'est pas une faiblesse. C'est la nature même d’un travail fondé sur des valeurs.
Spectre des dilemmes de l'IA
Mesures restreintes vs. résultats équitables
Profit à court terme vs. viabilité à long terme
Valeur pour les actionnaires vs. valeur pour les parties prenantes
Rapidité vs. rigueur
Transparence vs. protection de la propriété intellectuelle
Responsabilité vs. autonomie (par ex. responsabilité juridique et morale)
Augmentation vs dépendance cognitive
Évolutivité vs. nuances contextuelles
Sécurité vs. protection de la vie privée (par ex.caméras dotées d'une IA)
Souveraineté vs. gouvernance mondiale (géopolitique)
Art humain vs. création par IA (culture, sens et viabilité économique)
Progrès vs. planète (impact environnemental)
L'inconfort que vous ressentez ? C'est un signal. Il vous oriente vers ce qui vous tient vraiment à cœur.
Pourquoi les OSC doivent-elles prendre les devant plutôt que suivre ?
Voici ce que l’industrie technologique comprend souvent mal : dès qu’un algorithme entre dans le monde réel — qu’il trie des candidatures, recommande du contenu ou répartisse des ressources — il cesse d’être un simple système technique. Il se retrouve mêlé aux relations humaines, aux rapports de pouvoir institutionnels et à la confiance des communautés.
Ce ne sont pas des problèmes d’ingénierie. Ce sont des problématiques que les organisations de la société civile gèrent depuis des décennies.
Vous savez déjà comment gérer la complexité. Vous savez écouter les voix marginalisées. Vous savez prendre des décisions fondées sur des valeurs, même dans l’incertitude, avec des ressources limitées, et dans des contextes où les enjeux sont profondément humains.
La discussion sur la gouvernance de l'IA a précisément besoin de cette expertise.
Et pourtant, trop souvent, les OSC restent en retrait, supposant que cette discussion concerne uniquement les technologues, les entreprises ou les régulateurs. Le risque d’attendre est réel : d’autres définiront les règles, et ces règles pourraient ne pas refléter vos valeurs ni les besoins des communautés que vous servez.
L'opportunité est tout aussi réelle : la société civile peut influencer la manière dont l'IA est développée, déployée et gouvernée, et ne pas se contenter de réagir aux décisions prises ailleurs.
Il ne s'agit pas de devenir des experts en IA. Il s'agit de revendiquer sa place à la table en tant qu'experts en valeurs.
Les tensions comme passerelles vers les principes
Alors comment passer de la tension à la clarté ?
La réponse n'est pas de résoudre la tension. C’est de la nommer. Vos tensions révèlent vos valeurs. Une fois formulées, vos valeurs deviennent vos principes.
Prenons l'exemple d'une organisation à but non lucratif dans le domaine de l'éducation, la Khan Academy. Lorsqu'elle a présenté Khanmigo, son outil d'apprentissage basé sur l'IA, elle n'a pas commencé par les spécifications techniques. Elle a commencé par les principes, tels que « Atteindre les objectifs éducatifs », « Autonomie de l’apprenant » et « Transparence et responsabilité ». Ces principes sont nés d'une vision claire de ce qui pourrait mal tourner et de ce qu'elle voulait protéger.
Pour le principe « Atteindre les objectifs éducatifs », elle a défini des garde-fous spécifiques : « Des mécanismes sont en place pour empêcher les utilisations non éducatives de l'IA. » Lorsqu'elle a évalué le risque d'utilisation inappropriée, elle l’a jugé élevé et a élaboré des stratégies d'atténuation en conséquence, depuis les systèmes de modération jusqu'aux notifications parentales en passant par des conditions de service claires.
Les principes sont venus en premier. Les protections pratiques ont suivi.
De même, analysons un réseau international de soutien aux entrepreneurs sociaux, ChangemakerXchange (CXC). Son parcours en matière d'IA a commencé par des discussions sincères sur les tensions. Comme l'indique son Manifeste de l'IA consciente : « Nous sommes profondément critiques, en particulier à l'égard de l'IA générative, car nous sommes conscients des risques qu'elle comporte : son impact immense sur l'environnement... sa tendance à amplifier les biais... et son potentiel à réduire la créativité humaine unique dont dépend notre travail ».
À partir de ce constat honnête, le réseau a élaboré des principes comme celui de « L'utilisation consciente », qui se traduit comme suit : « L'IA n'est pas une solution par défaut. Avant chaque utilisation potentielle, en particulier avec l'IA générative, nous essayons de faire une pause et de nous poser la question : L'IA est-elle vraiment nécessaire pour cette tâche ? Est-ce vraiment conforme à nos valeurs ? Qu'est-ce que je perds en utilisant cet outil ? »
Ces deux organisations sont parties de la même question : Que voulons-nous protéger ? Leurs principes sont différents parce que leurs missions sont différentes. Les vôtres le seront aussi.
Vous ne partez pas de zéro
Si la définition des principes de l'IA vous semble décourageante, voici une nouvelle rassurante : une communauté mondiale y travaille depuis des années.
Depuis 2019, des organisations telles que la Commission européenne, l'OCDE, l'UNESCO et le National Institute of Standards and Technology (NIST) ont élaboré des cadres pour une IA digne de confiance. Voici les principes communs qui ont émergé de leurs travaux :
Capacité d’action et supervision humaines - les humains restent maîtres des décisions cruciales
Protection de la vie privée et gouvernance des données - les données personnelles sont protégées et utilisées de manière responsable
Transparence - les gens comprennent comment les systèmes d'IA fonctionnent et les affectent
Équité et non-discrimination - l'IA ne perpétue pas les biais et ne génère pas de résultats injustes
Responsabilité - il existe une responsabilité claire pour les décisions et leurs conséquences
Bien-être sociétal et environnemental - l'IA doit profiter aux personnes et aux communautés tout en minimisant les dommages causés à la société et à la planète.
Ces cadres constituent un point de départ et non un modèle à copier. Le travail ne consiste pas à adopter les principes de quelqu'un d'autre. Il s'agit de découvrir quels sont les principes les plus importants pour votre organisation, dans votre contexte, pour vos communautés.
Un principe tel que l’ « équité » a une signification différente en fonction de votre mission. Pour une organisation d'aide aux réfugiés, l'équité peut consister à s'assurer que les outils de traduction automatique ne sont pas moins performants dans les langues les moins courantes, ou que la sélection automatisée ne désavantage pas les candidats issus de régions en conflit. Pour une organisation de défense de l'environnement, l'équité pourrait consister à s'assurer que le ciblage des campagnes par l'IA n'exclut pas les communautés à faibles revenus qui sont les plus touchées par la pollution mais les moins susceptibles d'être identifiées comme des « donateurs de grande valeur » par un algorithme.
Le mot est le même. C'est à vous de définir l'application.
Pourquoi la diversité des voix compte
L'une des erreurs les plus courantes commises par les organisations est de considérer la définition de principes comme un exercice réservé à la direction. Un petit groupe rédige un document, le fait circuler pour recueillir des commentaires et le considère comme terminé.
Cette approche produit des principes qui semblent bons sur le papier mais qui ne sont pas à la hauteur dans la pratique. Les personnes les plus proches de votre mission, telles que le personnel du programme, les membres de la communauté ou les travailleurs de première ligne, voient souvent des risques qui échappent à la direction. Ils possèdent également une sagesse sur ce que l’organisation valorise réellement, et pas seulement sur ce qu’elle aspire à valoriser.
Le Manifeste de la CXC est le fruit d'une écoute approfondie de l'équipe. Le cadre de la Khan Academy est géré par un groupe de travail transversal incluant les équipes produit, données et recherche utilisateur, ce qui garantit que des perspectives diverses façonnent leur approche.
Le processus de création des principes est aussi important que les principes eux-mêmes. Lorsque les citoyens participent à la définition de ce qui compte, ils deviennent les gardiens de ces valeurs, et pas seulement les destinataires d'une note de service.
Des principes qui vivent et qui respirent
Voici une vérité qui pourrait vous soulager : le premier jet ne sera pas parfait. Il n’a pas besoin de l’être.
Les principes de l'IA responsable sont des documents évolutifs. Ils évoluent au fur et à mesure que la technologie change, que votre compréhension s'approfondit, que vous apprenez ce qui fonctionne et ce qui ne fonctionne pas.
Le CXC s'engage à revoir ses documents sur l'IA tous les six mois. La Khan Academy évalue en permanence son cadre par le biais de démonstrations, de boucles de rétroaction et de l'engagement des parties prenantes. Les deux organisations considèrent leurs principes non pas comme des produits finis, mais comme des discussions permanentes.
Cela ne signifie pas que ces principes sont vagues ou peu engagés. Cela signifie qu'ils sont ancrés dans la réalité et qu'ils s'adaptent à un paysage technologique en constante évolution.
Visez une « première version » et non une « version finale ». L'objectif est de commencer, pas d'être parfait.
Une invitation à commencer
Si votre organisation n'a pas encore formulé ses principes en matière d'IA, voici une invitation à commencer.
Pas avec un document de politique générale. Pas avec une liste de contrôle de conformité. Mais avec une discussion.
Rassemblez votre équipe. Créez un espace pour la sincérité, où chacun peut exprimer ses espoirs, ses craintes et ses tensions. Demandez : Qu'essayons-nous de protéger ? Que refusons-nous de compromettre ? À quoi ressemble l'IA responsable pour une organisation comme la nôtre ?
Les réponses sont déjà dans la salle. Votre travail consiste à les faire apparaître, à les nommer et à vous y engager ensemble.
C’est un travail de leadership. Et les organisations de la société civile sont conçues pour cela.
Prêt(e) à passer à l'étape suivante ?
Ne manquez pas de consulter régulièrement Hive Mind au cours des huit prochaines semaines pour découvrir d'autres articles de la série et des guides approfondis sur l'utilisation responsable de l'IA pour les OSC.
Pour vous aider à passer de l'inspiration à l'action, nous avons créé un complément pratique à cet article : La « Feuille de route pour une IA responsable pour les OSC »
Ce guide vous accompagnera tout au long de la procédure. Que vous soyez une petite association de plaidoyer ou une grande ONG internationale, ce guide vous offrira un chemin clair, allant de « nous devrions faire quelque chose concernant l’IA » à « voici les principes qui nous guideront ».
Ressources et lectures complémentaires
Cadre de travail de la Khan Academy pour une IA responsable dans l'éducation (https://blog.khanacademy.org/khan-academys-framework-for-responsible-ai-in-education/) - Comment un organisme à but non lucratif spécialisé dans l'éducation a transformé des principes en garde-fous pratiques
Manifeste et politique de ChangemakerXchange concernant l'IA (https://changemakerxchange.org/mindful-ai/#manifesto) - Une approche axée sur les valeurs d'un réseau mondial d'acteurs du changement
Cet article est le premier d'une série intitulée « Feuille de route pour une IA responsable pour les OSC », élaborée dans le cadre de l'initiative L'IA au service du changement social du programme d'activisme numérique de TechSoup, avec le soutien de Google.org.
A propos de l'auteur
Ayşegül Güzel est une architecte en gouvernance de l'IA responsable qui aide les organisations axées sur une mission à transformer l'anxiété liée à l'IA en systèmes dignes de confiance. Sa carrière combine le leadership social exécutif — notamment en tant que fondatrice de Zumbara, le plus grand réseau mondial de banques de temps — et la pratique technique de l’IA, en tant qu’auditrice certifiée en IA et ancienne data scientist. Elle guide les organisations à travers des transformations complètes de la gouvernance de l'IA et réalise des audits techniques en IA. Elle enseigne à ELISAVA et intervient à l’international sur les approches centrées sur l’humain dans la technologie. Pour en savoir plus, consultez https://aysegulguzel.info ou abonnez-vous à sa lettre d'information AI of Your Choice à l'adresse https://aysegulguzel.substack.com.