Notre récente étude multi-pays, comprenant des enquêtes dans neuf pays et des études de cas approfondies, a révélé une dure réalité : seules 8 % des OSC disposent actuellement d'une politique en matière d'IA, et près de 40 % d'entre elles ont du mal à garantir la confidentialité des données lorsqu'elles utilisent ces outils. Comme nous l'a dit un représentant du Ghana, l'accès à une politique et à des orientations claires n'est pas seulement un luxe ; il est vital pour la survie et une croissance responsable.
Cette feuille de route est notre réponse - un processus étape par étape pour les OSC prêtes à passer de l'incertitude à une action intentionnelle fondée sur des valeurs.
Le guide « Feuille de route pour une IA responsable pour les OSC » s'adresse aux organisations de la société civile prêtes à passer de l'anxiété de l'IA à l'action intentionnelle.
Que vous soyez une petite association de plaidoyer, une grande ONG internationale ou une fondation communautaire, le processus de définition de vos principes d’IA responsable est fondamentalement le même : il commence par une discussion sincère et se termine par un engagement partagé.
Ce guide s'appuie sur une méthodologie développée et testée par l'auteur dans le cadre d'un travail pratique avec différentes organisations, dont les cas sont présentés tout au long du guide à titre d'exemples concrets.
Ce que vous obtiendrez à la fin de ce processus :
Une compréhension claire de la relation actuelle de votre organisation avec l'IA : les outils que vous utilisez, les tensions que vous ressentez, les valeurs en jeu.
Un ensemble priorisé de 3 à 7 principes d’IA responsable, adaptés à votre mission et à votre contexte
Des définitions qui rendent ces principes significatifs et applicables pour votre équipe
Un élan vers des structures et des politiques de gouvernance (que nous aborderons dans les prochains guides de cette série) / (que vous trouverez ici)
L'approche : Regarder → Créer → Construire
Ce guide suit une méthodologie en trois phases :
REGARDER : Ouvrir un espace pour observer la situation actuelle — cartographier votre paysage IA, faire émerger les tensions, recueillir la sagesse existante (réglementations, repères, valeurs déjà présentes dans votre organisation). Cette phase peut principalement être réalisée en préparation, avant que votre équipe ne se réunisse.
CRÉER : L’espace collaboratif et un peu chaotique — où vous synthétisez les enseignements en principes, définissez les structures de gouvernance et documentez les politiques. C'est ici que l'équipe travaille ensemble.
CONSTRUIRE : Mise en œuvre et opérationnalisation — là où les principes rencontrent la pratique, à travers l’évaluation des risques, les stratégies d’atténuation et les contrôles de gouvernance continus. C’est à ce stade que les structures de gouvernance que vous avez définies prennent le relais, avec des individus ou des équipes désignés responsables du suivi et de la responsabilité continue.
Une note sur le rythme : Ce travail ne peut pas se faire dans la précipitation. Définir des principes en une seule réunion d'une heure produit des documents qui prennent la poussière. Prévoir un temps de préparation (REGARDER) et au moins une session de 90 minutes pour la création collaborative, avec un temps de suivi pour la synthèse et l'affinage. L'investissement en vaut la peine. Ces principes guideront toutes les décisions prises par votre organisation en matière d'IA.
Au cours des prochaines semaines, venez sur Hive Mind consulter les parties REGARDER,CRÉER et CONSTRUIRE du guide afin de vous aider, vous et votre OSC, à élaborer les principes d’une IA responsable.
Plan de publication de la feuille de route
Phase 1 : REGARDER
Partie 1 : Préparer le terrain - poser les bases de votre audit IA.
Phase 2 : CRÉER
Partie 2 : Identifier et définir vos principes - trouver ce qui compte le plus.
Partie 3 : Mettre en pratique - combler le fossé entre les idées et l'action.
Partie 4 : Définir la responsabilité en matière de gouvernance de l’IA – utiliser « l’Arbre de la gouvernance » pour attribuer les responsabilités.
Partie 5 : Qu'est-ce qu'une politique en matière d'IA ? - article introductif pour formaliser votre position.
Partie 6 : Traduire les principes en règles - guide pratique pour rédiger votre manuel interne.
Phase 3 : CONSTRUIRE
Partie 7 : Introduction à l'évaluation des risques - comprendre le paysage de la sécurité.
Partie 8 : Guide de l'évaluation des risques - outils d'approfondissement pour le suivi et la responsabilisation.
Votre retour d'information est important
Que pensez-vous de ce texte ? Prenez 30 secondes pour nous faire part de vos commentaires et nous aider à créer un contenu utile pour la société civile !
Formulaire de commentaires à venir bientôt !
Cet article présente une série de documents intitulée « Feuille de route pour une IA responsable pour les OSC », élaborée dans le cadre de l’itiniative L'IA au service du changement social du programme d'activisme numérique de TechSoup, avec le soutien de Google.org.