![]() |
![]() |
![]() |
---|
Tristan Hale, responsable des communications et du numérique, Sphère
Sphère a récemment sondé les organisations humanitaires sur l’intelligence artificielle (IA), et il en ressort que :
Les 59 % d’organisations déclarant avoir une connaissance au moins minimale des risques de l’IA identifiaient l’inexactitude des résultats, la dépendance envers l’IA et la déshumanisation de l’aide comme étant les plus graves.
Quels sont les risques les plus graves du recours à l’IA selon les organisations humanitaires ?
L’IA a le potentiel d’apporter des choses positives au secteur humanitaire, mais également celui d’entraîner des dommages pour les populations vulnérables.
Comment les organisations humanitaires, ou les personnes responsables des achats dans ces organisations, peuvent-elles prendre de bonnes décisions quant au moment, au lieu et à la manière d’utiliser l’IA ? Comment ces organisations peuvent-elles prouver aux bailleurs potentiels qu’elles ont recours à l’IA de manière responsable et sans risques ? Ou, si l’on se place de l’autre côté du miroir : comment les bailleurs peuvent-ils s’assurer que leurs bénéficiaires potentiel·les utiliseront l’IA de manière responsable ?
Et comment aider les humanitaires qui souhaitent bénéficier des avantages de l’IA à le faire sans risques ?
Plusieurs approches pour répondre à ces questions, dont celles du renforcement des capacités, des standards ou directives, et de la certification.
Sphère collabore actuellement avec Nesta, l’agence britannique œuvrant pour le bien commun, Data Friendly Space et le CDAC Network, avec le soutien de FCDO et de l’UKHIH, à la mise en place d’un label de sécurité de l’IA (AI Safety, en anglais). Et si vous pouviez prouver que l’utilisation que votre organisation fait d’une certaine plateforme de l’IA, dans un contexte donné, dépasse le seuil de sécurité minimal ?
Notre concept de label de sécurité de l’IA repose sur trois composantes clés :
Pour les besoins de notre étude, nous avons réalisé des entretiens avec des dizaines de personnes, notamment des responsables d’audits et de la définition de standards, ainsi que des membres d’organisations humanitaires sur le terrain, responsables des achats et des politiques ou occupant des fonctions techniques. Nous remercions toutes ces personnes pour leur temps et leur franchise quant aux aspects des trois composantes de notre label qui leur plaisent et ce qui, à leur avis, ne fonctionnera pas.
Nous avons demandé aux personnes participant à notre Forum mondial des points focaux 2024 à Antalya d’imaginer ce à quoi ce label pourrait ressembler, et leur avis sur la faisabilité d’une évaluation organisationnelle des capacités requises pour utiliser l’IA en toute sécurité.
Cette session a confirmé que l’IA intéresse globalement grandement notre secteur mais, qu’à l’heure actuelle, peu d’organisations ont les capacités de gérer les complexités techniques, les exigences juridiques et les considérations éthiques nécessaires pour prendre de bonnes décisions en matière d’IA.
Aleks Berditchevskaia (Nesta) anime une activité de groupe sur le thème des capacités organisationnelles en matière de sécurité de l’IA lors du Forum mondial des points focaux 2024, à Antalya (Türkiye), en novembre 2024
Pour tester la troisième composante de notre évaluation, nous avons organisé deux ateliers, en turc, avec des personnes des communautés touchées par le grave séisme de février 2023.
Dans ce cadre, nous avons demandé aux personnes présentes leur ressenti quant à l’utilisation d’images satellites par une plateforme d’IA pour évaluer les dommages causés à leur maison lors du tremblement de terre.
La formatrice Sphère Zeynep Sanduvaç (Nirengi Derneği) et Esther Moss (Nesta) animent un atelier de test auprès des communautés à Antakya en Türkiye, en novembre 2024
L’une des conclusions intéressantes de cet atelier est que, dans les situations où les prises de décisions humaines sont insatisfaisantes, l’IA serait plus volontiers acceptée que crainte. Comme l’a dit une personne à l’atelier (traduction du turc) :
« Je pense que l’IA peut évaluer les dommages causés au bâti sans être influencée par les émotions. Les gens sont profondément touchés par des catastrophes de grande envergure comme le séisme à Kahramanmaraş, ce qui peut rendre leurs évaluations moins précises. »
La tendance est de placer haut la barre de la précision, de l’absence de biais, etc. pour l’IA, alors que les biais, les émotions et les visées politiques des humains sont tolérés. Et ce pour une bonne raison : si une personne fait une erreur, elle peut en être tenue responsable. Si une plateforme d’IA fait une erreur, il peut être difficile de savoir qui en est responsable.
Notre étude a démontré que le concept de label de sécurité trouve un écho chez les humanitaires, et nous menons actuellement de nouveaux tests pour nous assurer qu’il réponde à la variété des besoins dans le secteur.
Si votre organisation étudie l’intersection entre l’IA et l’engagement des communautés, et que vous vous demandez comment utiliser l’IA de manière sûre et responsable, n’hésitez pas à nous contacter.
Pour toute question des médias et des informations supplémentaires sur le label de sécurité de l’IA, contacter communications@spherestandards.org.