Login
Recover password
Registration

Members can log in to create events, publish stories, share resources and modify their password and newsletter subscription.

E-mail *
First name *
Last name *
Language preference *
Newsletter options *

By clicking below to submit this form, I hereby agree to the Sphere’s Privacy Policy and terms of use.

Comment les organisations humanitaires peuvent-elles utiliser l’IA sans risques ?

Share via Facebook Share via LinkedIn Share via Twitter

Tristan Hale, responsable des communications et du numérique, Sphère

Utilisations et perceptions de l’IA dans l’humanitaire

Sphère a récemment sondé les organisations humanitaires sur l’intelligence artificielle (IA), et il en ressort que :

  • 51 % des organisations interrogées déclaraient utiliser, ou envisager d’utiliser, l’IA ;
  • 57 % n’avaient reçu aucune formation ni directive sur l’IA, ou ignoraient l’existence de politiques organisationnelles relatives à son utilisation ; et
  • 6 % seulement disaient être très au courant des risques associés à l’IA.

Les 59 % d’organisations déclarant avoir une connaissance au moins minimale des risques de l’IA identifiaient l’inexactitude des résultats, la dépendance envers l’IA et la déshumanisation de l’aide comme étant les plus graves.

Inexactitude (p. ex. des « hallucinations » dans les résultats de l’IA) 44 % ; Dépendance envers l’IA/ perte de contrôle 44 % ; Déshumanisation de l’aide (contacts humains limités) 44 % ; Menaces de cybersécurité/ Atteintes à la vie privée 38 % ; Mésinformation et manipulation 29 %

Quels sont les risques les plus graves du recours à l’IA selon les organisations humanitaires ?

On IA ou on IA pas ?

L’IA a le potentiel d’apporter des choses positives au secteur humanitaire, mais également celui d’entraîner des dommages pour les populations vulnérables.

Comment les organisations humanitaires, ou les personnes responsables des achats dans ces organisations, peuvent-elles prendre de bonnes décisions quant au moment, au lieu et à la manière d’utiliser l’IA ? Comment ces organisations peuvent-elles prouver aux bailleurs potentiels qu’elles ont recours à l’IA de manière responsable et sans risques ? Ou, si l’on se place de l’autre côté du miroir : comment les bailleurs peuvent-ils s’assurer que leurs bénéficiaires potentiel·les utiliseront l’IA de manière responsable ?

Et comment aider les humanitaires qui souhaitent bénéficier des avantages de l’IA à le faire sans risques ?

Le label AI Safety

Plusieurs approches pour répondre à ces questions, dont celles du renforcement des capacités, des standards ou directives, et de la certification.

Sphère collabore actuellement avec Nesta, l’agence britannique œuvrant pour le bien commun, Data Friendly Space et le CDAC Network, avec le soutien de FCDO et de l’UKHIH, à la mise en place d’un label de sécurité de l’IA (AI Safety, en anglais). Et si vous pouviez prouver que l’utilisation que votre organisation fait d’une certaine plateforme de l’IA, dans un contexte donné, dépasse le seuil de sécurité minimal ?

Un processus d’évaluation en trois temps

Notre concept de label de sécurité de l’IA repose sur trois composantes clés :

  1. L’évaluation technique : sous forme de tests de la plateforme d’IA à l’aide de mesures telles que la performance, la précision, l’utilisabilité, les biais, la consommation de ressources, la transparence, l’explicabilité, la latence, la rapidité, etc.
  2. L’évaluation des capacités organisationnelles : la vérification que l’organisation humanitaire qui souhaite recourir à une plateforme d’IA en a les capacités. Un exemple : si le modèle d’IA a besoin de données personnelles ou sensibles, l’organisation prend-elle des précautions suffisantes en matière de cybersécurité ? Le personnel a-t-il reçu la formation adéquate à l’utilisation de la plateforme d’IA ?
  3. L’acceptabilité sociale et l’évaluation des risques : un système qui fonctionne correctement dans un contexte donné peut être néfaste dans un autre contexte, et l’évaluation de l’adéquation en contexte passe notamment par l’acceptation par la communauté des décisions prises à partir des résultats obtenus sur la plateforme d’IA.

Pour les besoins de notre étude, nous avons réalisé des entretiens avec des dizaines de personnes, notamment des responsables d’audits et de la définition de standards, ainsi que des membres d’organisations humanitaires sur le terrain, responsables des achats et des politiques ou occupant des fonctions techniques. Nous remercions toutes ces personnes pour leur temps et leur franchise quant aux aspects des trois composantes de notre label qui leur plaisent et ce qui, à leur avis, ne fonctionnera pas.

Consultation à l’échelle du réseau Sphère

Nous avons demandé aux personnes participant à notre Forum mondial des points focaux 2024 à Antalya d’imaginer ce à quoi ce label pourrait ressembler, et leur avis sur la faisabilité d’une évaluation organisationnelle des capacités requises pour utiliser l’IA en toute sécurité.

Cette session a confirmé que l’IA intéresse globalement grandement notre secteur mais, qu’à l’heure actuelle, peu d’organisations ont les capacités de gérer les complexités techniques, les exigences juridiques et les considérations éthiques nécessaires pour prendre de bonnes décisions en matière d’IA.

Aleks Berditchevskaia (Nesta) anime une activité de groupe sur le thème des capacités organisationnelles en matière de sécurité de l’IA lors du Forum mondial des points focaux 2024, à Antalya (Türkiye), en novembre 2024

Aleks Berditchevskaia (Nesta) anime une activité de groupe sur le thème des capacités organisationnelles en matière de sécurité de l’IA lors du Forum mondial des points focaux 2024, à Antalya (Türkiye), en novembre 2024


Test auprès des communautés dans la province de Hataya

Pour tester la troisième composante de notre évaluation, nous avons organisé deux ateliers, en turc, avec des personnes des communautés touchées par le grave séisme de février 2023.

Dans ce cadre, nous avons demandé aux personnes présentes leur ressenti quant à l’utilisation d’images satellites par une plateforme d’IA pour évaluer les dommages causés à leur maison lors du tremblement de terre.

La formatrice Sphère Zeynep Sanduvaç (Nirengi Derneği) et Esther Moss (Nesta) animent un atelier de test auprès des communautés à Antakya en Türkiye, en novembre 2024

La formatrice Sphère Zeynep Sanduvaç (Nirengi Derneği) et Esther Moss (Nesta) animent un atelier de test auprès des communautés à Antakya en Türkiye, en novembre 2024

L’une des conclusions intéressantes de cet atelier est que, dans les situations où les prises de décisions humaines sont insatisfaisantes, l’IA serait plus volontiers acceptée que crainte. Comme l’a dit une personne à l’atelier (traduction du turc) :

« Je pense que l’IA peut évaluer les dommages causés au bâti sans être influencée par les émotions. Les gens sont profondément touchés par des catastrophes de grande envergure comme le séisme à Kahramanmaraş, ce qui peut rendre leurs évaluations moins précises. »

La tendance est de placer haut la barre de la précision, de l’absence de biais, etc. pour l’IA, alors que les biais, les émotions et les visées politiques des humains sont tolérés. Et ce pour une bonne raison : si une personne fait une erreur, elle peut en être tenue responsable. Si une plateforme d’IA fait une erreur, il peut être difficile de savoir qui en est responsable.

Prochaines étapes et appel à l’action

Notre étude a démontré que le concept de label de sécurité trouve un écho chez les humanitaires, et nous menons actuellement de nouveaux tests pour nous assurer qu’il réponde à la variété des besoins dans le secteur.

Si votre organisation étudie l’intersection entre l’IA et l’engagement des communautés, et que vous vous demandez comment utiliser l’IA de manière sûre et responsable, n’hésitez pas à nous contacter.


Pour toute question des médias et des informations supplémentaires sur le label de sécurité de l’IA, contacter communications@spherestandards.org.