Scaling Responsible AI Solutions (SRAIS) | Cohorte Internationale 2023

Panel composé de certains mentors et représentants des équipes participantes lors de la session parallèle du SRAIS au sommet PMIA 2023 à New Delhi, en Inde.

Description et contexte

La première itération du projet SRAIS a été lancée par le Groupe de travail sur l’IA responsable du Partenariat mondial sur l’intelligence artificielle (PMIA), dans le cadre du plan de travail approuvé pour 2023. Proposé à l’origine par les experts du GPAI et co-responsables du projet Amir Banifatemi et Francesca Rossi, le projet a réussi à produire des résultats concrets en moins d’un an. Intitulé au départ *RAI Deployment Challenge & Fund*, il reposait sur le constat que l’intelligence artificielle (IA) semblait offrir des solutions à de nombreux défis dans divers domaines, tout en présentant également des risques et préjudices potentiels pour les personnes et la planète si elle était conçue, développée et gouvernée de manière irresponsable. En réaction à cela, de nombreuses propositions, cadres et législations ont vu le jour pour promouvoir un développement et une utilisation responsables de l’IA. Parallèlement, de plus en plus de « solutions IA » émergeaient dans le monde, cherchant à contribuer au bien public tout en respectant les meilleures pratiques en matière de responsabilité. Il était donc crucial de soutenir la croissance et la diffusion de ces systèmes d’IA responsables ayant un impact socio-environnemental positif, afin qu’ils puissent atteindre les utilisateurs et communautés susceptibles d’en bénéficier.

Cependant, les initiatives d’IA naissantes se heurtaient souvent à des difficultés dans la mise en œuvre concrète des principes de l’IA responsable (RAI), ainsi que dans la montée en échelle de leurs solutions. Les principaux défis de la RAI incluaient la réduction des biais et discriminations, la représentativité et la contextualisation des modèles, la transparence et l’explicabilité des processus et des résultats, la protection des droits humains, et la garantie que l’IA ne reproduise ni n’aggrave les inégalités existantes. Les cadres de RAI s’étaient multipliés, mais restaient généralement à un niveau trop conceptuel, sans lignes directrices techniques précises pour l’application dans divers contextes. De plus, le passage à l’échelle introduisait souvent de nouveaux obstacles à la préservation des principes de responsabilité.

Il avait été reconnu que la plupart des grands pays et juridictions avaient adopté des recommandations ou lignes directrices pour l’usage responsable de l’IA, plus d’une centaine ayant été publiées depuis 2017. Des organisations telles que **ISO**, **IEEE** et **OCDE** développaient des cadres pour la classification et la gouvernance de l’IA. Cependant, l’interprétation et la mise en œuvre concrète de ces standards à grande échelle restaient limitées. Bien qu’une prise de conscience croissante émergeait parmi les acteurs publics et privés quant à la nécessité d’une approche responsable de l’IA, il manquait encore une feuille de route claire permettant d’y parvenir tout en créant de la valeur pour les organisations et les communautés. Déployer l’IA responsable à l’échelle organisationnelle restait donc un défi majeur.

De **janvier à octobre 2023**, le **Groupe de travail sur l’IA responsable du GPAI** a conduit un projet pour répondre à ces enjeux : **Scaling Responsible AI Solutions (SRAIS)**. Ce projet visait à mettre en relation des équipes développant des solutions d’IA responsable avec des mentors disposant d’une expertise pertinente, afin d’identifier les obstacles rencontrés tant sur le plan de la responsabilité que de la mise à l’échelle, et d’aider à les surmonter. À la suite d’un appel à participation initial, **23 équipes issues de 14 pays sur 5 continents** ont postulé pour y participer. Le projet s’est appuyé notamment sur la **Recommandation de l’OCDE sur l’intelligence artificielle (2019)**.

*Veuillez noter que les noms des individus, organisations et affiliations mentionnés sur le site reflètent leur statut au moment de la publication du rapport couvrant cette phase du mentorat SRAIS. Nous reconnaissons que ces informations peuvent évoluer avec le temps.*

Partenaires

GPAI_Associated_W_BCKG

Partenariat mondial sur l'IA (GPAI)

Le Partenariat mondial sur l’intelligence artificielle (GPAI) est un partenariat intégré qui rassemble les membres de l’OCDE et les pays du GPAI afin de faire progresser un programme ambitieux visant à mettre en œuvre une intelligence artificielle (IA) centrée sur l’humain, sûre, sécurisée et fiable, incarnée dans les principes de la Recommandation de l’OCDE sur l’IA.

ceimia logo2

International Center of Expertise In Montreal on Artificial Intelligence (CEIMIA)

Le CEIMIA se positionne comme un acteur clé dans le développement responsable de l’intelligence artificielle, fondé sur les principes d’éthique, de droits humains, d’inclusion, de diversité, d’innovation et de croissance économique. Le CEMIA mène des projets à fort impact dans le domaine de l’IA responsable grâce à une diplomatie scientifique influente à l’échelle internationale.

Objectives

Le projet SRAIS a été créé dans le but principal de produire des résultats tangibles en vue de déployer à grande échelle l’IA responsable (RAI). 

Conformément aux objectifs du GPAI en matière d’orientation stratégique sur la gouvernance, le développement, l’utilisation et la coopération mondiale dans le domaine de l’IA, le SRAIS s’est concentré sur :

  1. Le déploiement et la mise à l’échelle de solutions d’IA responsable.
  2. La présentation des résultats concrets de ces déploiements.
  3. La promotion de la collaboration interfonctionnelle entre les équipes et les experts participants.
  4. La définition et l’adoption de mesures de performance robustes pour la RAI.
  5. Le partage d’informations sur les défis et les opportunités de la RAI avec la communauté RAI interne.
  6. La formulation de recommandations générales à l’intention des équipes d’IA et des décideurs politiques afin de favoriser le développement à grande échelle des solutions RAI.

Points forts et conclusions

Cinq équipes ont participé à un processus de mentorat axé sur les principes de l’IA responsable (RAI), sélectionnées pour leur potentiel d’intérêt public, leur capacité à institutionnaliser la RAI et les défis existants en matière de mise à l’échelle et de RAI. Ces équipes représentaient divers contextes nationaux et secteurs. Le mentorat comprenait des ateliers initiaux visant à partager les défis et à mettre en relation les équipes et les mentors, suivis de trois sessions de mentorat individuelles par équipe. Au cours de ces sessions individuelles, l’accent a été mis sur l’identification d’un défi crucial en matière de responsabilité, puis sur l’élaboration d’un « résumé approfondi de la RAI » sur mesure, et enfin sur l’élaboration d’un plan d’action visant à mettre en œuvre une stratégie d’atténuation pour ce défi spécifique. L’objectif était de s’assurer que ces résumés approfondis soient largement pertinents pour d’autres acteurs de l’IA cherchant à respecter les normes de responsabilité lors de la mise à l’échelle. Ces plans ont ensuite été évalués par un comité d’experts afin de fournir des commentaires et des conseils supplémentaires pour renforcer les plans de l’équipe. 

Le projet SRAIS 2023 a mis en évidence les défis communs liés à l’intégration et à la validation des principes RAI et à leur mise à l’échelle de manière responsable. Il s’agit notamment de la maintenance des ressources, de la mise en place d’une gouvernance solide des données, de la consultation des parties prenantes, de l’instauration d’un climat de confiance, de la sécurité des tests, de la garantie de l’adéquation et de la sécurité dans tous les contextes, de l’approche centrée sur l’humain, de la formation des utilisateurs et du maintien de l’adhésion à la R Sur la base de l’engagement des mentors, des recommandations ont été formulées à l’intention des décideurs politiques et des équipes d’IA. Parmi ces recommandations figuraient la facilitation de tests sécurisés, l’accès équitable à l’infrastructure d’IA (ensembles de données sécurisés, infrastructure informatique et de connectivité), la prise en compte de la RAI tout au long du cycle de vie de l’IA et la promotion de la sécurité plutôt que de la rapidité. Suite au succès du projet, un rapport a été rédigé afin de résumer l’expérience de mentorat et les enseignements tirés, en soulignant notamment les défis et les opportunités liés à la mise à l’échelle d’une IA responsable. Le projet SRAIS a ensuite prévu d’étendre le mentorat à davantage d’équipes et de pays au cours des années suivantes, dans le but d’analyser systématiquement les expériences afin de créer éventuellement un « plan directeur » détaillé pour le développement à grande échelle de solutions d’IA responsables.

Cette année-là, une équipe a été distinguée comme RAI Changemakers pour sa participation réussie et ses efforts collectifs visant à déployer une solution d’IA responsable et démontrer sa capacité à évoluer de manière responsable. L’équipe d’ErgoCub a élaboré des lignes directrices fiables en matière d’IA pour les appareils portables dans les domaines de la santé et de l’industrie, ainsi qu’un plan solide et détaillé sur la manière dont elle les mettrait en œuvre dans ses activités.

« Le projet SRAIS nous a donné l'occasion unique d'approfondir et de faire progresser l'état de l'art en matière de méthodes de normalisation pour le déploiement de vêtements intelligents responsables alimentés par l'IA, à savoir des appareils portables, destinés aux futurs travailleurs dans les domaines de l'industrie et de la santé. Nous avons pu définir les étapes menant à un cadre qui gère tous les risques associés à la conception, au développement et au déploiement de dispositifs portables alimentés par l'IA qui prédisent les indicateurs de santé des futurs travailleurs, sans porter atteinte à leur vie privée et tout en garantissant des résultats fiables. Il s'agit maintenant de comprendre comment ce cadre peut conduire à une réglementation claire ayant un impact sur l'Italie et l'Europe, tout en assurant un certain niveau de compatibilité avec les normes internationales. »

Mentoré SRAIS –  RAI Changemaker – Cohorte SRAIS 2023

Équipes participantes

Group 118

Wysdom -Smart AI Analytics Tools, Canada

Description 

Rachetée par Calabrio en 2024, Wysdom est un leader dans le domaine des solutions d’IA et de performance des agents virtuels.

Résumé des progrès réalisés par le RAI 

 

Group 118

COMPREHENSIV - At Home Univesal Primary Health Care, India

Description

COMPREHENSIV est une application pour smartphone conçue pour être utilisée par du personnel de terrain formé afin de dépister et de gérer en temps réel un large éventail de maladies à un stade précoce, sur la base d’images des pathologies et d’un contexte multidimensionnel. 

 Résumé des progrès réalisés dans le cadre du RAI

Identification et documentation des défis et des stratégies pour une collecte et une gestion responsables des données pour les futures applications de l’IA dans le domaine des soins de santé. 

Group 118

ErgoCub - Artificial Intelligence in Wearables and Robotics for Assessment, Italy

Description 

ErgoCub développe des technologies d’IA incarnées, notamment des appareils portables et des robots humanoïdes, afin de prévenir les troubles musculo-squelettiques chez les travailleurs et pour une utilisation dans le domaine de la santé. Elle met en avant les maladies musculo-squelettiques comme étant les maladies professionnelles les plus courantes dans le monde.

Résumé des progrès réalisés par le RAI

Élaboration de lignes directrices fiables en matière d’IA pour les appareils portables dans le domaine de la santé et de l’industrie.

Group 118

Système de cartographie forestière basé sur l'IA de Jalisco, Mexique

Description 

Le projet de l’équipe IA du gouvernement de Jalisco vise à développer des modèles d’IA capables de surveiller et de détecter le plus tôt possible la déforestation illégale, afin de permettre aux autorités d’identifier les besoins les plus critiques/urgents en matière de restauration et de conservation, et de réagir plus rapidement. 

Résumé des progrès réalisés dans le cadre du RAI 

Identification et documentation des principaux défis et des solutions potentielles pour le développement d’un système d’aide à la décision responsable basé sur un modèle de classification.

Group 118

Particip.ai One : plateforme de participation et de retour d'information, Allemagne

Description 

Particip.ai One est une plateforme de participation et de retour d’information basée sur un robot vocal téléphonique, destinée à être utilisée par les citoyens, les employés et les consommateurs pour faire part de leurs commentaires et participer aux processus décisionnels.

Résumé des progrès réalisés par le RAI 

Élaboration de lignes directrices pour une utilisation responsable de la technologie vocale et des chatbots basés sur l’IA pour une participation et un retour d’information centrés sur les personnes.

Équipe du projet

Amir Banifatemi

Co-responsable du projet SRAIS 2023

Affiliation professionnelle : Cognizant (directeur de l’IA responsable), États-Unis

Francesca Rossi

Co-responsable du projet SRAIS 2023

Affiliation professionnelle : IBM Research, États-Unis

Arnaud Quenneville-Langis

Professional Affiliation : 
Chef de projet, CEIMIA, Canada

Laëtitia Vu

Affiliation professionnelle : Coordinatrice de projet, CEIMIA, Canada

Stephanie King

Affiliation professionnelle :  Directrice des initiatives en matière d’IA, CEIMIA, Canada

Cohort Mentors

Sundar Sundareswaran

Mentor

Affiliation professionnelle : consultant indépendant, États-Unis

Przemyslaw Biecek

Mentor

Affiliation professionnelle : Université technologique de Varsovie, Pologne

Ricardo Baeza-Yates

Mentor

Affiliation professionnelle : Institut pour l’IA expérientielle de l’université Northeastern, États-Unis

Zumrut Muftuoglu

Mentor

Affiliation professionnelle : Université technique Yildiz, Turquie

Anurag Agrawal

Mentor

Affiliation professionnelle : Université Ashoka, Inde

Ulises Cortés

Mentor

Affiliation professionnelle : Universitat Politècnica de Catalunya, Espagne

Furukawa Naohiro

Mentor

Affiliation professionnelle : ABEJA, Inc., Japon

Borys Stokalski

Mentor

Affiliation professionnelle : RETHINK, Pologne

Kolja Verhage

Mentor

Affiliation professionnelle : Deloitte, Pays-Bas

Maria Lorena Flórez Rojas

Mentor

Affiliation professionnelle : Université de Groningue, Colombie/Pays-Bas

Daniele Pucci

Mentor

Affiliation professionnelle : Laboratoires de recherche de l’Istituto Italiano di Tecnologia, Gênes, Italie

Kudakwashe Dandajena

Conseiller

Affiliation professionnelle : Institut africain des sciences mathématiques (AIMS), Rwanda

Andrea Jacobs

Conseiller

Affiliation professionnelle : Code Caribbean, Antigua

Michael O'Sullivan

Conseiller

Affiliation professionnelle : Université d’Auckland, Nouvelle-Zélande

Juan David Gutiérrez

Conseiller

Affiliation professionnelle : Universidad del Rosario, Colombie

Privacy Overview

Nous utilisons des cookies pour maintenir la sécurité, faciliter l’expérience client et améliorer nos sites. Pour plus d’information voir notre politique de confidentialité