Par Charles Bourrat
Operations Manager
Publié le 25 mars 2022
Catégorie Machine Learning
Nous avons récemment eu le plaisir d’organiser un Webinar avec Labelia lab (ex-Substra Foundation). Nous avons eu la chance de recevoir Eric Boniface, cofondateur et directeur de Labelia, qui est venu nous présenter Labelia ainsi que les raisons qui ont amené à sa création.
Labelia Labs, créée en 2018, se consacre au développement des pratiques d’IA collaborative, responsable et de confiance. Ses travaux se déclinent en deux axes principaux, le privacy-preserving federated learning et l’IA responsable et de confiance, notre Webinar s’étant concentré sur ce deuxième axe.
Nous sommes ainsi revenus sur le contexte ayant motivé l’action et la création de Labelia, leur travail de construction d’un référentiel commun participatif et enfin le détail du programme IA responsable proposé par Labelia.
Les fondateurs de Labelia sont partis d’un constat simple, celui de tensions grandissantes entre l’immense potentiel des technologies d’Intelligence Artificielle face aux craintes que ces mêmes technologies suscitent, la liste des “Awful AI” témoignant des nombreux scandales liés à ces nouvelles technologies.
En effet, deux tendances s’opposent, entre expansion des algorithmes d'Intelligence Artificielle dans les organisations et inquiétudes du public vis-à-vis de l’utilisation et de la sécurité des données privées, ainsi que le manque de transparence des algorithmes.
Comment continuer à développer et innover en matière d’algorithmes et d’IA tout en assurant un haut niveau de protection aux données personnelles ou sensibles, et en garantissant la qualité et la transparence des travaux de data science ?
Ainsi, face au potentiel et à l’intérêt des techniques d’IA d’un côté, et de l’autre à la difficulté à faire confiance à ces techniques ou à leurs mises en œuvre, Labelia a travaillé à résoudre ces craintes en développant des approches d’IA responsable. En effet, la confiance ne peut être instaurée que si un cadre autour de l’IA éthique ou de l’IA responsable émerge.
Mais conjuguer le potentiel des algorithmes avec un cadre éthique donnant confiance aux utilisateurs représente un défi majeur pour le milieu de la data. Certes, un immense espace de recherche et d'innovation sur les approches, les méthodologies et les outils s’ouvre à nous, mais l’enjeu est de créer un cadre, un référentiel opérationnel pour les acteurs du numérique.
Jusqu’à présent les travaux et initiatives sur le sujet ne font qu’ériger de grands principes, certes vertueux, mais trop peu concrets pour être opérationnels et faire émerger un cadre et des règles permettant aux organisations d’agir pour se mettre en conformité avec ces principes d’IA responsable et de confiance.
Labelia a ainsi souhaité répondre à trois interrogations à travers son initiative :
En travaillant autour de ces questions Labelia s’est donc fixée comme ambition d’élaborer un référentiel cadre, s’adressant aux praticiens, et que ce référentiel soit utile, pragmatique et actionnable, et qu’il permette d‘évaluer son niveau de maturité et offre des ressources pour accompagner les praticiens et entreprises.
Labelia a ainsi mis en place de manière participative et itérative une évaluation « data science responsable et de confiance ». Ces deux principes directeurs de démarche itérative et participative sont au cœur du projet de Labelia :
Labelia s’inspire d’initiatives telles que B-Corp, qui est un cadre international de référence pour les entreprises responsables (au sens large, pas seulement sur les sujets tech) et qui a réussi à construire un référentiel générique très clair, un outil pour évaluer son entreprise et un label reconnu.
L’ambition de Labelia ? Créer un référentiel clair, accessible par tous les acteurs du milieu tech et data tout en donnant des clés pour mettre en place des actions rapidement. L’objectif est de proposer une approche qui soit concrète, qui parle au plus grand nombre d'acteurs, et qui soit efficace à mettre en place et à utiliser. Une approche méthodologique et pragmatique en somme.
Labelia propose ainsi trois outils :
Le référentiel cadre regroupe les risques, pratiques et outils qui permettent d’évaluer la maturité d’une organisation. Il est maintenu et amélioré en continu, et voit la publication d’une nouvelle version mise à jour chaque semestre.
La plateforme d’évaluation Labelia Assessment a été développée à partir de ce référentiel et permet à toute organisation d’évaluer cinq sections thématiques regroupant les approches responsables et de confiance de la data science et ainsi connaître son niveau de maturité sur une échelle de 0 à 100 et d’identifier des thèmes de travail pour progresser. Le score fourni en sortie un score synthétique sur 100 points (maximum théorique), sachant qu’à date, *50/100 est un niveau de maturité très avancé. Chaque point d’évaluation s’accompagne de ressources techniques, permettant aux organisations souhaitant s’y former de plus facilement identifier les bons usages et ainsi s’améliorer.
Le label a été lancé en 2021 pour permettre aux organisations ayant un bon niveau de maturité de le faire valoir. L'objectif derrière ce label est de contribuer à faire avancer tous les acteurs de la data vers des pratiques plus vertueuses et responsables. Ce label se décline en deux niveaux :
L'attribution de ce label se fait à l’issue d’un processus d’audit et de vérifications visant à valider ou invalider l’exactitude et la sincérité de l’assessment de l’organisation candidate. Les organisations labellisées le sont pour 2 ans, figurent dans un registre public des organisations Labelia.
Axionable, cabinet de conseil spécialiste de l’IA durable, est depuis le 27 janvier 2022 la première entreprise à avoir obtenu le label, décrochant la première certification Labelia Avancé avec un score de 68,9 sur 100.
Voilà l’essentiel de ce qu’il y a à savoir sur Labelia labs et leur initiative pour construire un écosystème data et une IA plus responsables. Nous espérons que cet article vous aura été utile pour mieux comprendre les actions qui sont mises en place pour élaborer l’IA éthique de demain. L’enjeu est ici double, il permet en interne de gagner en maturité sur ces sujets et en externe de rassurer ses parties prenantes, ce qui est primordiale si l’on veut construire une confiance durable entre les acteurs de l’IA et les utilisateurs des services.
Si vous souhaitez en savoir plus sur Labelia n’hésitez pas à revoir l’intervention d’Eric Boniface dans notre webinar Blent x LabelIA: L’IA responsable et de confiance.
Vous pouvez également participer et aider Labelia à construire son référentiel, vous pouvez le faire en :
Vous souhaitez vous former au MLOps ?
Articles similaires
20 sept. 2022
Machine Learning
Nada Belaidi
Data Scientist
Lire l'article
12 juil. 2022
Machine Learning
Nada Belaidi
Data Scientist
Lire l'article
4 juil. 2022
Machine Learning
Nada Belaidi
Data Scientist
Lire l'article
60 rue François 1er
75008 Paris
Blent est une plateforme 100% en ligne pour se former aux métiers Tech & Data.
Organisme de formation n°11755985075.
Data Engineering
À propos
Gestion des cookies
© 2023 Blent.ai | Tous droits réservés