← Retourner à la liste des articles
Image blog
Auteur

Par Charles Bourrat

Operations Manager

Publié le 25 mars 2022

Catégorie Machine Learning

IA responsable et de confiance : de quoi s'agit-il ?

Logo Labelia Labs

Nous avons récemment eu le plaisir d’organiser un Webinar avec Labelia lab (ex-Substra Foundation). Nous avons eu la chance de recevoir Eric Boniface, cofondateur et directeur de Labelia, qui est venu nous présenter Labelia ainsi que les raisons qui ont amené à sa création.

Labelia Labs, créée en 2018, se consacre au développement des pratiques d’IA collaborative, responsable et de confiance. Ses travaux se déclinent en deux axes principaux, le privacy-preserving federated learning et l’IA responsable et de confiance, notre Webinar s’étant concentré sur ce deuxième axe.

Nous sommes ainsi revenus sur le contexte ayant motivé l’action et la création de Labelia, leur travail de construction d’un référentiel commun participatif et enfin le détail du programme IA responsable proposé par Labelia.

Un contexte de tensions grandissantes et la nécessité d’un cadre

Les fondateurs de Labelia sont partis d’un constat simple, celui de tensions grandissantes entre l’immense potentiel des technologies d’Intelligence Artificielle face aux craintes que ces mêmes technologies suscitent, la liste des “Awful AI” témoignant des nombreux scandales liés à ces nouvelles technologies.

En effet, deux tendances s’opposent, entre expansion des algorithmes d'Intelligence Artificielle dans les organisations et inquiétudes du public vis-à-vis de l’utilisation et de la sécurité des données privées, ainsi que le manque de transparence des algorithmes.

Comment continuer à développer et innover en matière d’algorithmes et d’IA tout en assurant un haut niveau de protection aux données personnelles ou sensibles, et en garantissant la qualité et la transparence des travaux de data science ?

Ainsi, face au potentiel et à l’intérêt des techniques d’IA d’un côté, et de l’autre à la difficulté à faire confiance à ces techniques ou à leurs mises en œuvre, Labelia a travaillé à résoudre ces craintes en développant des approches d’IA responsable. En effet, la confiance ne peut être instaurée que si un cadre autour de l’IA éthique ou de l’IA responsable émerge.

Mais conjuguer le potentiel des algorithmes avec un cadre éthique donnant confiance aux utilisateurs représente un défi majeur pour le milieu de la data. Certes, un immense espace de recherche et d'innovation sur les approches, les méthodologies et les outils s’ouvre à nous, mais l’enjeu est de créer un cadre, un référentiel opérationnel pour les acteurs du numérique.

Jusqu’à présent les travaux et initiatives sur le sujet ne font qu’ériger de grands principes, certes vertueux, mais trop peu concrets pour être opérationnels et faire émerger un cadre et des règles permettant aux organisations d’agir pour se mettre en conformité avec ces principes d’IA responsable et de confiance.

Labelia a ainsi souhaité répondre à trois interrogations à travers son initiative :

  • Comment se positionner ?
  • Comment évaluer son organisation ?
  • Sur quoi travailler pour se “mettre en conformité” avec ces principes ?

Ambition : l’élaboration d’un référentiel commun participatif

En travaillant autour de ces questions Labelia s’est donc fixée comme ambition d’élaborer un référentiel cadre, s’adressant aux praticiens, et que ce référentiel soit utile, pragmatique et actionnable, et qu’il permette d‘évaluer son niveau de maturité et offre des ressources pour accompagner les praticiens et entreprises.

Labelia a ainsi mis en place de manière participative et itérative une évaluation « data science responsable et de confiance ». Ces deux principes directeurs de démarche itérative et participative sont au cœur du projet de Labelia :

  • Participative : impossible de traiter un sujet aussi vaste, complexe et technique par soi-même, il est nécessaire de réunir des compétences diverses et des points de vue variés sur le sujet ;
  • Itérative : il n’est pas inimaginable de travailler pendant une période finie, de publier les résultats de ce travail et de passer à autre chose. Le domaine étudié évolue vite, les perspectives sont multiples (grande entreprise, organisation publique, petite start-up, consultants spécialisés, régulateurs…), il fallait démarrer quelque part et améliorer, affiner au fil du temps le référentiel.

Labelia s’inspire d’initiatives telles que B-Corp, qui est un cadre international de référence pour les entreprises responsables (au sens large, pas seulement sur les sujets tech) et qui a réussi à construire un référentiel générique très clair, un outil pour évaluer son entreprise et un label reconnu.

L’ambition de Labelia ? Créer un référentiel clair, accessible par tous les acteurs du milieu tech et data tout en donnant des clés pour mettre en place des actions rapidement. L’objectif est de proposer une approche qui soit concrète, qui parle au plus grand nombre d'acteurs, et qui soit efficace à mettre en place et à utiliser. Une approche méthodologique et pragmatique en somme.

Le programme IA responsable

Labelia propose ainsi trois outils :

  • Un référentiel cadre « data science responsable et de confiance »
  • Une plateforme d’évaluation et de notation de l’activité IA, gratuit et en libre accès
  • Un label “Labelia - IA responsable et de confiance” pour récompenser les organisation avec un bon niveau de maturité
Logo Labelia Labs

Le référentiel cadre regroupe les risques, pratiques et outils qui permettent d’évaluer la maturité d’une organisation. Il est maintenu et amélioré en continu, et voit la publication d’une nouvelle version mise à jour chaque semestre.

La plateforme d’évaluation Labelia Assessment a été développée à partir de ce référentiel et permet à toute organisation d’évaluer cinq sections thématiques regroupant les approches responsables et de confiance de la data science et ainsi connaître son niveau de maturité sur une échelle de 0 à 100 et d’identifier des thèmes de travail pour progresser. Le score fourni en sortie un score synthétique sur 100 points (maximum théorique), sachant qu’à date, *50/100 est un niveau de maturité très avancé. Chaque point d’évaluation s’accompagne de ressources techniques, permettant aux organisations souhaitant s’y former de plus facilement identifier les bons usages et ainsi s’améliorer.

Le label a été lancé en 2021 pour permettre aux organisations ayant un bon niveau de maturité de le faire valoir. L'objectif derrière ce label est de contribuer à faire avancer tous les acteurs de la data vers des pratiques plus vertueuses et responsables. Ce label se décline en deux niveaux :

  • Labelia Intermédiaire, pour les organisations ayant un haut niveau de maturité, correspondant à une note entre 45 et 55/100
  • Labelia Avancé, pour les organisations ayant un très haut niveau de maturité dans leurs pratiques, correspondant à une note de 55/100 ou plus
Logo Labelia Labs
Logo Labelia Labs

L'attribution de ce label se fait à l’issue d’un processus d’audit et de vérifications visant à valider ou invalider l’exactitude et la sincérité de l’assessment de l’organisation candidate. Les organisations labellisées le sont pour 2 ans, figurent dans un registre public des organisations Labelia.

Axionable, cabinet de conseil spécialiste de l’IA durable, est depuis le 27 janvier 2022 la première entreprise à avoir obtenu le label, décrochant la première certification Labelia Avancé avec un score de 68,9 sur 100.

Voilà l’essentiel de ce qu’il y a à savoir sur Labelia labs et leur initiative pour construire un écosystème data et une IA plus responsables. Nous espérons que cet article vous aura été utile pour mieux comprendre les actions qui sont mises en place pour élaborer l’IA éthique de demain. L’enjeu est ici double, il permet en interne de gagner en maturité sur ces sujets et en externe de rassurer ses parties prenantes, ce qui est primordiale si l’on veut construire une confiance durable entre les acteurs de l’IA et les utilisateurs des services.

Si vous souhaitez en savoir plus sur Labelia n’hésitez pas à revoir l’intervention d’Eric Boniface dans notre webinar Blent x LabelIA: L’IA responsable et de confiance.

Vous pouvez également participer et aider Labelia à construire son référentiel, vous pouvez le faire en :

Articles similaires

Blog

20 sept. 2022

Machine Learning

Hugging Face est une startup française qui s'est fait connaître grâce à l'infrastructure NLP qu'ils ont développée. Aujourd'hui, elle est sur le point de révolutionner le domaine du Machine Learning et traitement automatique du langage naturel. Dans cet article, nous allons présenter Hugging Face et détailler les taches de base que cette librairie permet de réaliser. Nous allons également énumérer ses avantages et ses alternatifs.

Nada Belaidi

Équipe Blent

Data Scientist

Lire l'article

Blog

12 juil. 2022

Machine Learning

spaCy est une bibliothèque open-source pour le traitement avancé du langage naturel. Elle est conçue spécifiquement pour une utilisation en production et permet de construire des applications qui traitent et comprennent de grands volumes de texte.

Nada Belaidi

Équipe Blent

Data Scientist

Lire l'article

Blog

4 juil. 2022

Machine Learning

Un auto-encodeur est une structure de réseaux neuronaux profonds qui s'entraîne pour réduire la quantité de données nécessaires pour représenter une donnée d'entrée. Ils sont couramment utilisés en apprentissage automatique pour effectuer des tâches de compression de données, d'apprentissage de représentations et de détection de motifs.

Nada Belaidi

Équipe Blent

Data Scientist

Lire l'article