Retour sur la conférence – Intelligence Artificielle Responsable : Outils et gouvernance
Le 25 janvier, nous avons eu le grand privilège d’organiser la conférence « Intelligence Artificielle responsable : outils et gouvernance » avec 200 participants qui nous ont rejoint dans les locaux d’AXA, membre fondateur d’Impact AI. Nous tenons à les remercier ainsi que les différents intervenants.
Voici un retour sur cette date importante du think and do tank Impact AI qui a publié à cette occasion la boîte à outils en ligne IA responsable en open source où sont rassemblés des outils techniques, des outils de gouvernance, des formations et des publications pour faire de l’IA de manière responsable.
Au cours de cet événement, des experts de haut niveau sont venus présenter leurs visions sur la question de l’IA responsable.
L’ouverture de la conférence a été faite par Jad ARISS, Directeur des Affaires Publiques et de la Responsabilité d’Entreprise du Groupe AXA et son animation par Cécile Wendling, Coordinatrice du Groupe de Travail IA Responsable d’Impact AI et Directrice de la Prospective du groupe AXA.
Diversité et IA responsable
Antoine PETIT, Président-directeur général du CNRS – Centre National de la Recherche Scientifique a effectué le premier keynote de la journée. Il a souligné que c’est l’utilisation de l’IA qui doit être responsable.

Points clés :
- Il faut de la diversité et associer les sciences sociales à la recherche sur l’IA.
- L’éthique dépend des sociétés. Ce qui est éthique en Europe peut ne pas l’être dans d’autres régions du monde et inversement.
- Nous devons développer l’IA pour qu’elle soit à notre service et qu’elle soit conforme à nos valeurs.
L’éthique consiste à faire des choix
La conférence s’est poursuivie par une table ronde animée par Laurence LAFONT, Présidente du Conseil d’Administration d’Impact AI, Directrice de la Division Marketing & Opérations de Microsoft France.
Portant sur le thème des outils techniques pour une IA Responsable, cette table ronde a réuni Raja CHATILA, Professeur à Sorbonne Université, Président de l’IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, Marcin DETYNIECKI, Directeur de la Recherche et du Développement et Arnaud de MOISSAC, Co-fondateur et CEO de DCbrain qui a présenté des outils techniques de la boîte à outils pour une IA responsable.
Points clés :
- L’éthique ne s’agit pas tout simplement d’être au courant des valeurs. Cela consiste à faire des choix qui sont les fruits de tensions au sein des organisations.
- Nous sommes parfois amenés à créer des biais positifs ou faire de la « discrimination positive » pour être en accord avec nos valeurs et parce que nous croyons que c’est ce qui est juste
- Il faut combiner les enjeux business et les enjeux sociétaux sans les opposer
- Il y a une responsabilité des acteurs de fournir des outils dignes de confiance
- Les standards, les certifications peuvent être des pistes pour créer de la confiance
L’IA, un sujet très vaste
Après la première table ronde, Bruno SPORTISSE, président de l’Inria – Institut National de Recherche en Informatique et Automatique, a effectué un discours dans lequel il a souligné l’importance de la l’IA responsable pour le monde universitaire.
De nombreuses recherches sont menées sur l’explicabilité, la transparence, etc. Il a pris l’exemple de Translago, un projet lancé par Inria qui est une plateforme permettant de développer la transparence et la responsabilité des systèmes algorithmiques.
Il a souligné le besoin de consacrer du temps à la recherche et de faire face au vaste sujet d’IA Responsable avec humilité. L’intelligence artificielle est très complexe et nous devons y faire face avec pragmatisme.
Les bonnes pratiques pour la mise en place de l’intelligence artificielle responsable
Bernard OURGHANLIAN, Directeur Technique et Sécurité de Microsoft France est revenu sur les principes éthiques de l’IA mis en place par Microsoft, sous l’impulsion de Satya Nadella, autour de 4 piliers : équité, fiabilité et sûreté, respect de la vie privée et sécurité, inclusivité, qui reposent sur la transparence et l’accountability. Il a également partagé des bonnes pratiques de gouvernance pour mettre en place concrètement ces principes :
- Création d’un comité d’Ethique en 2016, rattaché au ComEx: AETHER (AI & Ethics in Engineering & Research)
- Partnership on AI
Ethics by design
La deuxième table ronde portait sur les outils de gouvernance pour une IA responsable animée par Cécile WENDLING avec 4 intervenants: Frédéric Bardeau, Président de Simplon.co, Dominique CARDON, Directeur du Médialab de Sciences Po, Nathalie Laneret, Directrice de la politique de confidentialité de CIPL et Nicolas DEMASSIEUX, Directeur d’Orange Labs Recherche.
Points clés :
- Il faut pouvoir montrer qu’il existe un mécanisme, un processus en place pour faire de l’IA de manière responsable. L’outil « Accountability Wheel » du CIPL en est un exemple avec ses 6 piliers : leadership et supervision (l’exemple doit venir d’en haut), évaluation des risques, politiques et procédures, transparence, formation et sensibilisation, surveillance et vérification (réalisation d’audit en amont et en aval), réaction (sanctions en cas de non-respect et dédommagement).
- Il est essentiel d’intégrer l’éthique dans la formation des étudiants, c’est ce qui est fait dans les formations de Simplon. En effet, il est important de sensibiliser les professionnels de l’IA sur les questions éthiques dès le début.
- Il faudrait avoir un dialogue entre l’utilisateur final et le développeur pour bien comprendre les enjeux. Chez Orange par exemple, les différentes parties prenantes sont présentes dès le début de chaque projet.
On peut avoir un regard sociologique de l’IA. Dominique Cardon a évoqué l’impact de l’IA sur nos sociétés. Il y a la question du nudge mais aussi le fait que les algorithmes vont avoir tendance à nous faire des recommandations sur la base de traces antérieures et vont donc contribuer à enfermer les individus dans ce qui devrait leur plaire. Ces mêmes individus étant par ailleurs demandeurs de personnalisation. Il faut trouver des mécanismes pour pousser à la curiosité au-delà de son comportement habituel.
La nécessité d’une plus grande collaboration
Deux intervenants ont conclu notre évènement : Bertrand PAILHES, coordinateur national de la stratégie France pour l’IA et Nathalie SMUHA, coordinatrice AI HLEG de la Commission européenne.

Bertrand PAILHES a expliqué la stratégie nationale en soulignant l’importance de la recherche, de la formation, de l’utilisation de l’IA dans les entreprises du secteur public et du secteur privé et a mis en avant l’aspect éthique de la stratégie qui permet de donner du sens (AI for humanity, Tech 4 Good, etc.). En outre, il a lancé un appel pour une plus grande collaboration entre les différents acteurs impliqués autour de l’IA (entreprises privées, secteur public, organisation internationale, etc.).

Nathalie SMUHA a présenté la stratégie européenne sur l’IA avec les 3 piliers : augmenter les investissements dans l’IA, se préparer aux changements apportés par l’IA et mettre en place un cadre éthique pour l’IA. En outre, elle a présenté les lignes directrices en matière d’éthique pour les IA dignes de confiance développées par le HLEG AI de la Commission européenne avec une première publication en décembre 2018, ouvertes aux consultations jusqu’au 1er février via le lien ici. Elle a lancé un appel à tous pour contribuer au document en envoyant des commentaires pendant la période de consultation.
Bilan
Une superbe expérience, des présentations de très bonne qualité, une approche collective avec des contributions riches au développement de l’IA responsable – toutes les conditions sont réunies pour poursuivre l’aventure!
Pour prolonger l’échange nous avons publié la boîte à outils avec des outils techniques, des outils de gouvernance, des formations et des publications. Consultez, contribuez et partagez!
Retrouvez les moments forts de l’évènement et les principales interventions à la conférence en vidéo ci -dessous