Partager

Accueil > Nos projets > L'IA responsable

Groupe de travail sur l'IA responsable

La mission de notre groupe de travail est simple: nous nous efforçons de favoriser et de contribuer au développement, à l'utilisation et à la gouvernance responsables des systèmes d'IA centrés sur l'homme, en cohérence avec les objectifs de développement durable des Nations Unies.

Il convient de noter que les groupes de travail du PMIA ne fonctionnent pas en silos, nous pouvons donc collaborer avec d’autres groupes du PMIA de temps à autre. Par exemple, nous pouvons interagir avec le groupe de travail sur la gouvernance des données lorsque nos projets respectifs partagent des dimensions communes. À la lumière de la pandémie du COVID-19, nous avons également formé un sous-groupe ad hoc sur l'IA et la réponse à la pandémie pour soutenir le développement, l'utilisation et la gouvernance responsables de l'IA dans ce domaine spécifique.

Rapport du Groupe de travail sur l'IA responsable

 Areas for future action in the responsible AI ecosystem (supporting report prepared by the Future Society, en anglais)

Notre premier projet

À l’appui du mandat du Groupe de travail, nous lançons un projet qui jettera les bases des futures ambitions du PMIA en matière d’IA responsable. Les résultats de ce premier projet ont été présentés lors de la première plénière du GPAI qui s'est tenue en décembre 2020.

Il s'agit d'une première étape dans le développement ou l'intégration des mécanismes de coordination de la communauté internationale pour faciliter les collaborations intersectorielles et internationales pour l'IA pour le bien social, en particulier pour contribuer à la réalisation des objectifs de développement durable des Nations Unies. Pour ce faire, le projet initial:

  • Catalogue les initiatives clés existantes entreprises par divers intervenants pour promouvoir la recherche et le développement responsables de systèmes et d'applications d'IA bénéfiques, notamment:
    • des projets et des cadres pour opérationnaliser les principes éthiques de l'IA et l'application de l'IA pour le bien social;
    • mécanismes et processus pour identifier et atténuer les préjugés, la discrimination et les inégalités dans les systèmes d'IA;
    • des outils, des certifications, des évaluations et des mécanismes d'audit pour évaluer la responsabilité et la fiabilité des systèmes d'IA, sur la base de paramètres tels que la sécurité, la robustesse, la responsabilité, la transparence, l'équité, le respect des droits de l'homme et la promotion de l'équité.

  • Analyse les initiatives prometteuses qui ont un grand potentiel pour contribuer au développement et à l'utilisation de systèmes et d'applications d'IA bénéfiques qui pourraient bénéficier d'une collaboration internationale et intersectorielle.
     
  • Recommande de nouvelles initiatives et comment elles pourraient, dans la pratique, être mises en œuvre et contribuer à promouvoir le développement, l'utilisation et la gouvernance responsables des systèmes d'IA centrés sur l'homme.

Livrable à moyen terme

D'ici 2022-2023, le Groupe de travail s'efforcera de favoriser le développement ou l'intégration de mécanismes de coordination pour la communauté internationale dans le domaine de l'IA pour les applications de bien social, afin de faciliter les collaborations multipartites et internationales dans ce domaine. Ces mécanismes de coordination pourraient inclure une consultation publique, le cas échéant. L'objectif global sera de réunir les besoins, l'expertise et les sources de financement. Ce livrable peut être associé à d'autres projets futurs potentiels du groupe de travail, par exemple sur les sujets suivants:

  • Utiliser les systèmes d'IA pour faire progresser les objectifs de développement durable des Nations Unies, renforcer la confiance du public, accroître l'engagement des citoyens, améliorer la prestation des services gouvernementaux, contribuer à la promotion des droits de l'homme et renforcer les processus démocratiques, les institutions et les résultats;
     
  • Évaluer et développer des cadres pratiques multipartites pour des applications spécifiques pour une IA responsable;
     
  • Développer des outils, des certifications, des évaluations et des mécanismes d'audit qui pourraient être utilisés pour évaluer la responsabilité et la fiabilité des systèmes d'IA sur la base de paramètres tels que la responsabilité, la transparence, la sécurité, la robustesse, l'équité, le respect des droits de l'homme et la promotion de l'équité.

Nos experts

Le Groupe de travail sur l'IA responsable est composé de 32 experts de plus de 15 pays, dont l'Inde, la Slovénie et le Mexique. Nous avons un large éventail d'expertise, y compris la philosophie, l'informatique, la politique et l'éthique, ce qui se traduit par des points de vue variés et des discussions solides. Au fur et à mesure que le groupe affinait sa mission et ses livrables, nous avons assisté à une impressionnante collaboration interdisciplinaire entre ces experts.

Point de contact pour ce groupe: Centre d'expertise PMIA de Montréal

Membres du groupe

  • Yoshua Bengio, Mila, Quebec Artificial Intelligence Institute (co-chair)
  • Raja Chatila, Sorbonne University (co-chair)
  • Carolina Aguerre, Center for Technology and Society (CETyS)
  • Genevieve Bell, Australian National University
  • Ivan Bratko, University of Ljubljana
  • Joanna Bryson, Hertie School
  • Partha Pratim Chakrabarti, Indian Institute of Technology Kharagpur
  • Jack Clark, OpenAI
  • Virginia Dignum, Umeå University
  • Dyan Gibbens, Trumbull Unmanned
  • Kate Hannah, Te Pūnaha Matatini, University of Auckland
  • Toshiya Jitsuzumi, Chuo University
  • Alistair Knott, University of Otago
  • Pushmeet Kohli, DeepMind
  • Marta Kwiatkowska, Oxford University
  • Christian Lemaître Léon, Metropolitan Autonomous University
  • Vincent C. Müller, Technical University of Eindhoven
  • Wanda Muñoz, SEHLAC Mexico
  • Alice H. Oh, Korea Advanced Institute of Science and Technology School of Computing
  • Luka Omladič, University of Ljubljana
  • Julie Owono, Internet Sans Frontières
  • Dino Pedreschi, University of Pisa
  • V K Rajah, Advisory Council on the Ethical Use of Artificial Intelligence and Data
  • Catherine Régis, University of Montréal
  • Francesca Rossi, IBM Research
  • David Sadek, Thales Group
  • Rajeev Sangal, International Institute of Information Technology Hyderabad
  • Matthias Spielkamp, Algorithm Watch
  • Osamu Sudo, Chuo University
  • Roger Taylor, Centre for Data Ethics and Innovation 


Observateurs

  • Amir Banifatemi, AI Commons
  • Vilas Dhar, The Patrick J. McGovern Foundation
  • Marc-Antoine Dilhac, ALGORA Lab
  • Adam Murray, OECD Network of Experts on AI
  • Karine Perset, OECD
  • Stuart Russel, UC Berkeley
  • Cédric Wachholz, Digital Innovation and Transformation Section, Communication and Information Sector, UNESCO