Partager

Accueil > Nos projets > L'IA responsable > L'IA et la réponse à la pandémie

L'IA et la réponse à la pandémie

À la lumière du contexte international actuel, le groupe de travail (task force) du PMIA a invité le groupe de travail sur l'IA responsable à former un sous-groupe ad hoc sur l'IA et la réponse à la pandémie. Ce sous-groupe rassemble des praticiens de l'IA, des experts de la santé, des membres et des organisations internationales pour soutenir le développement et l'utilisation responsables de solutions activées par l'IA contre le COVID-19 et d'autres futures pandémies. Grâce à ses travaux, il promouvra que les méthodes, les algorithmes, le code et les données validées sont partagés rapidement, ouvertement, en toute sécurité et d'une manière juste et respectueuse de la vie privée, pour éclairer les réponses de santé publique et aider à sauver des vies.

Le sous-groupe se concentrera sur la promotion de la collaboration intersectorielle et transfrontalière dans ce domaine et sur le soutien à l'engagement envers l'utilisation de l'IA parmi le public et les professionnels de la santé dans la réponse mondiale aux pandémies et aux défis de santé publique de manière responsable.

Rapport du Groupe de travail sur l’IA et la réponse à la pandémie

 Responsible AI in pandemic response (supporting report prepared by The Future Society, en anglais)

Notre mission et nos objectifs

Nous lançons un projet pour cataloguer, analyser, émettre des recommandations et proposer de futurs projets sur les outils d'IA pour lutter contre la pandémie. Ce projet comporte trois volets:

1. Cataloguer les outils d'IA existants développés et utilisés dans le contexte de la pandémie COVID-19 pour accélérer la recherche, la détection, la prévention, la réponse et le rétablissement. Le catalogue répertorie les initiatives des universités, des gouvernements, du secteur privé, de la société civile et des organisations internationales, entre autres.

2. Évaluer les outils d'IA sélectionnés. Les outils d'IA particulièrement intéressants seront sélectionnés dans le catalogue ci-dessus pour une évaluation plus approfondie. L'évaluation analysera comment ces outils mettent en œuvre les notions de recherche et développement responsables et pourquoi ils sont des applications bénéfiques des systèmes d'IA. L'analyse identifiera les meilleures pratiques, les leçons apprises et les principaux défis socio-économiques, techniques et scientifiques liés à la mise en œuvre des principes d'IA responsable.

3. Recommandations et projets futurs. Sur la base de l'analyse, formuler des recommandations sur les meilleures pratiques pour surmonter les défis identifiés ci-dessus et suggérer des projets spécifiques pour combler les lacunes et surmonter les problèmes détectés lors de l'évaluation.

Nos experts

Point de contact pour ce groupe: Centre d'expertise PMIA de Montréal

Membres du sous-groupe

  • Alice Hae Yun Oh, Korea Advanced Institute of Science and Technology (co-chair)
  • Paul Suetens, KU Leuven (co-chair)
  • Anurag Agrawal, Council of Scientific and Industrial Research
  • Amrutur Bharadwaj, Indian Institute of Science
  • Nozha Boujemaa, Median Technologies
  • Dirk Brockmann, Humboldt University of Berlin
  • Howie Choset, Carnegie Mellon University
  • Enrico Coiera, Macquarie University
  • Marzyeh Ghassemi, University of Toronto
  • Hiroaki Kitano, Sony Computer Science Laboratories, Inc.
  • Seán Ó hÉigeartaigh, Centre for the Study of Existential Risk
  • Michael Justin O'Sullivan, University of Auckland
  • Michael Plank, University of Canterbury
  • Mario Poljak, University of Ljubljana
  • Daniele Pucci, Istituto Italiano di Tecnologia Research Labs Genova
  • Joanna Shields, BenevolentAI
  • Margarita Sordo-Sanchez, Brigham and Women's Hospital at Harvard Medical School
  • Leong Tze Yun, National University of Singapore
  • Gaël Varoquaux, INRIA
  • Blaž Zupan, University of Ljubljana


Observateurs

  • Cyrus Hodes, AI Initiative
  • Alan Paic, OCDE