Skip to main content
Retour à Axes de travail

IA appliquée et évaluation en conditions réelles

Développer des systèmes d'IA responsables, interprétables et ancrés dans les usages réels.

Problème systémique

L'IA est de plus en plus déployée dans les systèmes de santé sans gouvernance claire, interprétabilité ou redevabilité. La plupart des systèmes optimisent les performances techniques, pas la responsabilité institutionnelle. L'écart entre performance en laboratoire et efficacité en conditions réelles reste mal traité.

Notre approche

Nous traitons l'IA comme un système socio-technique intégré dans des institutions, pas comme une technologie isolée. Nous concevons pour l'interprétabilité, la robustesse et l'adéquation institutionnelle dès le départ.

Ce que nous construisons

Jumeaux numériques d'intérêt public, infrastructures d'apprentissage fédéré, cadres d'évaluation en conditions réelles et outils de redevabilité algorithmique.

Parties prenantes

Hôpitaux, régulateurs, chercheurs, partenaires technologiques.

Comment nous évaluons

Nous évaluons l'interprétabilité, la robustesse à travers les populations, l'adéquation institutionnelle et les effets à long terme sur la qualité et l'équité des soins.

Collaboration

Nous collaborons avec des acteurs prêts à gouverner l'IA, pas seulement à la déployer.