CAN/DGSI 138, IA transparente et responsable pour l'aide à la décision clinique
Ce document définit les exigences relatives à la gouvernance, à la transparence, à l'interopérabilité et à la gestion du cycle de vie des systèmes d'aide à la décision clinique basés sur l'IA et impliquant une intervention humaine (AI-CDSS).
Le présent document s'applique aux systèmes d'aide à la décision basés sur l'intelligence artificielle (AI-CDSS) qui relèvent de la catégorie «Human-in-the-Loop » :
Human-in-the-Loop : systèmes qui fournissent des recommandations, des scores de risque ou des résumés à un clinicien qualifié qui conserve le pouvoir de décision final. Ce choix de conception est en parfaite adéquation avec les exigences de la directive du SCT relative à la prise de décision assistée (ADM) pour les décisions à fort impact (classées aux niveaux III et IV), qui stipulent que la décision finale doit être prise par un être humain.
Influence sur les soins consignés : les résultats fournis par l'IA influencent une décision qui est consignée dans le dossier médical officiel du patient. Ce critère de champ d'application garantit que la norme se concentre sur les IA ayant un impact significatif sur la documentation officielle des soins.
Basé sur les données du patient : la logique de l'IA s'appuie sur les informations médicales personnelles (PHI) du patient concerné par la décision.
Le présent document ne s'applique pas :
aux systèmes entièrement autonomes qui prennent et mettent en œuvre des décisions cliniques sans supervision humaine.
aux systèmes d'IA utilisés exclusivement pour des tâches administratives non cliniques (par exemple, l'optimisation de la facturation en back-office) ou à des fins de recherche n'impliquant pas de décisions directes relatives aux soins des patients.
DATE DE PUBLICATION :8 avril 2026
DATE LIMITE POUR LES COMMENTAIRES : 8 mai 2026
Commentaires
Voir tous Annuler