
Tribune Asinhpa
Modifié le 06/05/2025
Conformité et régulation éthique des systèmes d'IA en santé : l'Asinhpa apporte son soutien à la labellisation et la garantie humaine
A quelques semaines de l’entrée en application du règlement européen (AI Act) dès le 1er août prochain pour l’ensemble des modèles d’IA à générative, l’Asinhpa a débattu, lors de son Assemblée Générale du 24 avril 2025, des enjeux de régulation de l’intelligence artificielle en santé.
La diffusion de l’IA ouvre des perspectives majeures d’amélioration de la qualité de la prise en charge des patients et de l’efficience du système de santé.
En leur qualité de concepteurs, utilisateurs et diffuseurs de ces technologies, les membres de l’Asinhpa font le choix stratégique d’une ouverture à l’innovation dans un cadre de confiance et de souveraineté.
Pour les systèmes d’IA en santé à haut risque selon les termes du règlement européen, ce cadre de conformité impose une obligation de garantie humaine. Celle-ci impliquera pour les concepteurs (article 14 du texte) et les déployeurs (article 26) une supervision humaine régulière, traçable et proportionnée au bénéfice / risque par des professionnels de santé et des représentants des patients.
La mise en œuvre de cette garantie humaine implique le déploiement d’une méthodologie reconnue et crédible. C’est le sens notamment du travail partenarial qui a permis la production de l’AFNOR-SPEC n°2213 sur la Garantie Humaine des systèmes fondés sur l’IA en santé en mai 2024. C’est l’objet également du référentiel « éthique by design » des systèmes d’IA en cours d’élaboration par la DNS.
Dans ce contexte, l’Asinhpa recommande et soutient activement les initiatives de labellisation axées sur la garantie humaine qui contribuent à instaurer un cadre de confiance propice au développement et à l’usage de cette nouvelle technologie.
Le label d’Ethik IA est une illustration concrète de la démarche méthodologique à adopter car elle s’appuie sur :
- une évaluation éthique basée sur six critères (équité, universalisé, traçabilité, facilité d'utilisation, robustesse, développement durable) ;
- une évaluation juridique permettant d’anticiper le cadre de conformité à l’AI Act ;
- la création d’un modèle de supervision adaptée à chaque solution, permettant d’identifier les mesures de garantie humaine nécessaires et proportionnées pour assurer un suivi du système tout au long de son cycle de vie ;
- la mise en œuvre d’un outil d’accompagnement en environnement HDS / SecNumCloud permettant la traçabilité de ce processus pour le régulateur.