L’AI Act impose de nouvelles exigences pour l’usage de l’intelligence artificielle dans les hôpitaux. Entre adaptation des processus, validation scientifique et formation, le secteur doit se préparer à ces nouveaux défis réglementaires.
L’adoption de l’intelligence artificielle (IA) dans le secteur des soins de santé est influencée par divers facteurs, notamment la confiance des professionnels de la santé envers ces nouvelles technologies. Cette confiance dépend en partie de l’établissement de réglementations claires, comme l’illustre le récent baromètre belge d’adoption de l’IA dans les soins d’urgence, qui souligne l’importance de régulations strictes pour l’IA dans le domaine de la santé.
L’entrée en vigueur du nouveau règlement européen sur l’IA, connu sous le nom d’Artificial Intelligence Act (AI Act), constitue une étape significative vers une IA digne de confiance et axée sur l’humain. Publié le 12 juillet 2024 dans le Journal Officiel de l’Union européenne, ce texte suscite de grandes attentes quant à sa capacité à encadrer les pratiques de l’IA en santé. Néanmoins, son opérationnalisation sur le terrain n’en est qu’à ses débuts, et de nombreux articles scientifiques questionnent déjà ses implications pratiques.
Le secteur hospitalier est particulièrement concerné par la nécessité d’adapter ses processus internes aux nouvelles exigences de l’AI Act. Dans ce contexte, quatre chercheurs de l’Université de Mons se sont intéressés aux premières interrogations des professionnels de la santé à l’égard de ce nouveau règlement. ( Voir l'article complet ci-dessous ) Différents éléments clés pour le secteur hospitalier sont déjà soulevés et impliquent de nouvelles réflexions autour des difficultés qui peuvent en découler.
Une classification des risques adaptée aux enjeux de santé ?
La réglementation européenne en matière d’IA introduit une classification des applications d’IA basée sur le risque de survenue d’événements indésirables et de leur sévérité. Ces catégories vont d’un niveau de risque minimal à un niveau inacceptable.
Si les applications tombant sous la classification inacceptable sont dès lors prohibées, celles entrant dans le cadre des risques élevés se voient obligées de répondre à une série de prérequis afin d’être conformes au règlement européen sur l’IA. Ces exigences incluent la gestion des risques (Article 9), une gouvernance adéquate des données (Article 10), une documentation technique (Article 11), le suivi des incidents (Article 12), la transparence et des instructions sur l’usage (Article 13), un contrôle (garantie) humain (Article 14), ainsi qu’une précision, une robustesse et une cybersécurité appropriées (Article 15).
Réflexion : Les établissements hospitaliers doivent donc, dès à présent, se préparer au besoin de catégorisation des nouvelles applications d’IA. Un processus de classification standardisé, accompagné d’une formation adaptée à son application, faciliterait une évaluation rapide des risques et des obligations à satisfaire. Des directives claires, telles que des checklists validées, offriraient une approche efficace pour évaluer la conformité des nouvelles applications d’IA à la réglementation.
Le défi de la validation scientifique…
La question de la validité scientifique est bien évidemment au centre des préoccupations, comme le stipule l’Article 15 de l’AI Act. Cependant, les méthodes de validation et les indicateurs de qualité font encore l’objet de débats. Le nouveau règlement européen suggère la création d’une « sandbox » nationale pour tester les algorithmes au sein d’un environnement virtuel sécurisé, mais cela nécessite, bien sûr, une mise en œuvre pratique accessible aux professionnels de la santé. De plus, tester l’IA dans des conditions réelles demeure essentiel. Ce passage de l’étape théorique à l’application pratique se révèle en effet très régulièrement un processus délicat, fastidieux et souvent générateur d’abandon de la solution.
Réflexion : Il est essentiel de disposer de méthodologies de base claires et d’indicateurs de validité et de sécurité reconnus ainsi que de former les parties prenantes afin d’évaluer le caractère valide des applications d’IA implémentées dans le milieu hospitalier.
Le rôle central du facteur humain !
L’implémentation d’une IA digne de confiance repose autant sur les aspects techniques que sur le facteur humain. L’AI Act stipule en effet un contrôle humain des applications (Article 14) mais interroge sur le niveau de compétences nécessaire pour y parvenir de manière adéquate. En effet, l’AI Act va plus loin dans le raisonnement et suggère, à l’Article 4, le besoin d’un niveau approprié de littératie en IA pour les utilisateurs de ces applications.
Réflexion : Pour répondre aux exigences d’un contrôle humain et au besoin d’un niveau de littératie en IA adéquat pour les usagers hospitaliers, il semble dès à présent crucial de planifier un encadrement optimal du lancement des applications d’IA dans le milieu hospitalier.
La délicate question de l’opérationnalisation à l’hôpital
La réglementation européenne sur l’IA représente une avancée majeure dans la régulation de l’IA et offre un cadre prometteur pour le développement d’une IA digne de confiance dans le domaine de la santé. Toutefois, son opérationnalisation dans les hôpitaux nécessite une réflexion approfondie et des adaptations spécifiques. De plus, l’AI Act ne dispense en aucun cas du besoin de conformité à la réglementation sur les dispositifs médicaux, ni à la réglementation sur la protection des données, ou encore des spécificités en lien avec l’IA générative.
En cette période où les outils d’IA, tels que ChatGPT, prennent une place croissante dans la recherche clinique voire les activités cliniques, il est urgent de stimuler la création de processus standardisés permettant l’opérationnalisation de la réglementation sur l’IA dans le milieu hospitalier. Une question semble en effet persister face à l’arrivée de l’AI Act en santé : sommes-nous réellement prêts ?
Lire aussi : Adoption de la loi sur l'intelligence artificielle : l'UE fixe les premières règles mondiales