FDA
Voir la ressource originaleLe plan d'action 2021 de la FDA représente un changement crucial dans la façon dont les dispositifs médicaux dotés d'IA seront réglementés aux États-Unis. Cette feuille de route complète aborde le défi unique de réglementer des logiciels qui apprennent et évoluent après leur déploiement — un écart fondamental par rapport à la surveillance traditionnelle des dispositifs médicaux. Le plan introduit des concepts révolutionnaires comme les « plans de contrôle des changements prédéterminés » qui permettent aux systèmes d'IA de se mettre à jour dans des paramètres pré-approuvés, et établit les « Bonnes Pratiques d'Apprentissage Automatique » comme fondement du développement fiable de l'IA dans le domaine de la santé.
La réglementation traditionnelle des dispositifs médicaux suppose des produits statiques — une fois approuvé, un dispositif reste inchangé. Mais les systèmes d'IA/ML apprennent et s'adaptent continuellement, créant un paradoxe réglementaire. Comment approuver quelque chose qui va intrinsèquement changer après l'approbation ? Ce plan d'action est né d'années de réflexion de la FDA sur cette question fondamentale, informé par les soumissions réelles de dispositifs IA et une large consultation des parties prenantes.
Le plan s'appuie sur le document de discussion de la FDA de 2019 et intègre les leçons tirées des premières approbations de dispositifs IA comme IDx-DR pour le dépistage de la rétinopathie diabétique et Viz.ai pour la détection des AVC. Il représente les mesures les plus concrètes de la FDA vers la création d'un cadre réglementaire capable de suivre le rythme de l'évolution rapide de la technologie IA.
Plans de contrôle des changements prédéterminés (PCCP)
Contrairement aux cadres d'éthique de l'IA généraux ou aux normes IA polyvalentes, ce plan d'action aborde les défis techniques et de sécurité spécifiques de l'IA dans les applications médicales critiques. C'est une orientation réglementaire juridiquement contraignante, pas des bonnes pratiques volontaires.
Le plan aborde de manière unique le problème de l'« apprentissage continu » — comment maintenir la surveillance de la sécurité et de l'efficacité pour des systèmes qui changent au fil du temps. La plupart des autres gouvernances de l'IA se concentrent sur des modèles statiques, mais l'IA médicale doit souvent s'adapter à de nouvelles populations de patients, à l'évolution des pratiques cliniques et aux nouvelles connaissances médicales.
L'approche de la FDA met également l'accent sur la surveillance post-commercialisation et la collecte de preuves du monde réel d'une manière que les cadres généraux de l'IA ne font pas, reconnaissant que les performances de l'IA médicale dans les études contrôlées peuvent ne pas refléter les performances cliniques réelles.
Le plan d'action décrit des livrables spécifiques avec des délais cibles :
La FDA a régulièrement tenu ses engagements, avec l'orientation GMLP publiée en 2021 et plusieurs dispositifs activés par PCCP approuvés depuis 2022.
Publié
2021
Juridiction
États-Unis
Catégorie
Sector specific governance
Accès
Accès public
VerifyWise vous aide à implémenter des cadres de gouvernance de l'IA, à suivre la conformité et à gérer les risques dans vos systèmes d'IA.