À lire, un article d’Édouard Lansiaux intitulé «Les biais de l’IA: enjeux et précautions pour une prise de décision éthique et fiable en santé», sous presse dans la revue Médecine de Catastrophe – Urgences Collectives (février 2025), dont voici le résumé:
«Cet article traite de l’intelligence artificielle (IA) dans le domaine des soins de santé, en se concentrant sur ses applications et perspectives actuelles en médecine de catastrophe. L’IA est utilisée pour le diagnostic précoce, la prévision des maladies, l’optimisation des ressources, la détection des catastrophes en temps réel et l’amélioration du tri des victimes et du transport autonome. Ces innovations offrent un potentiel important pour améliorer les soins de santé et la réponse aux situations critiques. Cependant, l’IA est confrontée à d’importantes limites, notamment des biais qui peuvent influencer la précision et l’efficacité du système. Ces biais peuvent provenir des données utilisées, de la conception algorithmique ou encore de la manière dont les technologies sont intégrées. Par exemple, la sélection ou l’étiquetage des données peuvent limiter la capacité des modèles à généraliser, tandis que les biais algorithmiques peuvent conduire à des résultats inadéquats. Une utilisation inadéquate des outils, une confiance excessive dans les recommandations de l’IA ou une mauvaise compréhension des résultats peuvent également poser des problèmes. Ces biais sont également influencés par des facteurs institutionnels, sociaux, éthiques ou réglementaires. Citons par exemple le conflit ukrainien, où des outils open source ont été utilisés pour détecter des événements radiologiques via les réseaux sociaux, un système de traitement des chocs traumatiques, un système de pilotage de drones de ravitaillement en sang ou encore un modèle générant des comptes rendus d’opérations humanitaires. Pour minimiser ces biais, il est nécessaire de diversifier les données, de mettre à jour les modèles, d’auditer régulièrement les algorithmes, d’impliquer des experts médicaux et de former les utilisateurs. L’objectif est d’assurer une IA transparente, adaptable et contextualisée tout en conservant un regard critique pour une utilisation éthique et efficace dans les situations d’urgence.»