IA du ministère américain de la santé : Des hallucinations inquiétantes mettent en péril la confiance

2025-07-25
IA du ministère américain de la santé : Des hallucinations inquiétantes mettent en péril la confiance
BFMTV

Le ministère américain de la santé (HHS) a récemment déployé Elsa, un outil d'intelligence artificielle (IA) destiné à améliorer l'efficacité de ses employés. Cependant, des rapports alarmants révèlent que l'IA présente des « hallucinations », c'est-à-dire qu'elle invente des études scientifiques inexistantes, déforme des recherches existantes et a du mal à répondre aux questions de manière précise. Cette situation soulève des questions cruciales quant à la fiabilité de l'IA et à son impact potentiel sur les décisions de santé publique.

Un outil prometteur, rapidement compromis

Elsa a été conçue pour aider les employés du HHS à naviguer dans les vastes quantités d'informations relatives à la santé, à répondre aux demandes des citoyens et à rédiger des documents. L'objectif était de rationaliser les processus et de libérer du temps pour des tâches plus complexes. Cependant, les premiers tests ont rapidement mis en évidence des problèmes majeurs.

Des « hallucinations » troublantes

Les employés ont constaté qu'Elsa inventait des références à des études scientifiques qui n'existaient pas. Dans certains cas, elle déformait les résultats de recherches réelles pour les adapter à ses propres affirmations. Ces erreurs, qualifiées d'« hallucinations » par les développeurs d'IA, sont particulièrement préoccupantes car elles peuvent induire en erreur les employés et compromettre la qualité des informations diffusées au public.

Les conséquences potentielles

L'utilisation d'une IA non fiable dans un domaine aussi sensible que la santé publique peut avoir des conséquences graves. Des décisions basées sur des informations erronées pourraient nuire à la santé des individus et de la population. De plus, la perte de confiance dans les institutions gouvernementales pourrait s'aggraver si le public découvre que les informations fournies par le HHS sont basées sur des sources douteuses.

Réponse du HHS et perspectives d'avenir

Le HHS a reconnu les problèmes liés à Elsa et a temporairement suspendu son utilisation dans certaines fonctions critiques. Une équipe d'experts est chargée d'enquêter sur les causes de ces « hallucinations » et de mettre en place des mesures correctives. Plusieurs pistes sont envisagées, notamment l'amélioration des données d'entraînement de l'IA, la mise en place de mécanismes de vérification des sources et la limitation de l'autonomie de l'outil.

Le débat sur l'IA et la santé publique

Cet incident souligne les défis et les risques associés à l'intégration de l'IA dans le secteur de la santé publique. Bien que l'IA offre un potentiel considérable pour améliorer l'efficacité et la qualité des soins, il est essentiel de veiller à ce que ces outils soient fiables, transparents et responsables. Une réglementation appropriée et une surveillance constante sont nécessaires pour garantir que l'IA est utilisée de manière éthique et bénéfique pour tous.

L'affaire Elsa est un rappel que l'IA, aussi prometteuse soit-elle, n'est pas infaillible et qu'elle doit être utilisée avec prudence et discernement, en particulier dans des domaines où les enjeux sont aussi importants que la santé publique. Le débat sur l'IA et la santé publique ne fait que commencer, et il est crucial d'impliquer tous les acteurs concernés – chercheurs, professionnels de la santé, décideurs politiques et citoyens – dans cette discussion.

Recommandations
Recommandations