Des chercheurs alertent sur un outil de transcription doté d’IA utilisé dans les hôpitaux : il crée des propos fictifs qui n’ont jamais été prononcés

Publié le 27 octobre 2024 à 08h37
modifié le 27 octobre 2024 à 08h37
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

Des chercheurs mettent en lumière des dérives préoccupantes d’un outil de transcription avancé. Le système, utilisé dans les hôpitaux, génère des propos fictifs inédits qui n’ont jamais été prononcés. _L’impact de ces erreurs est d’une gravité phénoménale_. Les autorités médicales sont interpellées face à ce phénomène aux conséquences potentielles désastreuses. _La confiance dans les transcriptions pourrait s’effondrer_, affectant sérieusement la prise de décision clinique. Utiliser une technologie supposée fiable qui, en réalité, produit des fabrications douteuses soulève des enjeux éthiques fondamentaux. _Il est impératif d’exiger des solutions_ pour garantir la sécurité des patients et la fiabilité des données médicales.

Des hallucinations préoccupantes dans les transcriptions médicales

Les avancées technologiques en matière d’intelligence artificielle (IA) ont révolutionné le domaine de la transcription audio, mais des chercheurs ont récemment mis en lumière des lacunes significatives dans ce processus. En effet, l’outil de transcription Whisper, développé par OpenAI, fait l’objet de critiques en raison de sa tendance à générer des textes fictifs ou des interprétations erronées de dialogues qui n’ont jamais eu lieu. Ce phénomène, connu sous le nom d’hallucination, peut avoir des conséquences dramatiques dans un contexte médical.

Des cas de mentions non prononcées

Les spécialistes soulignent que la transcription audio-texte réalisée par Whisper comprend des éléments qui n’ont pas été exprès et qui peuvent inclure des commentaires racistes ou de la rhétorique violente. Une étude a révélé que, parmi des milliers d’échantillons de transcription, près de 40 % contenaient des hallucinations préoccupantes. Cela remet en question la fiabilité de cet outil lorsqu’il est utilisé dans le cadre de consultations médicales.

Impacts sur les soins médicaux

Les hôpitaux et les établissements de santé commencent à intégrer des systèmes de transcription basés sur Whisper pour enregistrer les échanges entre médecins et patients. Cette adoption précoce suscite des inquiétudes, étant donné les avertissements d’OpenAI concernant l’utilisation de cet outil dans des contextes à risque élevé. Les erreurs de transcription pourraient entraîner des malentendus critiques, affectant ainsi le diagnostic et les traitements. Des chercheurs ont constaté des erreurs dans 80 % des transcriptions dans les études qu’ils ont menées.

Numéros alarmants d’hallucinations

Un ingénieur en apprentissage automatique a observé des hallucinations dans environ la moitié des plus de 100 heures de transcriptions traitées. D’autres développeurs ont signalé des taux d’hallucination pratiquement universels dans leurs travaux avec cet outil. Il en résulte que des dizaines de milliers d’erreurs émergeraient, représentant une menace directe pour la santé des patients. L’appareil, bien qu’efficace dans un cadre idéal, échoue régulièrement avec des enregistrements bien réalisés et clairs.

Conséquences éthiques et réglementaires

Les erreurs prodigieuses que génère Whisper soulèvent des questions éthiques et des préoccupations sur la réglementation de l’IA. De nombreux experts appellent à une réglementation accrue de ces technologies afin de protéger les patients. Les ex-employés d’OpenAI se prononcent également pour la nécessité de remédier à ces défauts techniques. Les hallucinations pourraient entraîner des diagnostics erronés, des traitements inappropriés et des issues fatales.

Confidentialité des données médicales

Les implications de l’utilisation d’outils d’IA pour les enregistrements médicaux soulèvent également des questions de confidentialité. Les consultations entre médecins et patients sont par nature confidentielles. Un cas récent impliquant la législatrice californienne Rebecca Bauer-Kahan illustre ces préoccupations, elle a refusé de permettre à son fournisseur de soins de santé de partager ses enregistrements audio avec des entreprises technologiques.

Appels à l’action pour OpenAI

Des voix s’élèvent pour qu’OpenAI prenne des mesures décisives concernant les hallucinations dans Whisper. Un ancien ingénieur d’OpenAI a exprimé que cette situation reste solvable à condition que l’entreprise accorde la priorité à ce problème. Les implications de négligence en matière de qualité de transcription dans les systèmes de santé exigent une évaluation sérieuse, avant que ces outils ne soient davantage adoptés.

Perspectives d’avenir dans la transcription médicale

Face à ces défis, des entreprises comme Nabla tentent d’adapter des outils similaires pour le secteur médical, tout en assurant une meilleure précision et salles de traitement des données. Nabla, qui a déjà transcrit des millions de visites médicales, doit cependant faire face à des risques considérables liés à la protection des données client. Les médecins sont encouragés à examiner attentivement chaque transcription générée. Une vigilance excessive pourrait s’avérer nécessaire pour éviter des conséquences catastrophiques dues à des erreurs d’interprétation.

Foire aux questions courantes

Qu’est-ce que l’outil de transcription basé sur l’IA connu sous le nom de Whisper ?
Whisper est un outil de transcription développé par OpenAI qui utilise l’intelligence artificielle pour convertir la parole en texte. Il est de plus en plus utilisé dans divers secteurs, y compris les hôpitaux, pour transcrire les consultations médicales.
Quels sont les dangers associés à l’utilisation de Whisper dans le milieu hospitalier ?
Whisper est reconnu pour générer des ‘hallucinations’, c’est-à-dire des sections de texte fictif qui n’ont jamais été prononcées. Cela peut entraîner des erreurs de transcription dans les dossiers médicaux, entraînant de graves conséquences pour les patients.
Comment les hallucinations dans les transcriptions affectent-elles les soins aux patients ?
Les hallucinations peuvent conduire à des malentendus, des diagnostics erronés et des traitements inappropriés, compromettant ainsi la qualité des soins fournis aux patients et augmentant le risque d’erreurs médicales.
Quel est le pourcentage d’erreurs enregistré avec l’utilisation de Whisper ?
Des études ont révélé que jusqu’à 40 % des transcriptions pouvaient contenir des hallucinations, ce qui soulève des préoccupations majeures quant à la fiabilité des outils de transcription basés sur l’IA dans des contextes sensibles comme la santé.
Les hôpitaux sont-ils conscients des limitations de Whisper ?
Oui, de nombreux hôpitaux ont été informés des limitations de Whisper, mais certains continuent à l’utiliser malgré les avertissements d’OpenAI concernant son utilisation dans des « domaines à haut risque ».
Quelles mesures sont prises pour atténuer les risques associés aux erreurs de transcription ?
Les établissements de santé sont encouragés à vérifier et corriger manuellement les transcriptions avant de les intégrer dans les dossiers médicaux. Certaines entreprises, comme Nabla, développent des outils qui améliorent la précision de Whisper.
Comment les patients peuvent-ils se protéger contre les erreurs de transcription ?
Les patients peuvent demander à revoir leurs notes médicales et poser des questions sur les traitements suggérés pour s’assurer que les informations sont exactes et qu’elles reflètent correctement leur consultation.
Quelles alternatives existent à Whisper pour la transcription audio ?
Il existe d’autres outils de transcription sur le marché, et il est conseillé de choisir ceux qui ont des antécédents éprouvés en matière de fiabilité et de précision, ainsi que des recommandations adéquates provenant d’experts du secteur de la santé.
Quel rôle les régulateurs devraient-ils jouer concernant l’usage de l’IA dans les hôpitaux ?
Les régulateurs devraient mettre davantage l’accent sur la réglementation de l’utilisation de l’intelligence artificielle dans le secteur médical, s’assurant que des standards de sécurité et d’exactitude soient respectés pour protéger la santé et le bien-être des patients.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsDes chercheurs alertent sur un outil de transcription doté d'IA utilisé dans...

David Cronenberg affirme que la controverse sur l’IA brutaliste était une campagne de diffamation à la Weinstein

dans une déclaration frappante, david cronenberg compare la polémique entourant l'ia brutaliste à une campagne de diffamation similaire à celles orchestrées par harvey weinstein, révélant les tensions croissantes dans le débat sur l'impact de l'intelligence artificielle dans le cinéma et l'art.
découvrez les réflexions fascinantes de reid hoffman sur l'intelligence artificielle et son impact futur. dans cet article, l'entrepreneur partage son analyse approfondie et explique pourquoi il pense que l'ia ne sera pas une réalité immédiate. plongez dans cette exploration captivante des défis et des attentes autour de l'ia.

Grok AI améliore ses performances : édition d’image et recherche boostées par l’IA

découvrez comment grok ai révolutionne l'édition d'image et la recherche grâce à des performances optimisées par l'intelligence artificielle. améliorez vos projets avec des outils innovants et performants.
découvrez comment ant, l'affilié d'alibaba, révolutionne le secteur de l'intelligence artificielle en fusionnant des technologies de semi-conducteurs chinoises et américaines, permettant ainsi de réduire significativement les coûts de développement de l'ia.
découvrez comment des images compromettantes de taylor swift, générées par intelligence artificielle, ont envahi x, provoquant une intense vague de soutien de la part de ses fans. analysez l'impact de cette situation sur la réputation de l'artiste et la réponse passionnée de sa communauté.

Gemini 2.0 Flash : astuces pour optimiser vos requêtes sur l’IA image de Google

découvrez gemini 2.0 flash, votre guide ultime pour optimiser vos requêtes sur l'ia image de google. explorez des astuces précieuses pour obtenir des résultats plus pertinents et améliorer vos expériences visuelles en ligne.