Des chercheurs alertent sur un outil de transcription doté d’IA utilisé dans les hôpitaux : il crée des propos fictifs qui n’ont jamais été prononcés

Publié le 27 octobre 2024 à 08h37
modifié le 27 octobre 2024 à 08h37
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

Des chercheurs mettent en lumière des dérives préoccupantes d’un outil de transcription avancé. Le système, utilisé dans les hôpitaux, génère des propos fictifs inédits qui n’ont jamais été prononcés. _L’impact de ces erreurs est d’une gravité phénoménale_. Les autorités médicales sont interpellées face à ce phénomène aux conséquences potentielles désastreuses. _La confiance dans les transcriptions pourrait s’effondrer_, affectant sérieusement la prise de décision clinique. Utiliser une technologie supposée fiable qui, en réalité, produit des fabrications douteuses soulève des enjeux éthiques fondamentaux. _Il est impératif d’exiger des solutions_ pour garantir la sécurité des patients et la fiabilité des données médicales.

Des hallucinations préoccupantes dans les transcriptions médicales

Les avancées technologiques en matière d’intelligence artificielle (IA) ont révolutionné le domaine de la transcription audio, mais des chercheurs ont récemment mis en lumière des lacunes significatives dans ce processus. En effet, l’outil de transcription Whisper, développé par OpenAI, fait l’objet de critiques en raison de sa tendance à générer des textes fictifs ou des interprétations erronées de dialogues qui n’ont jamais eu lieu. Ce phénomène, connu sous le nom d’hallucination, peut avoir des conséquences dramatiques dans un contexte médical.

Des cas de mentions non prononcées

Les spécialistes soulignent que la transcription audio-texte réalisée par Whisper comprend des éléments qui n’ont pas été exprès et qui peuvent inclure des commentaires racistes ou de la rhétorique violente. Une étude a révélé que, parmi des milliers d’échantillons de transcription, près de 40 % contenaient des hallucinations préoccupantes. Cela remet en question la fiabilité de cet outil lorsqu’il est utilisé dans le cadre de consultations médicales.

Impacts sur les soins médicaux

Les hôpitaux et les établissements de santé commencent à intégrer des systèmes de transcription basés sur Whisper pour enregistrer les échanges entre médecins et patients. Cette adoption précoce suscite des inquiétudes, étant donné les avertissements d’OpenAI concernant l’utilisation de cet outil dans des contextes à risque élevé. Les erreurs de transcription pourraient entraîner des malentendus critiques, affectant ainsi le diagnostic et les traitements. Des chercheurs ont constaté des erreurs dans 80 % des transcriptions dans les études qu’ils ont menées.

Numéros alarmants d’hallucinations

Un ingénieur en apprentissage automatique a observé des hallucinations dans environ la moitié des plus de 100 heures de transcriptions traitées. D’autres développeurs ont signalé des taux d’hallucination pratiquement universels dans leurs travaux avec cet outil. Il en résulte que des dizaines de milliers d’erreurs émergeraient, représentant une menace directe pour la santé des patients. L’appareil, bien qu’efficace dans un cadre idéal, échoue régulièrement avec des enregistrements bien réalisés et clairs.

Conséquences éthiques et réglementaires

Les erreurs prodigieuses que génère Whisper soulèvent des questions éthiques et des préoccupations sur la réglementation de l’IA. De nombreux experts appellent à une réglementation accrue de ces technologies afin de protéger les patients. Les ex-employés d’OpenAI se prononcent également pour la nécessité de remédier à ces défauts techniques. Les hallucinations pourraient entraîner des diagnostics erronés, des traitements inappropriés et des issues fatales.

Confidentialité des données médicales

Les implications de l’utilisation d’outils d’IA pour les enregistrements médicaux soulèvent également des questions de confidentialité. Les consultations entre médecins et patients sont par nature confidentielles. Un cas récent impliquant la législatrice californienne Rebecca Bauer-Kahan illustre ces préoccupations, elle a refusé de permettre à son fournisseur de soins de santé de partager ses enregistrements audio avec des entreprises technologiques.

Appels à l’action pour OpenAI

Des voix s’élèvent pour qu’OpenAI prenne des mesures décisives concernant les hallucinations dans Whisper. Un ancien ingénieur d’OpenAI a exprimé que cette situation reste solvable à condition que l’entreprise accorde la priorité à ce problème. Les implications de négligence en matière de qualité de transcription dans les systèmes de santé exigent une évaluation sérieuse, avant que ces outils ne soient davantage adoptés.

Perspectives d’avenir dans la transcription médicale

Face à ces défis, des entreprises comme Nabla tentent d’adapter des outils similaires pour le secteur médical, tout en assurant une meilleure précision et salles de traitement des données. Nabla, qui a déjà transcrit des millions de visites médicales, doit cependant faire face à des risques considérables liés à la protection des données client. Les médecins sont encouragés à examiner attentivement chaque transcription générée. Une vigilance excessive pourrait s’avérer nécessaire pour éviter des conséquences catastrophiques dues à des erreurs d’interprétation.

Foire aux questions courantes

Qu’est-ce que l’outil de transcription basé sur l’IA connu sous le nom de Whisper ?
Whisper est un outil de transcription développé par OpenAI qui utilise l’intelligence artificielle pour convertir la parole en texte. Il est de plus en plus utilisé dans divers secteurs, y compris les hôpitaux, pour transcrire les consultations médicales.
Quels sont les dangers associés à l’utilisation de Whisper dans le milieu hospitalier ?
Whisper est reconnu pour générer des ‘hallucinations’, c’est-à-dire des sections de texte fictif qui n’ont jamais été prononcées. Cela peut entraîner des erreurs de transcription dans les dossiers médicaux, entraînant de graves conséquences pour les patients.
Comment les hallucinations dans les transcriptions affectent-elles les soins aux patients ?
Les hallucinations peuvent conduire à des malentendus, des diagnostics erronés et des traitements inappropriés, compromettant ainsi la qualité des soins fournis aux patients et augmentant le risque d’erreurs médicales.
Quel est le pourcentage d’erreurs enregistré avec l’utilisation de Whisper ?
Des études ont révélé que jusqu’à 40 % des transcriptions pouvaient contenir des hallucinations, ce qui soulève des préoccupations majeures quant à la fiabilité des outils de transcription basés sur l’IA dans des contextes sensibles comme la santé.
Les hôpitaux sont-ils conscients des limitations de Whisper ?
Oui, de nombreux hôpitaux ont été informés des limitations de Whisper, mais certains continuent à l’utiliser malgré les avertissements d’OpenAI concernant son utilisation dans des « domaines à haut risque ».
Quelles mesures sont prises pour atténuer les risques associés aux erreurs de transcription ?
Les établissements de santé sont encouragés à vérifier et corriger manuellement les transcriptions avant de les intégrer dans les dossiers médicaux. Certaines entreprises, comme Nabla, développent des outils qui améliorent la précision de Whisper.
Comment les patients peuvent-ils se protéger contre les erreurs de transcription ?
Les patients peuvent demander à revoir leurs notes médicales et poser des questions sur les traitements suggérés pour s’assurer que les informations sont exactes et qu’elles reflètent correctement leur consultation.
Quelles alternatives existent à Whisper pour la transcription audio ?
Il existe d’autres outils de transcription sur le marché, et il est conseillé de choisir ceux qui ont des antécédents éprouvés en matière de fiabilité et de précision, ainsi que des recommandations adéquates provenant d’experts du secteur de la santé.
Quel rôle les régulateurs devraient-ils jouer concernant l’usage de l’IA dans les hôpitaux ?
Les régulateurs devraient mettre davantage l’accent sur la réglementation de l’utilisation de l’intelligence artificielle dans le secteur médical, s’assurant que des standards de sécurité et d’exactitude soient respectés pour protéger la santé et le bien-être des patients.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsDes chercheurs alertent sur un outil de transcription doté d'IA utilisé dans...

J’ai interrogé l’IA sur l’apparence typique des habitants de chaque État, et voici ses réponses fascinantes.

découvrez les réponses fascinantes de l'ia sur l'apparence typique des habitants de chaque état. une exploration captivante qui révèle les stéréotypes et les nuances culturelles à travers le pays.
découvrez comment des experts australiens soulignent les dangers de la diffamation pour google et meta, face aux réponses générées par l'intelligence artificielle. une analyse approfondie des enjeux juridiques et éthiques qui entourent l'utilisation de l'ia dans le traitement de l'information.
découvrez comment l'intégration de l'intelligence artificielle dans une station de radio en pologne rencontre des défis inattendus. analyse des obstacles et des implications de cette technologie sur le secteur radio. plongez dans les enjeux et les perspectives d'avenir de l'ia dans les médias polonais.

Les moteurs de recherche alimentés par l’IA font leur apparition

découvrez comment les moteurs de recherche alimentés par l'ia révolutionnent notre façon de trouver l'information. analysez leur impact sur les résultats de recherche et explorez les avancées technologiques qui transforment le paysage numérique.

Le défi de l’optimisation des chatbots : peut-on faire confiance aux recherches web par IA ?

découvrez comment l'optimisation des chatbots influence notre confiance envers les recherches web alimentées par l'ia. explorez les enjeux, les défis et les perspectives d'avenir de cette technologie novatrice, et posez-vous la question essentielle : peut-on véritablement faire confiance aux résultats générés par les intelligences artificielles ?

Comparaison entre ChatGPT et Google Search : Lequel est le plus performant ?

découvrez notre analyse approfondie qui compare chatgpt et google search. explorez leurs performances, avantages et inconvénients pour déterminer lequel des deux outils est le plus efficace pour répondre à vos besoins en matière d'information.