L'IA générative domine le monde de la santé, mais reste suspicion
JAKARTA - La technologie génératrice de l’intelligence artificielle (IA), capable de créer et d’analyser des images, du texte, de l’audio, de la vidéo et autres. Aujourd’hui, il est encore plus utilisé dans le monde de la santé, tirée par les grandes entreprises technologiques et les startups, qui continuent de croître.
Google Cloud, une division des services et des produits de informatique nuage de Google, en collaboration avec Highmark Health, une société de services de santé à but non lucratif basée à Pittsburgh, développe actuellement des outils génératifs d’IA conçus pour personnaliser l’expérience d’accueil des patients.
La division AWS d’Amazon a également déclaré qu’elle travaillait avec des clients non nommés pour utiliser l’IA génératif pour analyser les bases de données médicales pour « détermination sociale de la santé ».
Microsoft Azure contribue également à construire un système génératif d’IA pour providence, un réseau à but non lucratif de services de santé, pour organiser les messages envoyés par les patients aux prestataires de soins.
Plusieurs startups génératives d’IA de premier plan dans le secteur de la santé comprennent Ambience Healthcare, qui développe des applications génératives d’IA pour le personnel médical; Nabla, assistante environnementale d’IA pour les praticiens; et Abr bed, qui a créé un outil d’analyse pour la documentation médicale.
Cependant, les professionnels et les patients se demandent à la fois si l’IA générative axée sur la santé est prête à une utilisation générale.
Andrew Borkowski, président de l’IA au Sunshine Healthcare Network UA, le plus grand système de santé du département américain des affaires vétérans, ne sait pas si l’utilisation actuelle desIA génératifs est appropriée. Borkowski a averti que l’application d’IA génératifs pourrait être trop tôt en raison de ses « limites significatives » et des préoccupations concernant son efficacité.
Plusieurs recherches montrent qu’il y a une vérité dans cette opinion. Dans une étude publiée dans la revue JAMA Pediatrics, le chat boot génératif AI chatGPT d’OpenAI, que plusieurs organisations de santé ont essayé pour des cas d’utilisation limitée, a été constaté qu’il avait commis une erreur dans le diagnostic de la maladie d’enfants à 83% du temps. De même, lorsqu’il est testé en tant qu’assistant de diagnostic, le modèle OpenAI GPT-4 a été jugé inexact par les médecins au centre médical de Beth Israel Deaconess à Boston.
Néanmoins, certains experts soutiennent que l’IA génératif est meilleure dans ce domaine. Une étude de Microsoft affirme qu’ils ont réussi à atteindre une précision de 90,2% dans quatre essais médicaux difficiles et à utiliser GPT-4. Cependant, Borkowski et d’autres ont rappelé qu’il y a encore beaucoup d’obstacles techniques et de conformité qui doivent être surmontés avant que l’IA génératif ne soit entièrement fiable en tant qu’outil de santé.
Dans de telles situations, les règles appropriées et la recherche scientifique prudente sont très importantes. Jusqu’à ce que ce problème soit résolu et que la protection appropriée soit appliquée, la mise en œuvre génératrice d’IA médicale peut potentiellement nuire aux patients et à l’industrie de la santé dans son ensemble.