ジャカルタ-画像、テキスト、オーディオ、ビデオなどを作成および分析できる人工知能(AI)テクノロジー。現在、成長を続けているビッグテック企業やスタートアップに牽引され、健康の世界でますます使用されています。
Googleのクラウドコンピューティングサービスおよび製品部門であるGoogle Cloudは、ピッツバーグを拠点とする非営利の医療サービス会社であるHighmark Healthと協力して、現在、患者の受容体験をパーソナライズするように設計された生成AIツールを開発しています。
AmazonのAWS部門はまた、「健康社会的反映」のために医療データベースを分析する際にジェネレーティブAIを使用するために、匿名の顧客と協力していると述べた。
Microsoft Azureはまた、患者からケアプロバイダーに送信されるメッセージを整理するために、非営利の医療サービスネットワークであるProvinidence用のジェネレーティブAIシステムの構築にも貢献しています。
医療分野のいくつかの主要なジェネレーティブAIスタートアップには、医療従事者のためのジェネレーティブAIアプリケーションを開発したアンビニエンスヘルスケアが含まれます。Nabla, 実務家のための環境AIアシスタント;そして、医療文書の分析ツールを作成したアブリッジ。
しかし、専門家と患者の両方が、健康に焦点を当てた生成AIが広く使用できるかどうか疑問に思っています。
米国退役軍人省最大の医療システムであるVA Sunshine Healthcare Networkの最高AI責任者であるAndrew Borkowskiは、ジェネレーティブAIの現在の使用が適切であるかどうか確信が持てません。Borkowskiは、ジェネレーティブAIの実装は、その「重大な限界」と有効性に関する懸念のために早すぎる可能性があると警告しました。
いくつかの研究は、そのような意見に真実があることを示しています。JAMA Pediatrics誌の研究では、いくつかの保健機関が限られた使用例の試験を行っているOpenAIのChatGPTジェネレーティブAIチャットボットが、時間の経過とともに子供の病気を83%診断する際に間違いを犯したことが判明しました。同様に、診断アシスタントとしてテストされたとき、OpenAI GPT-4モデルはボストンのベスイスラエルディーコネスメディカルセンターの医師によって不正確であると考えられていました。
それにもかかわらず、一部の専門家は、ジェネレーティブAIはこの点で優れていると主張しています。Microsoftの調査によると、4つの厳しい医療試験で90.2%の精度を達成し、GPT-4を使用したという。しかし、Borkowski氏らは、ジェネレーティブAIを医療機器として完全に信頼できるようになる前に克服しなければならない多くの技術的障壁とコンプライアンスがまだあると警告した。
このような状況では、正しいルールと慎重な科学的研究が不可欠です。この問題が解決され、適切な保護が適用されるまで、医療生成AIの広範な実装は、患者と健康業界全体に害を及ぼす可能性があります。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)