シェア:

ジャカルタ-医師は、ChatGPTが癌について尋ねられたときに誤った健康データを生成することが研究で判明した後、医療情報のソースとしてChatGPTを使用することに対して警告しています。

このAIチャットボットは、乳がん検診に関する10の質問のうちの1つに誤って回答し、正解はGoogleでの単純な検索ほど包括的ではありませんでした。

研究者は、場合によっては、AIチャットボットが偽のジャーナル記事を使用して主張を裏付けることさえあると述べました。

これは、ユーザーがこのソフトウェアを「幻覚」する傾向があるため、つまり真実ではないものを作成する傾向があるため、注意して扱う必要があるという警告の中で発生します。

メリーランド大学医学部の研究者は、ChatGPTに、乳がん検診を受けることに関するアドバイスに関する25の質問に答えるように依頼しました。

チャットボットの回答が異なることが知られているため、各質問は3回に分けて尋ねられました。その後、結果はマンモグラフィの訓練を受けた3人の放射線科医によって分析されました。

「ほとんど」-88パーセント-答えは適切で理解しやすいです。しかし、答えのいくつかは「不正確または架空のものでさえあった」と医師は言った。

たとえば、回答の1つは、古い情報に基づいています。Covid-19の予防接種を受けてから4〜6週間マンモグラムを遅らせることをアドバイスしていますが、このアドバイスは1年以上前に変更され、女性に待たないようにアドバイスしました。

ChatGPTはまた、乳がんになるリスクとマンモグラムを取得する場所に関する質問に対して一貫性のない回答を提供します。この研究では、同じ質問がされるたびに回答が「大幅に異なる」ことがわかりました。

「私たちの経験では、ChatGPTがその主張を裏付けるために偽のジャーナル記事やヘルスケアコンソーシアムを作成することがあることがわかりました」と、研究チームのメンバーであるPaul Yi博士はデイリーメールの発言を引用しました。

消費者は、ChatGPTに頼るのではなく、医師のアドバイスに頼り続けることをお勧めします。

筆頭著者のHana Haver博士は、ChatGPTは1つの組織、すなわち米国癌協会からの一連の推奨事項にのみ依存しており、疾病管理と予防または米国予防サービスタスクフォースとは異なる推奨事項を提供していないと述べています。

それにもかかわらず、ChatGPTは、症状、リスク、マンモグラムに関するアドバイスなど、乳がんに関するいくつかの質問に正確な回答を提供することが報告されています。

ただし、人工知能の専門家は、ChatGPTが間違った答えを出すエラーや「幻覚」が発生する可能性があるため、このテクノロジーに依存する場合は注意が必要です。

テクノロジー業界の1,000人以上の学者、専門家、上司は最近、より強力な人工知能を開発するためのテクノロジー企業間の競争が「制御不能になり」、社会と人類に深刻なリスクをもたらすと警告しました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)