ソーシャルメディア上の黒人のうつ病を検出するための不正確なAIモデル

ジャカルタ - ある研究では、さまざまな人種や民族グループからのデータなしに、健康関連のタスクに人工知能モデルを使用することのリスクが強調されています。この研究は、人工知能モデルが白人アメリカ人ではうつ病の信号を検出できるが、黒人の同僚では検出できないことを発見しました。これは、多様な人種や民族グループからのデータなしに、健康関連タスクのための人工知能モデルを訓練することのリスクを強調する研究によって報告されました。

この研究に使用された人工知能モデルは、メタプラットフォームのソーシャルメディアである「Facebook」を使用している黒人に適用されたとき、うつ病の予測値が3倍以上低くなりました。

「ラスは、特に言語ベースの精神疾患評価の研究において無視されているようです」と、米国の研究の著者は、国立科学アカデミーの行進であるPNASに掲載された報告書に書いています。

ソーシャルメディアの投稿に関する以前の研究では、私や私のような一人称変更という言葉や、自尊心の言葉などの言葉の特定のカテゴリーを頻繁に使用する人々は、うつ病のリスクが高いことが示されています。

この新しい研究では、研究者らは「すぐに使用できる」人工知能ツールを使用して、年齢や性別などの他の特徴を持つ黒人と白人の成人と同じ数を含む、868人のボランティアからの出荷の言語を分析しました。

すべての参加者はまた、うつ病のスクリーニングに医療提供者が使用する検証済みのアンケートに記入しました。

「私と話す」または自分自身に焦点を当てた注意の使用、そして自分自身を侮辱し、自分自身を批判し、白人個人だけを対象としたうつ病に関連する素晴らしい人物のように感じることは、研究の共同著者であるPen MedicineのInstagram to Outcomes CenterのSharath Chandra Guntuku氏は述べています。

「これまでの多くの研究で見つかった言語協会がすべての人に適用されなかったことに驚いています」とGuntuku氏は述べています。

ソーシャルメディアのデータは、うつ病の患者を診断するために使用することはできませんが、個人またはグループのリスク評価に使用できます。

彼のチームによる以前の研究では、COVID-19パンデミック中の人々の精神的健康を評価するために、ソーシャルメディア投稿の言語を分析しました。

「薬物乱用障害のある患者では、うつ病を示すソーシャルメディアの言語が、治療を中断して再発する可能性についての洞察を提供することが示されています」と、この研究にも取り組んでいる米国国立衛生研究所の国立薬物中絶研究所のBrenda Curtis氏は述べています。