Twitterが写真のプレビューで見られる人種的バイアスを調査

ジャカルタ-ソーシャルネットワークのTwitterは、ニューラルネットワーク技術を使用して顔と写真の検出機能をテストしています。残念ながら、一部のユーザーは、この機能が人種差別的な方法で顔をキュレートすると実際に言っています。

9月21日月曜日、Gizmodoの報告によると、多くのネチズンは、この新しいTwitter機能が黒人ユーザーよりも白顔のみを選択していることを発見しました。それだけでなく、Twitterの自動トリミング機能は、黒人ユーザーを一般的な位置からわずかに下に敏感に配置します。

TwitterにアップロードされたZoomの検出アルゴリズムの問題をツイートした他のユーザーも同じことを報告しました。ズーム背景フィルターが黒人ユーザーの顔を認識しない場合。

この問題に関して、TwitterのデザインチーフであるDantley Davisは、同社がニューラルネットワークシステムで発生したアルゴリズムエラーを調査しているとツイートしました。 Twitterが顔認識などのいくつかの分野でまだ試行を行っているところ。

一方、Twitterテクノロジーの責任者であるParag Agrawalもツイートで、この機能にはまだ改善が必要であることを明らかにしました。 TwitterアルゴリズムがまだTwitterユーザーの行動を研究しているところ。

「私たちのチームはモデルを提出する前にバイアスをテストしましたが、テストで人種や性別のバイアスの証拠は見つかりませんでした。しかし、これらの例から、さらに分析を行う必要があることは明らかです」とTwitterのスポークスマンLizKelleyはGizmodoに語った。

Twitterは、ユーザーが見つけたアルゴリズムの問題を調査することを約束します。ただし、Twitterは、この新機能の開発において人種差別的で偏見を持たないことを強調しました。

2018年の初めに、Twitterは、ニューラルネットワークテクノロジーを使用して写真のプレビューを決定する方法を説明するブログ投稿を公開しました。システムが画像の一部を選択する要因の1つは、コントラストレベルが高いことです。

これは、Twitterアルゴリズムが白い顔を好むように見える方法を説明することができます。コントラストを決定要因として使用するという決定は、意図的に人種差別的ではなかったかもしれませんが、黒い顔よりも白い顔を頻繁に表示することは、偏った結果です。