ジャカルタ - Twitterは、自動写真トリミングアルゴリズムのバイアスを排除するのに役立つユーザーに現金報酬を提供しています。ソーシャルメディアプラットフォームは、今週ラスベガスで開催されるDEF CONハッカーコンベンションの一環として、3,500ドルの「報酬」を発表しました。
サンフランシスコに拠点を置くソーシャルネットワークは、人工知能を使用して、より大きな画像のどの部分が最も関連性が高いか、レビューに重要かを判断する「顕著性」アルゴリズムが差別的であるという批判に直面しています。なぜなら、彼らの技術は女性を異議を唱え、色のものよりも白い被写体を選ぶと考えられているからです。
「機械学習モデルのバイアスを見つけることは困難であり、時には、企業は一般に公開されると望ましくない倫理的害について知っています」と、Twitterの機械学習、倫理、透明性、説明責任(META)プロジェクトのランマン・チョウドゥリーとジュッタ・ウィリアムズはブログ記事で述べています。
「私たちはそれを変えたい。「私たちは、倫理(機械学習)に焦点を当てた同様のコミュニティを成長させ、私たち自身よりも幅広い問題を特定するのを助けたいと考えています」と、ポストは付け加えました。
昨年5月の投稿で、チャウドゥリーは、Twitterの内部テストでは黒人よりも白人に対する好みはわずか4%、男性よりも女性に対する好みは8%に過ぎないと述べた。「グループごとに100枚の画像ごとに、約3枚が頭部以外の場所で切断されます」と、彼が付け加えました。
しかし、アルゴリズム監査のバックグラウンドを持つChowdhury氏は、Twitterは「人々はプラットフォーム上で自分の思いどおり自分を表現することは許されない」ため、自動化されたアルゴリズムのバイアスの可能性を依然として懸念していると述べた。
「顕著さは、文化的ニュアンスに対する無神経を含む、この分析の範囲を超えた他の潜在的な危険も保持しています」と、彼が書きました。
HackerOneサイトの指示によると、送信者は今週のコンテストに参加するためにDEF CONにいる必要はありません。
応募は、名誉毀損、ステレオタイプ、虚偽表示または虚偽表示、除去または評判の喪失、経済的、心理的な問題の有無、損失が意図的か意図的でないかなど、さまざまな加重基準で判断されます。
競技ガイドラインでは、「ポイント割り当ては、歴史的にほとんど注目を集められていないので、参加者に表現上の危険を探求するよう促すことを目的としています」と述べました。
コンペティションは8月6日(金)午後11時59分まで開催.m。この挑戦はまた、最も革新的な出荷のためにそれぞれ1,000米ドルで、1,000米ドルの2位賞を約束し、ほとんどのタイプのアルゴリズムに適用されます。
受賞者は、8月9日にTwitterが主催するDEF CON AIビレッジワークショップで発表されます。
業界の「最初」として、ウィリアムズとチョウドゥリーは、コンテストが「アルゴリズムの危険の積極的かつ集団的識別のための」標準を設定することを望むと言いました。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)