Metaは最も異なるAIを作成し、悪意のあるコンテンツを迅速に検出できる

ジャカルタ - Metaは、COVID-19ワクチン接種を禁止するアップロードを含む新しいタイプの有害なコンテンツをより迅速に検出できる人工知能(AI)技術を作成したと主張しています。

同社は、AIシステムは通常、例から新しいタスクを学ぶが、大量のデータを収集し、ラベル付けするプロセスは、通常数ヶ月かかると、彼らのAIシステムは、全く異なることを述べています。

しかし、数少ないショット学習者(FSL)と呼ばれるメタ技術を使用して、新しいAIシステムは数ヶ月ではなく数週間以内に新しいタイプの悪意のあるコンテンツと戦うために適応できるように、非常に少ないトレーニングデータを必要とします。

このAIシステムは、ソーシャルネットワークが危険なCOVID-19ワクチンに関する誤った情報をアップロードすることに対する規則を持っている場合に便利です。

しかし、ユーザーは時々「ワクチンやDNA修飾剤?」のような彼らの声明を言い換えたり、検出を回避しようとする他の単語やコードを使用することさえあります。この新しい技術は、企業が見逃した可能性のあるコンテンツをキャプチャするのに役立ちます。

「より迅速に対応すれば、介入とコンテンツのモデレーションをよりタイムリーに開始できます。最終的には、ここでの目標は、ユーザーを安全に保つことです」と、CNET、12月9日木曜日に引用したように、コーネリアカラプセアのメタプロダクトマネージャーは言いました。

Metaは、新しいシステムをテストし、従来のAIシステムがキャッチできない可能性のある不快なコンテンツを特定することができたと述べた。FacebookとInstagramのフォトサービスで新しいシステムを立ち上げた後、ユーザーが見る悪意のあるコンテンツの視聴回数の割合は減少しました。

少数ショット学習者は100以上の言語で動作します。同社は含まれる言語をリストしていないが、Carapceaは、この新技術は英語以外の言語で有害なコンテンツと戦うパンチを打つ可能性があり、AIシステムを訓練するためのサンプルが少ないかもしれないと述べている。

Facebookがメタバース、人々が社交的で働くことができる仮想空間の構築に焦点を当てるにつれて、コンテンツモデレーションはより複雑になります。カラプセアは、彼が少数ショット学習者は最終的にバーチャルリアリティコンテンツに適用することができると思うと言いました。

「最終的には、少数ショット学習者は、完全性のために特別に使用される技術の一部です。しかし、機械学習システムを少ない例で教えることは、研究の最前線で推し進められているトピックです」とCarapcea氏は述べています。