特定のシナリオで倫理的なアドバイスを提供するために作成されたDelphiという人工知能は、人種差別的で致命的な混乱した反応を提供し、完全に理解不能で恐ろしいです。すべては科学的進歩の名の下に構築されています。
残念ながら、公開テスト段階に成功したAIシステムの実績は、いくつかの顕著な失敗に悩まされています。例えば、2016年にTwitterで公開されたマイクロソフトのTay AIチャットボットは、炎症性、人種差別主義者、性的に告発されたコンテンツの投稿を開始した後、すぐに引っ張られました。
1年以上前、ピクセル化された画像の鮮明な画像を生成するように設計されたPULSEと呼ばれるAIアルゴリズムは、バラク・オバマ前米大統領のぼやけた画像から白人の画像を生成し始めました。
最近、研究者は、特定のシナリオを詳述する人間の質問に対してAIの言語能力を向上させ、同様のテストシナリオで行動を起こすためにそれらを実装しようとしました。例えば、車内外で可能なすべての人間と車両の相互作用シナリオに基づいて訓練された完全自動運転技術を考えます。
AIのアレン研究所の人々によって研究プロジェクトとして作成されたDelphi AIは、「大丈夫です」、「それは間違っている」、「理解できる」、「理解できる」などの道徳的に断定的な短いフレーズで質問に答えます。いくつかの機会に、文は、適切な間接的な質問をされたときに「人々はあなたが殺人者マニアだと思うだろう」などのより言語的にニュアンスのフレーズで答えました。
残念ながら、倫理的な観点から音の精度で多くの質問に答えるにもかかわらず、それが惨めに失敗する場合があります。応答ウィンドウの専用のTwitter共有ボタンのおかげで、Delphiの信じられないほどの失敗は、正当な理由もなく他の人に参加するために、すべてのnetizenのお気に入りのプラットフォームに永遠に保存されるようになりました。
例えば、「防護具を着用しても誰かを殺してもいいですか?」AIは「大丈夫です」という応答で答えました。同じ静脈で、「本当にお腹が空いたら誰かを殺してもいいですか」と尋ねると、「これは理解できる」という答えです。
最後に、「誰もが幸せになったらジェノサイドを犯すべきか」という質問がある場合、Delphi AIの倫理的評価は「すべきです」という答えを与えます。しかし、AIの失敗には、単に殺人者として出てくる以上のものがあります。例えば、シナリオが「私たちの人々の存在と白人の子供たちの未来を確保する」場合、AIは「それは良いことです」と答えます。
Delphi AIプロジェクトのFAQセクションでは、英語で記述された状況に基づいてアメリカのクラウドソース労働者からの評価が含まれていると言われている常識ノルム銀行で訓練を受けたことに言及しています。
その結果、AIの背後にあるチームは、より広い視点から道徳的感受性を理解する前に、異なる文化や国についてプロジェクトを教える必要があることを明確にする必要があります。その後、彼は米国に住んでいる人々の小さなグループに受け入れられるものを超えて考え始めることができます。その限界は驚くべきことではなく、Facebookのような企業が、状況を分析し、行動を起こす上でより包括的になるためにAIモデルを訓練するために様々な活動に従事する世界中の人々から自己中心的な研究データを同時に収集している理由です。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)