新しいサウンドディープフェイクテクノロジーが登場し、OpenAIはリスクを回避するためにリリースされていません
ジャカルタ - 大手テクノロジー企業であるOpenAIは、革命的な音声クローニングソフトウェアを開発しましたが、リスクが高すぎる可能性があるため、一般に公開しないことを選択しました。
音声エンジンとして知られるこの技術は、会話の録音からわずか15秒で誰かの声を複製することができます。それにもかかわらず、同社は、特に多くの国の選挙年に、この技術を広く使用するには「危険すぎる」と考えています。
「人々の投票に似た投票は、特に選挙の年に深刻なリスクがあることを認識しています」とサンフランシスコに本拠を置くOpenAIは述べています。
彼らは、初期のユーザーにプレビューを提供する予定であるが、誤用の危険性が高いため、この技術は現時点では広くリリースされないことを確認した。
ニューハンプシャー州の当局は、ジョー・バイデン大統領を模する人工知能によって生成された投票を使用して、大統領選挙に先立って有権者に送信される何千もの自動通話について調査を行っています。
いくつかのスタートアップ企業が音声クローニング技術を販売しているが、OpenAIは、初期の音声エンジンのユーザーが同意なしに誰かをエミュレートせず、生成された音が人工知能で作られていることを明らかにすることに同意したと主張している。
チャットボットとDALL-E画像ジェネレータで知られるOpenAIは、ボイスエンジンが発表で行ったのと同じような計画を持っていますが、以前のSoraビデオジェネレータを広くリリースしていません。
しかし、3月19日に提出されたブランド申請書は、OpenAIがボイス認識とデジタルボイスアシスタントのビジネスに従事することを目的としている可能性が高いことを示唆しています。したがって、このような技術のアップグレードは、OpenAIがAmazonのAlexaのような他のボイス製品と競争するのに役立つ可能性があります。