ロンドンのクイーンメアリー大学の博士課程の学生は、AIで新しい音楽の世界を構築します
ジャカルタ - ロンドンのクイーンメアリー大学のレコードルーム内で、研究者グループは革新的な人工知能(AI)ツールを改ざんして、彼らが新しい「音楽の仮想世界」と呼ぶものを開発しました。
アンドレア・マルトネッリとマックス・グラフは、デジタルメディアのシニア講師であるマシュー・バーテット博士と協力して、計算創造性と人工知能を探求した30人以上の博士課程の2人です。一緒に、彼らは音楽が最先端の技術と出会う未来的なスタジオを設立しました。
「それは最長の現実、XRのようなもので、私たちが住んでいる物理的な現実を拡張する方法です」とグラフは言いました。彼はまた、彼の仮想楽器である「ネツ」を披露しました。
ネットは、トーンやアクセントなどの適切な出力を生成するために動きを追跡する最長のリアリティヘッドセットを介して再生されます。
マルトネッリは、AIセンサーを搭載した洗練されたギターである「HITar」を演奏し、ドラム音とシンセサイザーを生成するためにその動きを読みます。
音楽制作におけるAIの存在は1950年代にさかのぼりますが、ロボットが現在音楽をデジタルポップスターにしているジェネレーティブ人工知能の最新の進歩は、業界の収益を分割しています。
昨年、ChatGPT言語システムで広く知られていたジェネレーティブ人工知能は、オリジナルの声、歌詞、曲全体などのコンテンツを独自に作成できますが、アーティストはしばしばよりシンプルなAIを使用して声を向上させます。
英国のオルタナティブ・ロック・ソングライター、YUNGBLUDは、AIが彼の音楽を「別の方向に向かって」助けることができると信じていると言います。しかし、一部のミュージシャンは、この技術が遠すぎる可能性があると心配しています。
「曲を書くのを手伝うためにAIが必要な場合、特に共通点のために、それはクールではないと感じています」と、オルタナティブロックデュオNova TwinsのAmy Loveは、人工的に作られたアーティストの声に言及し、亡くなったアーティストの声の使用は「良くない」と付け加えました。
11月、ビートルズは最後の曲と見なされる「Now and Then」をリリースし、古い録音のAIで抽象化されたジョン・レノンの声を特集しました。ワーナーミュージックは11月、亡くなったフランス人歌手エディス・ピアフの遺産と提携して、AIを使用して声を再現すると発表した。
レーベルとストリーミング会社はこのテクノロジーをマーケティングするために協力していますが、多くの専門家はAIが法的および倫理的懸念を提起すると述べています。
「違法な開発は、生成人工知能の機会を脅かすものです」と、国際光学産業連盟(IFPI)のグローバル法政策ディレクター、アッバス・ライトワラは述べた。しかし、人工知能の規制はまだ初期段階にあります。
「AIは音楽制作チェーンにおいて、それが正しく監督され、ミュージシャンがパフォーマーだけでなく、まだ多くのコントロールを持っていることを確認すれば、その場に居場所を持つことができると思います」とBarbhet博士は述べています。「しかし、AIによって生成された音楽が、まだ出現していない新しいこと、つまり新しい仮想世界に取り組むことができる状況があるかもしれません。