シェア:

ジャカルタ-Googleに取り残されたくないメタは、人工知能(AI)に基づくオープンソースのディープラーニング言語モデルであるMusicGenを立ち上げています。

先月、GoogleはMusicLMと呼ばれる同様の音楽ジェネレーターをリリースしましたが、MusicGenはもう少し良い結果をもたらしているようです。

メタのAudiocraftチームによって開発されたMusicGenは、テキスト要求に基づいて新しい音楽を生成し、既存の曲とアライメントできるChatGPTの音楽バージョンのようなものです。

ユーザーは、聞きたい音楽の種類についてのテキストの説明を簡単に入力するだけで、短時間でAIは指示に従って12秒のトラックを作成します。

たとえば、誰かが MusicGen に「有機サンプルによるロフィスローBPMエレクトロチル」という曲を作曲するように指示することができ、オーディオの結果はロフィガールのYouTubeラジオで一般的に聞かれているように聞こえます。

メタによると、Audiocraftチームは、シャッターストックとポンド5のトラックとともに、内部データセットからの10,000の高品質トラックを含む、トレーニングに20,000時間のライセンス音楽を使用しました。

それをより高速にするために、彼らは会社の32Khz EnCodecオーディオトークンライザーを使用して、並行して処理できるより小さな音楽ピースを作成しました。

ただし、MusicLMとは異なり、MusicGenはボーカルをすることができず、インストゥルメンタルのみです。現在、新しいメタAIモデルは、6月13日火曜日のEngadgetから引用されているように、Hugging Faceウェブサイトで無料で利用できます。

「MusicLM(Google)のような既存の方法とは異なり、MusicGenは単独で監視されたセマンティックな表現を必要としない(および)オーディオの毎秒50の自動退行ステップしか持っていません」とHugging Face MLエンジニアのAhsen Khaliqはツイートしました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)