首頁 > 新聞 > 智能 > 正文

對標谷歌 MusicLM!Meta 發布開源音樂模型 MusicGen

2023-06-13 19:11:32來源:ZAKER科技  


(資料圖片僅供參考)

財聯社 6 月 13 日訊(編輯 夏軍雄)隨著聊天機器人 ChatGPT 的興起,人們開始嘗試把生成式人工智能(AI)技術應用在包括音樂在內的多個領域。

Meta 近日推出了名為 MusicGen 的開源 AI 模型,這是一種深度學習語言模型,可以根據文本提示生成音樂。

Facebook 研究科學家 Gabriel Synnaeve 上周末在領英上公布了這一消息,并稱其為簡單可控的音樂生成模型。

據悉,由 Synnaeve 領導的團隊使用了 2 萬小時的授權音樂來訓練 MusicGen,其中包括來自內部數據集的 1 萬首高質量音樂曲目,以及素材供應商 Shutterstock 和 Pond5 的曲目。

Meta 已經在 Github 上以開源的形式發布了 MusicGen 的代碼和模型,并允許商業使用。

Synnaeve 表示:" 我們公開發布代碼和預訓練模型,以供開放研究、可重復性和更廣泛的音樂界研究這項技術。"

用戶目前可在 Hugging Face 上體驗 MusicGen,除了文本提示外,還可搭配音頻一同作為生成音樂的條件。在確定提示信息后,便可讓 MusicGen 生成一段 12 秒的音頻,不過需要等待一些時間,等待時長取決于在線的用戶數量和用戶所設置的提示信息。

經筆者實測,在要求 MusicGen 生成一段具備中國風元素的重金屬音樂后,MusicGen 大約花了大約 3 分鐘時間(不包括排隊等待時長)給出了結果。

MusicGen 基于谷歌于 2017 年發布的 Transformer 模型,而谷歌今年 1 月也發布了名為 MusicLM 的音樂生成模型,并于 5 月向上月向所有用戶開放。

除了谷歌的 MusicLM 外,目前較為常見的音樂模型還有 Riffusion、Mousai 和 Noise2Music 等。

關鍵詞:

責任編輯:hnmd003

相關閱讀

相關閱讀

推薦閱讀