ICC訊 據(jù)報(bào)道,英偉達(dá)(Nvidia)開(kāi)發(fā)了一種新型人工智能(AI)模型,可以創(chuàng)造聲音效果,改變?nèi)说陌l(fā)音方式,并使用自然語(yǔ)言提示生成音樂(lè)。
這個(gè)模型被命名為Fugatto,即Foundational Generative Audio Transformer Opus 1,是一個(gè)研究項(xiàng)目。英偉達(dá)表示,它不會(huì)宣布任何發(fā)布這項(xiàng)技術(shù)的計(jì)劃,但它可能會(huì)對(duì)從音樂(lè)、娛樂(lè)到翻譯服務(wù)等行業(yè)產(chǎn)生廣泛的影響。
英偉達(dá)應(yīng)用深度學(xué)習(xí)研究副總裁Bryan Catanzaro在接受采訪時(shí)表示:“Fugatto最令人興奮的地方在于,它擁有一個(gè)模型,你可以要求它以某種方式發(fā)出聲音,這真的打開(kāi)了你對(duì)它應(yīng)用范圍的想象?!?
他進(jìn)一步解釋說(shuō),市場(chǎng)上的其他模型,有些可以合成語(yǔ)音,有些可以為音樂(lè)添加音效,但Fugatto全部都可以做到。Catanzaro說(shuō),可以將其視為視頻和圖像生成模型(如Stability AI的Stable Video Diffusion或OpenAI的Sora)的一種補(bǔ)充。
“這里最基本的改進(jìn)是……我們能夠使用語(yǔ)言合成音頻,我認(rèn)為,這為人們可以用來(lái)創(chuàng)造驚人音頻的工具開(kāi)辟了新的前景?!彼a(bǔ)充說(shuō)。
根據(jù)英偉達(dá)的說(shuō)法,F(xiàn)ugatto是第一個(gè)具有新興特性的基礎(chǔ)模型,這意味著它能夠混合經(jīng)過(guò)訓(xùn)練的元素,并遵循“自由形式的指令”。
具體而言,該模型可以通過(guò)標(biāo)準(zhǔn)的文字提示生成音頻,也可以處理您上傳的音頻文件。所以,如果你有一個(gè)人說(shuō)話的文件,你可以把那個(gè)人的話翻譯成另一種語(yǔ)言,同時(shí)讓它聽(tīng)起來(lái)像他的聲音。你也可以選擇一個(gè)簡(jiǎn)單的曲調(diào),讓它聽(tīng)起來(lái)像管弦樂(lè)表演,或者在音樂(lè)中添加不同的節(jié)拍。
此外,你也可以上傳一個(gè)文檔,讓模型用你喜歡的任何聲音朗讀。更重要的是,你可以告訴模型發(fā)出帶有情感分量的聲音。
不過(guò),Catanzaro也補(bǔ)充說(shuō),這種模型并不總是完美的。而且,就像生成圖像和視頻的模型一樣,F(xiàn)ugatto也會(huì)催生藝術(shù)家、音響工程師和相關(guān)領(lǐng)域人員的擔(dān)憂。但Catanzaro指出,他的本意是希望這項(xiàng)技術(shù)能幫助音樂(lè)家。
“我希望這是藝術(shù)家探索的新工具?!薄拔艺J(rèn)為音頻一直是一個(gè)富有成效的探索領(lǐng)域。你知道,當(dāng)我們獲得新的音頻工具時(shí),有時(shí)我們會(huì)獲得新的音樂(lè)形式。”他說(shuō)。