新音樂產(chǎn)業(yè)觀察原創(chuàng)文章,未經(jīng)授權(quán)謝絕轉(zhuǎn)載
作者丨朱力克
深夜的錄音棚里,制作人盯著屏幕反復(fù)回放一段剛編好的副歌,一邊下意識(shí)地去點(diǎn)插件列表。是不是要換個(gè)鼓組?是不是要改個(gè)音色?不是沒有想法,而是太清楚接下來要付出的時(shí)間:重搭音色鏈路、重新對(duì)齊節(jié)奏、再跑一遍結(jié)構(gòu),可能只是為了驗(yàn)證一個(gè)不一定成立的感覺。
對(duì)很多音樂人來說,這種“被流程拖慢”的創(chuàng)作體驗(yàn),早已習(xí)以為常。過去兩年,AI音樂工具的爆發(fā),一度讓人以為這個(gè)問題會(huì)被徹底解決。從“一句話生成一首歌”,到各種自動(dòng)作曲、自動(dòng)編曲產(chǎn)品層出不窮,AI似乎已經(jīng)證明了能寫歌。但在實(shí)際創(chuàng)作中,這些工具更多停留在玩具或輔助的位置。好玩,但難以進(jìn)入真正的創(chuàng)作流程。
2026年以來,事情逐漸有了變化。隨著MiniMax Music 2.5、2.5+的推出,AI音樂在音質(zhì)、結(jié)構(gòu)和完成度上逐漸逼近專業(yè)制作水平,至少在純音樂場(chǎng)景中,已經(jīng)具備了明確的商用能力。而最新的Music 2.6,則把這種能力進(jìn)一步推向一個(gè)更關(guān)鍵的節(jié)點(diǎn):20秒內(nèi)出歌、旋律與結(jié)構(gòu)可控、風(fēng)格可以被“編排”。
尤其是兩類能力變得更實(shí)用:Vibe Coding式的歌曲創(chuàng)作,創(chuàng)作者只需要描述一種氛圍或感覺,就可以快速得到多個(gè)方向的音樂版本,AI Cover則基于已有作品進(jìn)行風(fēng)格化改寫、擴(kuò)展甚至重組。從調(diào)式、節(jié)奏到人聲、樂器,每個(gè)細(xì)節(jié)都可隨時(shí)調(diào)整。
![]()
本質(zhì)上,它意味著一件更重要的事情:AI不再只是“寫一首歌”,而是開始參與“做一個(gè)音樂項(xiàng)目”。也就是說,AI正在從一個(gè)結(jié)果生成工具,變成一個(gè)可以嵌入創(chuàng)作流程、甚至重構(gòu)流程的系統(tǒng)。
從“等結(jié)果”到“實(shí)時(shí)創(chuàng)作”
Music 2.6新模型上線即開啟14天免費(fèi)體驗(yàn),C端網(wǎng)頁(yè)用戶每個(gè)帳號(hào)每日500首/天的新模型音樂創(chuàng)作額度。體驗(yàn)過后,我們發(fā)現(xiàn)Music 2.6解決的,不只是更好聽的問題,而是更快和更可控,從而讓AI真正進(jìn)入創(chuàng)作過程本身。
在此前的AI音樂工具中,一個(gè)最影響體驗(yàn)的問題是反饋速度。生成一段音樂往往需要等待一分鐘甚至更久,這意味著每一次修改都要經(jīng)歷完整的一輪等待。對(duì)于創(chuàng)作來說,這種節(jié)奏幾乎是致命的——靈感往往是連續(xù)的,但工具卻是離散的,創(chuàng)作者不得不在等待結(jié)果和繼續(xù)思考之間反復(fù)切換。
Music 2.6把首包時(shí)間壓縮到20秒以內(nèi),這個(gè)變化的意義,并不僅僅是效率提升,而是直接改變了創(chuàng)作的交互方式。創(chuàng)作者可以像使用樂器一樣,與AI進(jìn)行近似實(shí)時(shí)的互動(dòng):提出一個(gè)想法,快速得到反饋,再基于結(jié)果繼續(xù)調(diào)整。創(chuàng)作不再是“提交—等待—修改”的循環(huán),而更接近一種連續(xù)的對(duì)話過程。
與此同時(shí),這一代產(chǎn)品在控制能力上的提升,同樣關(guān)鍵。過去的AI生成,更像是“抽卡”。輸入一個(gè)模糊的描述,得到一個(gè)不可預(yù)期的結(jié)果。而在Music 2.6中,創(chuàng)作者可以明確指定BPM、調(diào)性(Key)、段落結(jié)構(gòu)、情緒走向等參數(shù),甚至可以對(duì)歌曲的不同部分進(jìn)行精細(xì)化控制。這意味著,AI不再只是提供靈感,而是可以參與到嚴(yán)肅創(chuàng)作流程中。
這種變化還體現(xiàn)在更細(xì)微的層面。相比2.5,2.6不僅在旋律生成上更穩(wěn)定,也開始理解段落邏輯。副歌的推進(jìn)、過門的銜接、情緒的遞進(jìn)更加自然。同時(shí),人聲的表現(xiàn)更接近真實(shí)演唱,器樂之間的配合也更像真實(shí)樂隊(duì)的互動(dòng),尤其是在中低頻部分,鼓與貝斯的律動(dòng)明顯更加“站得住”。
這些看似是技術(shù)細(xì)節(jié)的提升,疊加在一起,帶來的結(jié)果是:AI第一次具備了實(shí)時(shí)反饋+結(jié)構(gòu)可控的能力組合。當(dāng)這兩個(gè)條件同時(shí)成立時(shí),AI才真正從生成工具,變成創(chuàng)作工具。
從“寫一首歌”到“搭一套系統(tǒng)”
如果說速度和可控性解決的是能不能用,那么Music 2.6更深層的變化在于,它正在推動(dòng)音樂創(chuàng)作進(jìn)入一種全新的工作方式——Agent驅(qū)動(dòng)的創(chuàng)作流程
MiniMax近期開源了3個(gè)music skills,并在token plan中新增了每日100 首的免費(fèi)音樂創(chuàng)作額度。結(jié)合mmx-cli的調(diào)用方式,創(chuàng)作者可以更方便地嘗試用Agent搭建自己的音樂工作流,把不同的創(chuàng)作環(huán)節(jié)串聯(lián)起來,逐步形成更高效的生產(chǎn)流程。
在傳統(tǒng)的音樂制作中,創(chuàng)作路徑是高度線性的。音樂人需要在DAW(如Ableton Live)中一軌一軌地搭建作品:先寫旋律,再配和弦,接著編節(jié)奏、拼結(jié)構(gòu),最后進(jìn)入混音與導(dǎo)出階段。每一個(gè)環(huán)節(jié)都需要人工操作,而且彼此之間強(qiáng)依賴,一旦前面發(fā)生修改,后面的工作往往需要重來。換一個(gè)鼓組要重新搭鏈路,改一段結(jié)構(gòu)要重新拼軌道,而在AI參與的創(chuàng)作流程中,這種模式開始被打破。
新的路徑更接近這樣一種邏輯:創(chuàng)作者用自然語言或結(jié)構(gòu)化提示描述需求,系統(tǒng)批量生成多個(gè)版本,創(chuàng)作者快速篩選并進(jìn)行微調(diào),同時(shí)可以并行推進(jìn)多個(gè)方向。這種方式與其說是做音樂,不如說更像是在調(diào)試一個(gè)系統(tǒng)。
這種變化,和當(dāng)下流行的Vibe Coding有某種相似性。開發(fā)者不再手寫每一行代碼,而是通過自然語言描述需求,由系統(tǒng)生成代碼,再進(jìn)行選擇和修改。對(duì)應(yīng)到音樂創(chuàng)作中,Prompt和結(jié)構(gòu)控制,正在變成一種新的編程語言,用于編排音樂生成流程。
在這個(gè)體系中,Skill的出現(xiàn)進(jìn)一步放大了這種變化(Skill倉(cāng)庫(kù)地址見評(píng)論區(qū))。所謂Music Skills,本質(zhì)上是把音樂能力拆解成可以調(diào)用的模塊。關(guān)鍵不在于多了幾個(gè)功能,而在于音樂能力本身被組件化了。
例如,生成引擎可以作為一個(gè)基礎(chǔ)Skill,自動(dòng)識(shí)別用戶需求并匹配合適的生成策略;歌單生成器則不再只是推薦已有內(nèi)容,而是基于用戶偏好直接生成新的作品,從而讓“推薦系統(tǒng)”向“內(nèi)容生產(chǎn)系統(tǒng)”轉(zhuǎn)變;而類似“寵物歌手”的能力,則讓AI具備持續(xù)輸出特定聲音和人格的能力,某種程度上是在構(gòu)建新的虛擬音樂IP。
更重要的是,這些Skill不僅可以調(diào)用,還可以被組合、擴(kuò)展,甚至由創(chuàng)作者自己構(gòu)建。
一個(gè)熟悉某種風(fēng)格的制作人,可以把自己的創(chuàng)作經(jīng)驗(yàn)拆解成一系列Skill,例如特定的和弦走向、節(jié)奏模式、音色組合,然后在不同項(xiàng)目中反復(fù)調(diào)用。這種能力,使得創(chuàng)作不再是一次性的勞動(dòng),而是可以被沉淀和復(fù)用的系統(tǒng)資產(chǎn)。
![]()
當(dāng)Skill與Agent結(jié)合之后,創(chuàng)作的自由度被進(jìn)一步放大。Agent可以自動(dòng)調(diào)用不同Skill,完成從旋律到結(jié)構(gòu)的整體生成,而創(chuàng)作者則在關(guān)鍵節(jié)點(diǎn)進(jìn)行干預(yù)和選擇。這種模式下,創(chuàng)作不再受限于單一工具或固定流程,而是可以根據(jù)需求動(dòng)態(tài)組合能力模塊,甚至“手搓”出屬于自己的創(chuàng)作系統(tǒng)。
因此,Music 2.6真正改變的,不只是怎么寫一首歌,而是怎么生產(chǎn)音樂。
![]()
從作品到服務(wù),AI音樂正在重寫供給邏輯
當(dāng)創(chuàng)作方式發(fā)生變化時(shí),受到影響的就不僅是創(chuàng)作者本身,而是整個(gè)音樂供給鏈。
首先,內(nèi)容生產(chǎn)將進(jìn)一步爆發(fā)。當(dāng)前已經(jīng)可以看到多個(gè)明確跑通的應(yīng)用場(chǎng)景:短視頻BGM是規(guī)模最大的市場(chǎng),其次包括國(guó)風(fēng)、同人音樂、方言神曲、企業(yè)定制音樂以及游戲音效等。這些場(chǎng)景有一個(gè)共同特點(diǎn),對(duì)音樂的需求量極大,但單首作品的預(yù)算有限。AI音樂的出現(xiàn),使得這些需求可以被更低成本、更高效率地滿足,從而進(jìn)一步擴(kuò)大整體供給。
其次,體現(xiàn)在Cover能力的變化。在AI體系下,Cover不再只是簡(jiǎn)單的翻唱,而更像是一種音樂資產(chǎn)再開發(fā)。同一首作品,可以被快速生成多個(gè)風(fēng)格版本,以適配不同平臺(tái)、不同受眾甚至不同語境。這種能力,使得音樂從單一作品,變成一種可以被反復(fù)利用的內(nèi)容資源。
再次,Agent工作流融入音樂生產(chǎn)。以MiniMax為代表的路徑,將創(chuàng)作流程拆解為由Agent(任務(wù)編排)、CLI(調(diào)用接口)與Skill(可復(fù)用原子能力)構(gòu)成的模塊化結(jié)構(gòu),使旋律生成、風(fēng)格遷移、歌詞處理等環(huán)節(jié)可以被標(biāo)準(zhǔn)化、組合與復(fù)用。音樂生產(chǎn)有望演變?yōu)轭愃啤安寮钡纳鷳B(tài)結(jié)構(gòu),創(chuàng)作經(jīng)驗(yàn)被沉淀為可流通的能力模塊,從而重塑行業(yè)分工與效率邊界。
進(jìn)一步來看,這些變化正在推動(dòng)行業(yè)結(jié)構(gòu)的調(diào)整。平臺(tái)的角色,正在從單純內(nèi)容分發(fā)向生成+分發(fā)轉(zhuǎn)變;創(chuàng)作者的角色,從具體制作轉(zhuǎn)向流程調(diào)度與決策;商業(yè)模式,也從以版權(quán)為核心,逐漸向定制化服務(wù)延伸。同時(shí),非專業(yè)用戶的參與門檻被大幅降低,創(chuàng)作從技能驅(qū)動(dòng),轉(zhuǎn)向表達(dá)驅(qū)動(dòng)。
在這個(gè)過程中,一個(gè)值得關(guān)注的問題是版權(quán)。當(dāng)音樂可以被快速生成、改編甚至重組時(shí),原有的版權(quán)體系如何適配新的生產(chǎn)方式,仍然是行業(yè)需要面對(duì)的重要議題。
但可以確定的是,當(dāng)寫歌變成一件20秒就能開始的事情,當(dāng)旋律、風(fēng)格和結(jié)構(gòu)都可以被編排,音樂正在發(fā)生一次更底層的變化。它不再只是藝術(shù)表達(dá)的載體,也開始成為一種類似計(jì)算能力的基礎(chǔ)設(shè)施。
![]()
過去,音樂是一首首獨(dú)立的作品;現(xiàn)在,音樂開始變成可以拆分、重組的內(nèi)容組件;而在未來,它可能成為一種可以被隨時(shí)調(diào)用的基礎(chǔ)能力。AI正在推動(dòng)音樂從作品向資源轉(zhuǎn)變。
而真正的競(jìng)爭(zhēng),也許才剛剛開始。對(duì)于AI公司來說,比拼的不只是模型性能,而是誰能構(gòu)建起完整的音樂創(chuàng)作生態(tài);對(duì)于創(chuàng)作者來說,則面臨一個(gè)更開放的問題:當(dāng)每個(gè)人都可以做歌,什么才是好音樂?
-全文完-
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.