那個一度在 Artifical Analysis 的 AI 視頻競技場排行榜中登頂?shù)谝坏囊曨l生成模型 HappyHorse 1.0, 我們終于能用官方版了,現(xiàn)在打開千問 APP 和千問創(chuàng)作 Web 端( c.qianwen.com ),直接就能用,甚至還有免費(fèi)體驗(yàn)額度。
![]()
前段時間,一款名為 HappyHorse 1.0 的視頻生成模型,悄然登頂權(quán)威 AI 評測平臺 Artifical Analysis 的 AI 視頻競技場排行榜,引發(fā)社交媒體的紛紛議論。
直到阿里正式認(rèn)領(lǐng) HappyHorse,謎團(tuán)揭開,這匹快樂小馬出自自家新成立不到一個月的 ATH 事業(yè)群。
今天,阿里公布了 HappyHorse 1.0 的體驗(yàn)渠道,千問官方首發(fā)灰測,千問 APP 和千問創(chuàng)作Web端都能直接使用。
![]()
移動端(千問 APP) ,我們只需將千問更新到最新版本,通過點(diǎn)擊首頁的「HappyHorse」膠囊,即可直接進(jìn)入 HappyHorse 1.0 的生視頻創(chuàng)作面板,并且千問還贈送了免費(fèi)體驗(yàn)額度。
![]()
PC 網(wǎng)頁版(千問創(chuàng)作 Web 端) ,針對有更專業(yè)創(chuàng)作需求的用戶,可以通過瀏覽器打開 c.qianwen.com 登錄使用。網(wǎng)頁端每次生成消耗積分,綜合對比下來,還是比較具有性價比的。
無論是文生視頻還是圖生視頻,均支持最高 1080p 的視頻分辨率。
我們可以自由選擇 16:9、9:16 或是 1:1 的視頻寬高比,生成時長可選 5 秒、10 秒或15 秒,并且支持原生生成音頻。
APPSO 第一時間拿到了體驗(yàn)資格,評測榜單的排名能說明結(jié)果,但是 HappyHorse 1.0 生成的視頻,到底有什么優(yōu)點(diǎn),一起來看看我們的實(shí)測。
通過實(shí)測,能看到其實(shí) HappyHorse 1.0 并沒有在復(fù)雜的全能參考選項(xiàng)上做文章,而是 將核心發(fā)力點(diǎn)放在了動作、聲音、空間的自然度上,加上合理的鏡頭語言,和風(fēng)格的準(zhǔn)確還原,整體表現(xiàn)確實(shí)驚艷。
用一句指令,直接搞定運(yùn)鏡和故事板
大部分的主流視頻模型,都會把鏡頭運(yùn)動當(dāng)做一個庫,給用戶來調(diào)用。所謂的鏡頭運(yùn)動,更像是從這些庫里,推進(jìn)、拉遠(yuǎn)、旋轉(zhuǎn),隨機(jī)挑一個運(yùn)鏡方式,并沒有配合畫面里正在發(fā)生的事情。
而鏡頭感作為視頻最重要的一部分,往往一眼就能感受到明顯的差距,但它本身又很難用具體數(shù)值來量化。
HappyHorse 1.0 的處理方式也表現(xiàn)得可圈可點(diǎn),切換鏡頭的時機(jī)必須是服務(wù)于作品。情緒需要收緊的地方,鏡頭近一點(diǎn);需要交代環(huán)境的地方,給我們?nèi)埃槐澈笫且惶子袛⑹逻壿嫷恼{(diào)度。
同樣一個提示詞,丟給多個模型生成的視頻畫面,可能都會偏向「固定機(jī)位」,人物站在中間,缺乏鏡頭調(diào)度。因?yàn)檫@樣最不容易出錯,但是給視頻的觀感又大打折扣。
HappyHorse 1.0 在生成的視頻里,則是像一個懂行的攝影指導(dǎo),各種大師級運(yùn)鏡,從全景到近距離跟拍馬蹄的揚(yáng)塵,再流暢切換到低角度仰拍拔槍的瞬間。
它打破了傳統(tǒng)的 AI 視頻生成模型「為了穩(wěn)妥而選擇平庸」的安全構(gòu)圖,用大量扎實(shí)的鏡頭調(diào)度,把這段追逐戲的動態(tài)張力,原原本本地拍了出來。
情緒和動作都有了層次感,微表情也能演戲
對于很多視頻模型,人物動作是最難解決的問題。即便使用詳細(xì)的參考生成,到了后半段還是容易出現(xiàn)變形,比如手指多一根、臉部模糊或者動作節(jié)奏突變。
但 HappyHorse 1.0 在這個硬指標(biāo)上表現(xiàn)非常穩(wěn)定,一段 5 秒的視頻,人物動作從頭到尾基本保持連貫,穿幫的頻率明顯更低。
舉個具體的例子,我們用的提示詞是一個穿著白色裙子的女生走在花海里,從畫面的左邊走到右邊,鏡頭跟隨,女生轉(zhuǎn)動裙子,捧起一朵花聞。
HappyHorse 1.0 給的動作過渡非常自然,女孩在花叢中走路完全沒有那些「太空步」的滑移,從她轉(zhuǎn)動裙擺,到捧起花朵湊近鼻子,整個動作流程行云流水。
動作有層次感,人物的表情同樣真實(shí)。我們生成了一個小朋友咬下酸檸檬的視頻,從咬下檸檬的瞬間,到強(qiáng)烈的酸味,開始帶來面部肌肉緊繃、五官皺起、緊閉雙眼,再到酸勁兒逐漸過去,面部肌肉慢慢放松,最后茫然地重新睜大眼睛。
通過動作和表情,讓人物的情緒更有層次感,HappyHorse 1.0 生成視頻也更不容易讓人出戲。
官方數(shù)據(jù)顯示, HappyHorse 1.0 的內(nèi)部 GSB(Good-Significant-Bad 人類偏好評分)是 Wan2.7 的 3 倍,動作流暢性和清晰度都進(jìn)步明顯。
對話聽起來更像真人,環(huán)境音也開始參與敘事
除了畫面表現(xiàn),HappyHorse 在 AI 視頻配音上的表現(xiàn)也比其他模型更出色。
大部分的 AI 視頻配音,都有一個很難繞開的問題:聽上去像在「念」,不像在「說」。
語氣是平的,語調(diào)不跟著情緒走,兩個人對話的時候,一方說話,另一方就在那里等著,沒有反應(yīng),沒有表情變化,像兩個人在分別完成自己的任務(wù)。
HappyHorse 1.0 在這里的處理,是對白真的有情境感。語氣和語調(diào)貼著畫面里的情緒,驚訝的時候語調(diào)是對的,輕松的時候節(jié)奏是松的。多人對話的場景里,聽的那一方也是自然,會有表情,有細(xì)微的肌肉反應(yīng),不是在發(fā)呆等下一句。
環(huán)境音也是一樣的邏輯。書寫聲、翻頁聲、遠(yuǎn)處的背景音,這些細(xì)節(jié)在大多數(shù)視頻模型里是缺席的,或者聽上去是從音效庫里隨機(jī)抓來的。
HappyHorse 1.0 里,這些聲音跟畫面里正在發(fā)生的事情是對得上的,而且能參與情緒。在安靜的場景里,出現(xiàn)一點(diǎn)紙張摩擦聲,或許比大多數(shù)配樂都更容易讓人有沉浸感。
還有一個比較小眾但實(shí)用的能力:多語言的唇形同步,覆蓋了普通話、粵語、英語、日語、韓語、德語、法語等語言。
輸入中文文本生成人物說話的視頻,嘴型就能跟上語音。這個能力的想象空間相當(dāng)大,從短視頻配音到虛擬主播,未來都會用得上。
不需要復(fù)雜的風(fēng)格提示詞,輕松拿捏經(jīng)典影視劇風(fēng)格
如果說前面關(guān)于鏡頭、動作和聲音幾點(diǎn)解決的是 AI 視頻的硬件問題,即 AI 視頻不能讓人出戲;風(fēng)格的還原,則是讓最后的畫面更有戲。它會開始用色彩、光影和質(zhì)感,去建立屬于創(chuàng)作者的美學(xué)氛圍。
風(fēng)格的添加也很講究,不是套一層濾鏡,或者一個打包好的 LUT 包,它也需要視頻模型對不同美學(xué)風(fēng)格的了解,以應(yīng)用合適的風(fēng)格化。
HappyHorse 1.0 在特定風(fēng)格的還原上,細(xì)節(jié)非常扎實(shí)。各類經(jīng)典影視劇的風(fēng)格、老港片里膠片的顆粒感和偏冷的高光,我們在實(shí)測的生成結(jié)果里面都能看到。
無論是老水滸/三國畫風(fēng)那種粗糲寫實(shí)的歷史厚重感、光影迷離的經(jīng)典港風(fēng),還是強(qiáng)調(diào)高反差冷峻光影的美劇質(zhì)感、主打細(xì)膩柔光的韓劇氛圍,它都能精準(zhǔn)拿捏。
如果你是個對畫面質(zhì)感有追求的創(chuàng)作者,非常推薦去千問里親自感受一下這種「導(dǎo)演級」的美學(xué)控制力。
AI 視頻賽道需要一匹黑馬
告別了動輒半天的視頻生成排隊(duì),一個 Video Arena 榜單第一的模型,現(xiàn)在不僅直接放到了手機(jī) App 里隨手可用,還給了免費(fèi)體驗(yàn)額度,千問這波實(shí)在是給力。
回頭看 HappyHorse 1.0的這幾個特點(diǎn), 動作不穿幫、鏡頭有語言感 ,解決了 AI 內(nèi)容質(zhì)量的可預(yù)期性,讓我們不用再抱著「抽卡」的心態(tài),去體驗(yàn) AI 視頻生成。
對白自然、真實(shí)的環(huán)境音、還有精準(zhǔn)的風(fēng)格化還原 ,更是讓我們和創(chuàng)作者少了大量的后期修補(bǔ)成本,不需要在多個工具之間來回倒騰。
如果把這種極低門檻、高容錯率的生成能力放到具體的商業(yè)語境中,價值是顯而易見的。
對于新媒體運(yùn)營、短劇導(dǎo)演或是電商營銷團(tuán)隊(duì)而言,過去需要龐大后期團(tuán)隊(duì)和高昂拍攝預(yù)算才能完成的分鏡預(yù)演、概念設(shè)計(jì)或視覺短片,現(xiàn)在只需在手機(jī)或電腦上輸入指令就能快速落地。 在千問里,一個人就是一支高效的視聽制作團(tuán)隊(duì)。
現(xiàn)在我們在千問里,就能得到一段真實(shí)的虛擬主播視頻
過去一段時間,視頻生成賽道的競爭邏輯是「誰的模型更強(qiáng)」——更高的分辨率、更長的時長、更復(fù)雜的物理模擬。
拼的是參數(shù)和算法的技術(shù)競賽,但我們真正卡住的地方很少是因?yàn)椤改P妥霾坏健梗蠖鄶?shù)時候是「做到了但用不起或用不到」,等待時間太長、聲畫要分開處理、動作穩(wěn)不穩(wěn)全靠運(yùn)氣,每一個環(huán)節(jié)的摩擦都在把視頻生成擋在專業(yè)用戶和 AI 超級創(chuàng)作者之外。
而這一次,千問不僅省去了我們在不同工具之間切換的折騰,把最頂級的視頻生成能力直接放到了最熟悉的對話框里,更借助底層模型的實(shí)力,把這些創(chuàng)作摩擦一個個徹底抹平了。
![]()
千問現(xiàn)在是工作、學(xué)習(xí)、生活和創(chuàng)作中全能 AI 助手
HappyHorse 無疑是一匹強(qiáng)勁的黑馬,他是阿里新成立的 ATH 事業(yè)群,在模型能力、平臺分發(fā)、具體應(yīng)用這條完整鏈條上的一塊關(guān)鍵拼圖; 在千問首發(fā)灰測后,鏈條開始跑起來了。
從幫助用戶解決日常問題、提升工作學(xué)習(xí)效率的文本對話,到如今整合了極高水準(zhǔn)的 AI 生圖與視頻能力,千問的進(jìn)化路徑已經(jīng)非常清晰:它正在打破「生活提效」與「專業(yè)創(chuàng)作」的壁壘。
通過一次次的功能迭代,千問正將頂級的算力平民化,真正從一個簡單的問答工具,蛻變?yōu)橐粋€覆蓋用戶全場景的「全能型 AI 助手」。
作為普通人,我們或許不需要關(guān)心背后復(fù)雜的算法架構(gòu),因?yàn)樽詈玫募夹g(shù),已經(jīng)通過千問以最順滑的方式裝進(jìn)了你的手機(jī)里。
![]()
現(xiàn)在,輪到大家上場了。
如果你也想體驗(yàn) HappyHorse 1.0 強(qiáng)大的視頻生成能力,千問還同步開啟了「天馬行空」挑戰(zhàn)賽。一共四大 AIGC 視頻賽道,20 萬現(xiàn)金獎池等大家來拿。
直接前往千問 App 或千問創(chuàng)作 Web 端,用靈感在這個沒有門檻的新畫布上,真正「天馬行空」一次。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.