摘要:生成式人工智能的快速發(fā)展正在重塑短視頻內(nèi)容的創(chuàng)作方式,人機協(xié)同成為提升創(chuàng)作效能的重要路徑。本研究聚焦新聞資訊、生活Vlog與科學知識類等多個垂直領(lǐng)域,通過設(shè)計差異化的協(xié)同流程,結(jié)合剪映等AI工具進行創(chuàng)作實驗,并開展問卷調(diào)查,深入探討用戶與創(chuàng)作者對AI應(yīng)用的接受程度與實際體驗。研究結(jié)果顯示,用戶對AI參與配音、剪輯等技術(shù)性環(huán)節(jié)接受度較高,但在創(chuàng)意生成和情感表達方面仍更依賴人類主導。不同垂直領(lǐng)域間的接受程度存在明顯差異,知識類與資訊類內(nèi)容中的AI應(yīng)用更易被認可。盡管創(chuàng)作者普遍認同AI對生產(chǎn)效率的提升作用,但也指出其在內(nèi)容創(chuàng)新性與專業(yè)準確性方面的局限。本研究從技術(shù)賦能、模式創(chuàng)新與生態(tài)協(xié)同三個層面提出優(yōu)化策略,以期促進短視頻創(chuàng)作在質(zhì)量、效率與用戶體驗方面的協(xié)同發(fā)展。
關(guān)鍵詞:人機協(xié)同;人工智能(AI);短視頻創(chuàng)作;內(nèi)容創(chuàng)作;效能
1 緒論
1.1 研究背景與意義
當前,短視頻用戶規(guī)模已突破10億,日均視頻產(chǎn)量顯著增長。隨著生成式AI技術(shù)的持續(xù)演進,人機協(xié)同在短視頻全流程創(chuàng)作中展現(xiàn)出效率提升顯著和門檻降低的可能,但同時也引發(fā)了對內(nèi)容同質(zhì)化與質(zhì)量問題的普遍擔憂。在教育、影視、游戲等垂直領(lǐng)域中,因內(nèi)容需求、用戶偏好與行業(yè)標準的不同,人機協(xié)同的實際應(yīng)用效果存在較大差異。AI應(yīng)用效能及面臨的挑戰(zhàn)呈現(xiàn)出明顯的領(lǐng)域特異性,因此系統(tǒng)探究不同領(lǐng)域中人機協(xié)同的實際效能與用戶感知,對推動短視頻內(nèi)容生態(tài)的高質(zhì)量發(fā)展具有重要意義。
1.2 研究目標與內(nèi)容
本研究旨在通過多領(lǐng)域視頻制作實踐及問卷調(diào)查,評估人機協(xié)同對短視頻創(chuàng)作效率與創(chuàng)新性的實際提升效果,分析用戶感知,分析創(chuàng)作者與用戶對AI應(yīng)用的態(tài)度與接受程度,最終提出有助于提升短視頻內(nèi)容創(chuàng)新性、傳播力與用戶體驗的具體策略,為行業(yè)高質(zhì)量發(fā)展提供參考。
1.3 研究方法
通過文獻研究法構(gòu)建理論框架,通過實驗法在新聞、生活、知識等領(lǐng)域利用剪映完成視頻創(chuàng)作,同時使用問卷調(diào)查法收集來自創(chuàng)作者和用戶的大規(guī)模態(tài)度與行為數(shù)據(jù)。對問卷進行分析,采用定量與定性相結(jié)合的分析策略。定量分析以描述性統(tǒng)計為主,刻畫樣本分布、變量均值與頻次,探索人群與領(lǐng)域間的接受度差異;針對開放題反饋進行定性分析,作為定量結(jié)果的有益補充與深化。
2 理論基礎(chǔ)與研究綜述
2.1 人機協(xié)同相關(guān)理論
人機協(xié)同指的是人類與人工智能通過分工與協(xié)作共同完成任務(wù)的模式。在該模式中,人類通常承擔創(chuàng)意決策等核心任務(wù),AI則負責標準化、重復(fù)性的操作[3]。常見模式包括輔助型、協(xié)作型與代理型[1],其優(yōu)勢主要體現(xiàn)在效率提升與創(chuàng)意激發(fā),但也伴隨創(chuàng)作主體模糊、版權(quán)爭議及算法倫理等挑戰(zhàn)。
2.2 短視頻內(nèi)容創(chuàng)作特征與流程分析
短視頻創(chuàng)作通常包括選題、腳本、拍攝、剪輯與分發(fā)等環(huán)節(jié)。不同垂直領(lǐng)域有不同特征:教育領(lǐng)域高度重視準確性與專業(yè)性,常需引入人工審核機制;娛樂領(lǐng)域追求創(chuàng)意與沉浸感,但也容易陷入同質(zhì)化;新聞領(lǐng)域則需在時效性之外應(yīng)對AI可能帶來的深度偽造與真實性質(zhì)疑[1][2]。
2.3 AI在內(nèi)容創(chuàng)作中的應(yīng)用現(xiàn)狀
AI在內(nèi)容創(chuàng)作中已實現(xiàn)多模態(tài)應(yīng)用。ChatGPT等工具可生成文本初稿,但邏輯性仍顯不足;DALL-E等模型能夠生成高質(zhì)量靜態(tài)圖像;Sora等文生視頻模型實現(xiàn)了高保真、連貫視頻的生成突破;智能剪輯工具可自動完成鏡頭拼接,大幅提升制作效率[1][4]。
2.4 AI在短視頻中的應(yīng)用與探索
AI已滲透至短視頻創(chuàng)作各個環(huán)節(jié)。相關(guān)創(chuàng)新實踐不斷涌現(xiàn)。目前研究說明,智能剪輯工具(如剪映)有效提升了視頻產(chǎn)能。
2.5 人機協(xié)同效能與接受度研究現(xiàn)狀
既有研究多從效率、創(chuàng)新性與傳播數(shù)據(jù)等方面評估效能。用戶接受度呈現(xiàn)較強領(lǐng)域依賴,例如娛樂用戶對AI生成腳本接受度較高,而教育用戶則出于對錯誤的擔憂持更加謹慎的態(tài)度。更值得關(guān)注的是,多數(shù)用戶難以辨別AI生成內(nèi)容,易引發(fā)信任危機,AI二創(chuàng)侵權(quán)率居高不下也折射出版權(quán)困境[1]。
3 研究設(shè)計與方法
3.1 研究設(shè)計與實驗過程
為系統(tǒng)分析不同垂直領(lǐng)域中人機協(xié)同的效能差異,本研究選取新聞資訊、生活Vlog和科學小知識三類典型領(lǐng)域,依據(jù)其內(nèi)容特性設(shè)計差異化協(xié)同流程?;咀裱癆I生成→人工優(yōu)化→AI執(zhí)行→人工精修”的協(xié)作范式,但在具體環(huán)節(jié)中人與AI的參與程度和角色配置有所區(qū)別,以體現(xiàn)領(lǐng)域適應(yīng)性。
本研究選用剪映作為核心實驗平臺,該工具在國內(nèi)用戶覆蓋廣泛、功能集成度高,具有較強的實踐代表性和可操作性。在腳本生成環(huán)節(jié),主要依托剪映內(nèi)置“AI文案”功能。
視頻生成與剪輯全程在剪映中完成:針對新聞及知識類視頻,采用“圖文成片”功能,輸入審定文案后由AI自動匹配素材、生成視頻序列并合成配音;針對生活Vlog類內(nèi)容,則通過“一鍵成片”或“自由剪輯”功能,依據(jù)素材自動推薦剪輯模板并生成字幕與配音。此外,所有視頻統(tǒng)一使用剪映的“AI配音”與“智能字幕”功能進行后期標準化處理。通過上述設(shè)計,本研究在統(tǒng)一平臺下實現(xiàn)多領(lǐng)域人機協(xié)同路徑設(shè)計。
3.2 用戶接受度調(diào)研設(shè)計與實施
3.2.1 調(diào)研目標與對象
調(diào)研對象明確分為短視頻觀眾與創(chuàng)作者兩類群體:對觀眾群體,重點在于了解其內(nèi)容消費偏好、對AI生成內(nèi)容的辨識能力、接受意愿及主要顧慮;對創(chuàng)作者群體,則重點關(guān)注其在實際創(chuàng)作流程中應(yīng)用AI工具的具體行為、效能評價與實際挑戰(zhàn)。
3.2.2 問卷設(shè)計
問卷圍繞核心變量系統(tǒng)展開:首先通過多選題精細測量用戶在資訊、知識、生活、娛樂等六大類內(nèi)容中的偏好,進而根據(jù)用戶選擇的領(lǐng)域,采用量表評估其對AI參與腳本生成、自動剪輯、配音字幕等環(huán)節(jié)的通用接受度,并依托內(nèi)容偏好選項動態(tài)生成領(lǐng)域態(tài)度題項,有效捕捉不同垂直場景中的用戶心理差異。針對創(chuàng)作者群體,進一步追加使用行為頻率、效能感知、風險擔憂及未來期望等多維題目。
4 人機協(xié)同實踐與效能分析
4.1 多領(lǐng)域創(chuàng)作實踐過程
本研究選擇新聞資訊、生活Vlog與科學小知識三個領(lǐng)域開展實踐。
表 1:各領(lǐng)域 AI 與人工負責部分對比表
4.2 效能評估結(jié)果
AI的介入顯著縮短了視頻生產(chǎn)周期。新聞類視頻因AI智能匹配素材,效率提升最為明顯;生活Vlog類中AI自動剪輯大幅降低啟動門檻與剪輯時間;科學類全流程生產(chǎn)因需大量專業(yè)知識校對,效率提升有限。表明AI在標準化環(huán)節(jié)具有顯著效率優(yōu)勢。
AI在腳本生成、素材匹配和剪輯包裝中表現(xiàn)良好,尤其在結(jié)構(gòu)化文本生成、視覺關(guān)聯(lián)和節(jié)奏控制方面達到可用水平。然而其局限性同樣顯著:在新聞領(lǐng)域有素材誤配和語境理解偏差,其中最明顯的問題為素材庫中的素材含有大量外國人素材以及外語素材,在政策類新聞中不恰當,需要人為手動調(diào)整;在科學領(lǐng)域存在知識表述不嚴謹或案例不當?shù)葐栴};在生活領(lǐng)域,其腳本文案撰寫局限于圖片描述,缺少亮點與創(chuàng)新點,難以實現(xiàn)真正的情感共鳴??破疹I(lǐng)域,AI容易陷入科學性與趣味性的矛盾,需要根據(jù)創(chuàng)作者的創(chuàng)作目標進行取舍。
人工介入主要集中在審核、創(chuàng)意提升和風格化環(huán)節(jié)。新聞類干預(yù)最少但最關(guān)鍵,即事實核查;生活類干預(yù)程度最深,涉及創(chuàng)意與風格調(diào)整;科學類需深度介入專業(yè)審核。
4.3 領(lǐng)域效能差異與原因
不同領(lǐng)域的應(yīng)用效能差異顯著。新聞資訊類在效率與質(zhì)量間實現(xiàn)較好平衡;生活Vlog類創(chuàng)新性表現(xiàn)優(yōu)異但人工成本較高;科學知識類面臨專業(yè)準確性挑戰(zhàn)。這些差異源于領(lǐng)域內(nèi)容特性:新聞注重視覺效率與事實準確,與AI優(yōu)勢匹配度高;生活Vlog強調(diào)個性與情感表達,需更多人工投入;科學知識依賴深度理解與準確表述,為當前AI技術(shù)薄弱環(huán)節(jié)。結(jié)果表明,需依據(jù)領(lǐng)域特點設(shè)計差異化協(xié)作模式,在AI能力與人類專業(yè)判斷之間尋求平衡。
5 用戶感知與接受度分析
5.1 問卷樣本描述
本研究共收集有效問卷150份,其中男性76人(50.67%),女性74人(49.33%),性別分布基本均衡。年齡方面,18~24歲群體占比最高(46%),樣本以年輕用戶為主。在觀看時長上,超過半數(shù)用戶(63.33%)每天觀看短視頻超過1小時,其中1~2小時占35.33%,2小時以上占28%,用戶對短視頻具有較高的使用黏性。創(chuàng)作者樣本共64人,主要為兼職個人博主(78.13%),全職博主、企業(yè)品牌運營人員和MCN簽約創(chuàng)作者分別占10.94%、9.38%和1.56%。創(chuàng)作者中最常涉足的領(lǐng)域是生活分享類(56.25%)和娛樂類(37.5%),而實用建議類(6.25%)和其他領(lǐng)域(1.56%)占比較低。
5.2 用戶感知體驗
在開放建議中,用戶頻繁提及“需要標注AI生成內(nèi)容”“希望平臺明確識別AI視頻”等訴求,進一步表明用戶對AI內(nèi)容的感知意識正在增強,且期望通過透明化機制來輔助辨識,以維護自身的知情權(quán)和選擇權(quán)。
5.3 用戶接受度
5.3.1 對AI參與環(huán)節(jié)的接受程度
從整體看,用戶對AI參與不同創(chuàng)作環(huán)節(jié)的接受程度呈現(xiàn)顯著差異。接受度最高的環(huán)節(jié)為AI配字幕/配音(平均分3.94)和自動剪輯視頻片段(平均分3.95),這表明用戶對AI執(zhí)行技術(shù)性、重復(fù)性工作的認可度較高。生成視頻文案/腳本的接受度略低(平均分3.82),反映用戶對內(nèi)容核心創(chuàng)作環(huán)節(jié)仍持謹慎態(tài)度。而生成AI虛擬人出鏡/AI口播的接受度最低(平均分3.6),說明用戶對完全替代真人出鏡的AI表現(xiàn)形式存在明顯的心理距離和接受壁壘。
5.3.2不同領(lǐng)域接受度差異
圖 1 不同領(lǐng)域接受度差異
在短視頻方面,對于AI的接受度存在顯著的領(lǐng)域差異性。知識類(平均分3.59)和資訊類(平均分3.49)領(lǐng)域的接受度相對較高,特別是在AI配字幕/配音(知識類3.9分)和自動剪輯(資訊類3.7分)環(huán)節(jié),說明用戶在這些注重信息效率和規(guī)范性的領(lǐng)域?qū)I技術(shù)持更開放態(tài)度。相反,在生活分享類(平均分3.36)、生活教程類(平均分3.31)和娛樂類(平均分3.34)等注重個人體驗和情感表達的領(lǐng)域,用戶接受度普遍較低,尤其是對AI生成文案和虛擬人出鏡等核心創(chuàng)意環(huán)節(jié)抵觸明顯。實用建議類(平均分3.23)的接受度最低,尤其在生成文案環(huán)節(jié)(平均分3.11),表明用戶對AI生成專業(yè)建議的信任度較低。
部分用戶提到,娛樂類和解壓ASMR的短視頻中,有部分很優(yōu)秀的完全由AI生成的作品,例如AI生成明星歌聲或?qū)υ?,AI生成切割食物的解壓聲音等,是新穎的創(chuàng)作形式,此類視頻雖然AI參與度高,但用戶接納程度甚至高于虛擬主播,此類案例背后反映出AI的技術(shù)優(yōu)勢與人工創(chuàng)意相配合的優(yōu)勢。
5.3.3 信任度與情感連接分析
用戶對AI內(nèi)容的信任度與情感連接呈現(xiàn)復(fù)雜態(tài)勢。雖然技術(shù)在效率提升方面獲得認可,但在信任構(gòu)建上仍面臨挑戰(zhàn)。在實用建議類領(lǐng)域,AI生成文案的低接受度(3.11分)反映出用戶對AI專業(yè)性的信任不足;在生活分享類領(lǐng)域,AI虛擬人出鏡的低接受度(3.22分)體現(xiàn)了用戶對AI情感表達能力的質(zhì)疑。
開放建議中用戶提到“AI內(nèi)容缺乏溫度”“沒有靈魂”等評價,進一步證實了AI在建立情感連接方面的劣勢。
5.4 用戶擔憂與期望
用戶對AI工具的擔憂主要集中在三個方面:版權(quán)風險(平均擔憂度3.55)、專業(yè)性錯誤(平均擔憂度3.39)和內(nèi)容同質(zhì)化(平均擔憂度3.22)。這些擔憂在不同領(lǐng)域有所側(cè)重,如在知識類和實用建議類領(lǐng)域,專業(yè)性錯誤成為主要顧慮;在娛樂和生活分享類領(lǐng)域,內(nèi)容同質(zhì)化更受關(guān)注。相應(yīng)地,用戶對人機協(xié)作效率低下(平均擔憂度2.59)和工具操作復(fù)雜難上手(平均擔憂度2.48)的擔憂程度較低,表明當前AI工具在可用性和效率提升方面已得到一定認可。
對于AI工具的改進期望,用戶最強烈的需求集中在提升內(nèi)容創(chuàng)意多樣性(73.44%)、優(yōu)化人機交互流暢度(73.44%)和加強垂直領(lǐng)域?qū)I(yè)知識庫(70.31%)三個方面。這反映出用戶不僅希望AI工具在技術(shù)上更加成熟,更期待其能夠理解特定領(lǐng)域的深度需求,提供更加智能化和人性化的協(xié)作體驗。此外,提供版權(quán)合規(guī)素材(64.06%)和深度適配領(lǐng)域工作流(53.13%)也是用戶的重要期望,這表明版權(quán)問題和領(lǐng)域適用性已成為制約AI應(yīng)用的關(guān)鍵因素。
5.5 創(chuàng)作者使用體驗與態(tài)度
創(chuàng)作者更頻繁使用AI基礎(chǔ)功能(如生成字幕、配音),較少用于創(chuàng)意生成(如選題、腳本)。普遍認同AI對生產(chǎn)效率的提升作用(4.09),但對內(nèi)容創(chuàng)新性(3.56)和傳播效果(3.53)的提升感知有限。多數(shù)創(chuàng)作者愿繼續(xù)探索人機協(xié)同應(yīng)用,少數(shù)表示將回歸人工主導。
數(shù)據(jù)表明,有創(chuàng)作經(jīng)歷的用戶對于AI在短視頻中的具體應(yīng)用環(huán)節(jié)有更深刻的認識。有創(chuàng)作經(jīng)歷的用戶對于AI的接受度整體高于沒有創(chuàng)作經(jīng)歷的用戶, 在視頻粗剪、字幕生成等方面接受度明顯高于沒有創(chuàng)作經(jīng)歷的用戶,表明創(chuàng)作者對于具體AI的優(yōu)勢有認知。但在腳本設(shè)計方面,有創(chuàng)作經(jīng)歷的用戶選擇“完全不能接受”選項明顯增多,整體接受程度也顯著低于沒有創(chuàng)作經(jīng)歷的用戶,表明創(chuàng)作者對于短視頻中人工創(chuàng)意腳本設(shè)計更加重視。
5.6 態(tài)度與實踐關(guān)聯(lián)性
用戶和創(chuàng)作者的態(tài)度與實驗結(jié)果高度吻合。AI在技術(shù)性環(huán)節(jié)的高接受度與其在實際應(yīng)用中提升效率的表現(xiàn)一致;其在新聞和科學領(lǐng)域的技術(shù)瓶頸(如素材誤配、知識錯誤)也與用戶最大的擔憂相符;創(chuàng)作者“重技術(shù)使用、輕創(chuàng)意依賴”的行為模式印證了當前人機協(xié)同中“AI執(zhí)行、人類決策”的有效分工。
6討論與優(yōu)化策略
6.1 核心問題
基于前述分析,人機協(xié)同在短視頻創(chuàng)作中面臨四大核心矛盾:技術(shù)與創(chuàng)意的矛盾,AI輸出同質(zhì)化嚴重,缺乏情感與原創(chuàng)性;人機角色模糊,版權(quán)與責任界定存在風險;質(zhì)量與效率的平衡,AI提升效率但可能犧牲專業(yè)與創(chuàng)新;用戶信任不足,因無法辨識AI內(nèi)容且擔憂其專業(yè)性。
6.2 優(yōu)化策略
優(yōu)化技術(shù)賦能:應(yīng)提升AI創(chuàng)意生成質(zhì)量,引入機制減少同質(zhì)化;增強專業(yè)領(lǐng)域理解與準確性;發(fā)展更智能的剪輯邏輯,依據(jù)情感曲線自動調(diào)整敘事節(jié)奏。
創(chuàng)新應(yīng)用模式:設(shè)計領(lǐng)域適配的人機協(xié)作流程,采用領(lǐng)域差異化策略。新聞類可采用“AI生產(chǎn)—人工審核”模式;生活類適用“人工創(chuàng)意—AI執(zhí)行”;科學類探索“AI預(yù)生成—專家審核”。發(fā)展更自然的人機共創(chuàng)交互方式。
提升用戶體驗:加強AI創(chuàng)作透明度,嚴格執(zhí)行生成內(nèi)容標識,提供生成日志可查;優(yōu)化工具交互設(shè)計,以創(chuàng)作語言替代技術(shù)參數(shù);建立內(nèi)容審核與糾錯機制,加強用戶教育,提升其辨識與理性消費AI內(nèi)容的能力。
推動生態(tài)共建:平臺應(yīng)制定AI內(nèi)容規(guī)范,建立創(chuàng)作者信用體系:對高風險領(lǐng)域(如新聞、健康、知識科普)實施強制性AI標簽與人工審核機制;(2)針對中低風險領(lǐng)域(如娛樂、生活)可推行透明度工具,如提供“AI生成比例”標識供用戶參考;(3)建立基于領(lǐng)域特性的版權(quán)追溯與責任認定指南,以應(yīng)對AI創(chuàng)作引發(fā)的版權(quán)糾紛。工具開發(fā)者需深耕垂直領(lǐng)域,提供開放接口,提供適配多應(yīng)用場景的素材等。創(chuàng)作者應(yīng)轉(zhuǎn)變角色,重點提升策劃、審美和協(xié)作能力,適應(yīng)人機協(xié)同新環(huán)境。
7 結(jié)論與展望
7.1 主要結(jié)論
本研究主要發(fā)現(xiàn):人機協(xié)同已成為短視頻創(chuàng)作的重要模式,其在技術(shù)性環(huán)節(jié)普及度高、效能提升顯著,但在創(chuàng)意與專業(yè)方面仍存局限。效能表現(xiàn)具有明顯領(lǐng)域差異,新聞類效果最優(yōu),生活與科學類分別面臨創(chuàng)新性挑戰(zhàn)與專業(yè)性質(zhì)疑。用戶對技術(shù)環(huán)節(jié)接受度高,對創(chuàng)意與專業(yè)環(huán)節(jié)持謹慎態(tài)度,普遍擔憂版權(quán)、錯誤與同質(zhì)化問題。
7.2 研究貢獻
本研究通過多領(lǐng)域?qū)Ρ葘嶒炁c大規(guī)模調(diào)研,揭示了人機協(xié)同的領(lǐng)域依賴性特征,第一,為創(chuàng)作者選擇協(xié)作模式提供了決策依據(jù)。研究通過量化數(shù)據(jù)揭示,不同內(nèi)容領(lǐng)域適配不同的人機協(xié)同模式。幫助創(chuàng)作者根據(jù)自身領(lǐng)域特性,理性選擇最優(yōu)協(xié)作策略,而非盲目追求全自動化。第二,為開發(fā)者優(yōu)化工具功能提供了方向指引。研究發(fā)現(xiàn)當前AI工具在不同領(lǐng)域的效能存在顯著差異:知識類內(nèi)容生成中存在事實錯誤率高、專業(yè)度不足的痛點,而娛樂類工具則同質(zhì)化現(xiàn)象嚴重。這些具體問題為開發(fā)者提供了明確的優(yōu)化靶點,例如針對創(chuàng)意類場景,應(yīng)強化創(chuàng)意生成能力,提供更多版本的創(chuàng)意類型;需全面提升工具的透明性與可控性,如增加AI貢獻度調(diào)節(jié)從而把控AI 參與度。第三,為平臺制定治理規(guī)范提供了數(shù)據(jù)支撐。實證結(jié)果表明,平臺需盡快建立差異化的AI內(nèi)容治理體系。
7.3 局限與展望
本研究存在一定局限,如實驗樣本量有限、工具平臺單一、領(lǐng)域覆蓋不全、創(chuàng)作者樣本中專業(yè)人士比例較低等。
未來研究方面,可長期跟蹤用戶接受度變化,探索更復(fù)雜的人機協(xié)作模式,并關(guān)注AI短視頻的版權(quán)、倫理及跨模態(tài)應(yīng)用等深層議題。
作者信息
張躍然 首都師范大學外國語學院
參考文獻
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.