空間智能版ImageNet來了!李飛飛吳佳俊團隊出品

空間智能版ImageNet來了,來自斯坦福李飛飛吳佳俊團隊!

通過與現有模型對比,揭示當前模型在長視頻理解上與人類水平的差距。

2009年,李飛飛團隊在CVPR上首次對外展示了圖像識別數據集ImageNet,它的出現極大推動計算機視覺算法的發展——懂CV的都是知道這裡面的門道有多深。

現在,隨着多模態迅猛發展,團隊認爲“現有的視頻基準測試,大多集中在特定領域或短視頻上”,並且“這些數據集的平均視頻長度較短,限制了對長視頻理解能力的全面評估”。

於是,空間智能版ImageNet應運而生。

HourVideo包含500個來自Ego4D數據集的第一人稱視角視頻,時長在20到120分鐘之間,涉及77種日常活動。

評測結果表示,人類專家水平顯著優於目前長上下文多模態模型中最厲害的Gemini Pro 1.5(85.0%對37.3%)。

在多模態能力上,大模型們還任重而道遠。

之所以提出HourVideo,是因爲研究人員發現目前長視頻理解越來越重要,而現有評估benchmark存在不足。

多模態越來越卷,人們期待AI被賦予autonomous agents的類似能力;而從人類角度來看,由於人類具備處理長時間視覺處理的能力,因此能在現實視覺中感知、計劃和行動。

因此,長視頻理解對實現這一目標至關重要。

而當前的多模態評估benchmark,主要還是集中在評測單張圖像或短視頻片段(幾秒到三分鐘),對長視頻理解的探索還有待開發。

不可否認的是,AI評估長視頻理解面臨諸多挑戰,譬如要設計任務、避免通過先驗知識或簡短片斷回答等。

因此,團隊提出HourVideo。

這是一個爲長視頻理解而設計的基準數據集。

爲了設計出需要長期理解的任務,團隊首先提出了一個新的任務對應套件,包含總結、感知(回憶、跟蹤)、視覺推理(空間、時間、預測、因果、反事實)和導航(房間到房間、對象檢索)任務,共18個子任務。

其中,總結任務要求模型對視頻中的關鍵事件、主要交互等進行概括性描述,例如總結出脖子上掛了個相機的人在超市中有什麼關鍵交互行爲。

感知任務由兩部分構成,

一個是回憶任務,包括事實回憶(比如脖子上掛了個相機的人,在超市拿起的乳製品)和序列回憶(比如那個人在超市稱完西紅柿過後做了什麼),以及對時間距離的判斷(比如吃了多久的披薩才扔掉盒子)。

還有一個是跟蹤任務,主要用來識別脖子上掛了個相機的人在特定場景(比如超市、藥店)中互動的獨特個體。

接下來是視覺推理任務,分爲空間推理和時間推理。

空間推理負責判斷物體之間的空間關係、空間接近度(如微波爐與冰箱或水槽相比是否更近)以及空間佈局(如選擇正確描繪脖子上掛相機的人的公寓的佈局圖)。

時間推理則包括對活動持續時間的比較、事件發生頻率的判斷、活動的先決條件、預測(如洗完衣服後最可能做的活動)、因果關係(如第二次離開車庫的原因)以及反事實推理(如用烤箱做土豆泥會怎樣)。

導航任務包含了房間到房間的導航、對象檢索導航。

以上每個任務有精心設計的問題原型,以確保正確回答問題需要對長視頻中的多個時間片段進行信息識別和綜合,從而有效測試模型的長期理解能力。

與此同時,研究人員通過pipeline來生成了HourVideo數據集。

第一步,視頻篩選。

團隊從Ego4D數據集中手動審覈1470個20到120分鐘的視頻,讓5位人類專家選擇了其中500個視頻,

至於爲啥要從Ego4D中選呢,一來是其以自我爲中心的視角與autonomous agents和助手的典型視覺輸入非常一致;二來是它具有廣泛的視覺敘述,有助於創建多樣化的題;三來Ego4D的訪問許可非常友好。

第二步,候選MCQ生成。

這需要在長視頻中跨多個時間片段,進行信息分析和合成。

具體來說,研究人員以20分鐘爲間隔分割了視頻,提取信息轉化爲結構化格式供大模型處理。最終一共開發了25個特定任務的prompts。

第三步,LLM優化與人工反饋。

在這個階段,團隊實現了一個人工反饋系統,7名經驗豐富的人員人工評估每個問題的有效性、答案准確性、錯誤選項合理性。最終收集了400多個小時的人工反饋,然後設計prompt,自動優化 MCQ₂得到 MCQ₃。

第四步,盲選。

這一階段的目標是消除可以通過大模型先驗知識的問題,或者消除那些可以在不用視頻中任何信息就可以回答的問題。

團隊用兩個獨立的大模型——GPT-4-turbo和GPT-4,對MCQ₃進行盲篩,確保剩餘 MCQ₄高質量且專門測試長視頻語言理解。

第五步也是最後一步,專家優化。

這一步是用來提升MCQ₄質量,將寬泛問題精確化,經此階段得到高質量 MCQ₅。

4個專家乾的事be like,把 “掛着相機的人把鑰匙放在哪裡了?” 精確成“掛着相機的人購物回家後,把自行車鑰匙放在哪裡了?”

如上pipeline中,研究圖納隊使用了GPT-4來遵循複雜的多步驟指令,同時還使用了CoT提示策略。

此外,pipeline中涉及大模型的所有階段的問題被設爲0.1。

據統計,HourVideo涵蓋77種日常生活場景,包含500個Ego4D視頻,視頻時長共381個小時、平均時長45.7分鐘,其中113個視頻時長超過1小時。

每個視頻有約26個高質量五選一題,共計12976個問題。

除因果、反事實和導航任務外,問題在任務套件中均勻分佈。

在實驗評估方面,HourVideo採用五選多任務問答(MCQ)任務,以準確率作爲評估指標,分別報告每個任務以及整個數據集的準確率。

由於防止信息泄露是評估長視頻中的MCQ時的一個重要挑戰——理想情況下,每個MCQ應獨立評估,但這種方法計算成本巨高,且十分耗時。

因此,實際評估中按任務或子任務對問題進行分批評估,對於預測任務,提供精確的時間戳以便對視頻進行有針對性的剪輯,從而平衡計算成本和評估準確性。

研究團隊比較了不同的多模態模型在零鏡頭設置下理解長視頻的性能。

主要評估了三類模型,所有這些模型都在一個通用函數下運行:

盲LLM:

指是指在評估過程中,不考慮視頻內容,僅依靠自身預先訓練的知識來回答問題的大型語言模型。

實驗中以GPT-4爲代表。它的存在可以揭示模型在多大程度上依賴於其預訓練知識,而不是對視頻中實際視覺信息的理解。

蘇格拉底模型:

對於大多數當前的多模態模型,直接處理非常長的視頻存在困難。

因此,採用Socratic模型方法,將視頻(總時長爲t分鐘)分割成1分鐘的間隔,每個間隔獨立加字幕,然後將這些字幕聚合形成一個全面的基於語言的視頻表示,並與通用任務無關的提示一起作爲輸入進行長視頻問答。

實驗中分別使用GPT-4和LLaVA- NEXT-34-DPO 爲視頻字幕生成器,並最終使用GPT-4進行實際問題回答。

原生多模態模型:

像Gemini 1.5 Pro這樣的原生多模態模型,在多模態數據(包括音頻、視頻、圖像和文本)上聯合訓練,能夠處理非常長的上下文長度*((2M +),適合直接對HourVideo進行端到端評估。

爲了與模型性能進行對比,實驗人員從基準數據集中選取了14個視頻,涵蓋>18種場景,包括手工製作/繪畫、烹飪、建築/裝修、園藝、清潔/洗衣和庭院工作等。

然後邀請了3位人類專家,對上述總時長11.2小時的視頻內容進行進行評估,共涉及213個MCQ。

爲確保評估的公正性,參與評估的人類專家未參與過這些視頻的早期註釋工作。

最終,人類專家在評估中的準確率達到了85.0% 。

而盲LLM的準確率爲19.6%,Socratic模型準確率略高,原生多模態模型準確率最高,達到了37.3%,仍然遠低於人類專家水平。

此外,獨立評估每個MCQ與按任務級別評估相比,性能下降2.1%,但成本增加3倍以上,證明了任務級評估方法的效率和有效性。

最後,團隊表示未來計劃擴展基準測試,包括更多樣化的視頻來源(如體育和YouTube視頻),納入音頻模態支持,並探索其他感官模態。

同時強調在開發模型時需考慮隱私、倫理等問題。

HourVideo項目來自斯坦福李飛飛和吳佳俊團隊。

論文共同一作是Keshigeyan Chandrasegaran和Agrim Gupta。

Keshigeyan Chandrasegaran是斯坦福大學計算機科學博士二年級學生,從事計算機視覺和機器學習研究,導師是李飛飛和斯坦福視覺與學習實驗室(SVL)聯合主任胡安·卡洛斯·尼貝萊斯。

共同一作Agrim Gupta是斯坦福大學計算機科學專業的博士生,2019年秋季入學,同樣是李飛飛的學生。

此前,他曾在微軟、DeepMind,有Meta的全職經歷,也在Google做過兼職。2018年時,他就跟隨李飛飛一同在CVPR上發表了論文。

目前,Agrim的Google Scholar論文被引用量接近6400次。

李飛飛是大家熟悉的AI教母,AI領域內最具影響力的女性和華人之一。

她33歲成爲斯坦福計算機系終身教授,44歲成爲美國國家工程院院士,現任斯坦福以人爲本人工智能研究院(HAI)院長。

計算機視覺領域標杆成果ImageNet亦是由她一手推動。

此前,李飛飛也曾短暫進入工業界,出任谷歌副總裁即谷歌雲AI首席科學家。她一手推動了谷歌AI中國中心正式成立,這是Google在亞洲設立的第一個AI研究中心。並帶領谷歌雲推出了一系列有影響力的產品,包括AutoML、Contact Center AI、Dialogflow Enterprise等。

今年,李飛飛宣佈創辦空間智能公司World Labs,公司成立不到4個月時間,估值突破10億美元。

所謂空間智能,即“視覺化爲洞察;看見成爲理解;理解導致行動”。

吳佳俊,現任斯坦福大學助理教授,隸屬於斯坦福視覺與學習實驗室(SVL)和斯坦福人工智能實驗室(SAIL)。

他在麻省理工學院完成博士學位,本科畢業於清華大學姚班,曾被譽爲“清華十大學神”之一。

同時,他也是李飛飛創業公司World Labs的顧問。

參考鏈接:[1]https://arxiv.org/abs/2411.04998v1[2]https://www.worldlabs.ai/team[3]https://keshik6.github.io/