一張圖生成游戲?谷歌Genie體驗:萬物皆可玩,但離“殺死游戲公司”還遠
一張圖生成游戲,真的假的? 在開始之前,我想先問大家一個簡單的問題: 你們還在苦苦等待《GTA 6》的發售嗎? 我是不清楚大家的想法啦,但小雷真的非常期待它的到來。要知道《GTA 5》發布至今已經過去
視頻理解大模型覺醒!Video-o3發布:像偵探一樣主動搜尋關鍵幀,登頂Video-Holmes!
作者:Xiangyu Zeng等 解讀:AI生成未來 亮點直擊 Video-o3,一個創新的框架,它通過迭代地發現顯著的視覺線索、對關鍵片段進行細致檢查以及在收集到足夠證據時自適應終止搜索過程,解決了
Google“AI奧運會”:用游戲基準測試模型真實能力
AI新產品每天接連發布,測試基準和平臺也是層出不窮。 不過,你是否想過,游戲也能用來測試AI? 2026年2月初,Google和Kaggle一起想出了一個新點子:在Kaggle的Game Arena上
擴散模型迎來“終極簡化”!何愷明團隊新作:像素級一步生成,速度質量雙巔峰
作者:Yiyang Lu等 解讀:AI生成未來 亮點直擊 Pixel MeanFlow (pMF)?,這是一種針對一步生成(one-step generation)的創新圖像生成模型。pMF 的核心突
擴散模型對齊迎來“最強解”!HyperAlign屠榜評測:超網絡動態適配,畫質、語義雙巔峰
作者:Xin Xie等 解讀:AI生成未來 亮點直擊 HyperAlign,一種通過超網絡自適應調整去噪操作的框架,能夠高效且有效地實現擴散模型的測試時對齊,確保生成的圖像更好地反映用戶意圖的文本語義
一統視覺江湖!OpenVision 3發布:一個編碼器實現理解與生成完美統一,性能雙殺CLIP
作者:Letian Zhang等 解讀:AI生成未來 亮點直擊 統一架構:OpenVision 3是一種先進的視覺編碼器,能夠學習單一、統一的視覺表示,同時服務于圖像理解和圖像生成任務。 簡潔設計:核
告別時空崩壞,生成式游戲迎來“穩態”時刻!南大等StableWorld:打造無限續航虛擬世界
作者:Ying Yang等 解讀:AI生成未來 亮點直擊 識別了長時交互式世界建模中不穩定性的根本原因:同一場景內的微小漂移會不斷累積,最終導致整體場景崩潰。 一種簡單而有效的方法?StableWor
角色動畫最新SOTA!港大&螞蟻等CoDance:解綁-重綁實現任意數量、位置角色同屏起舞
作者:Shuai Tan等 解讀:AI生成未來 圖1。由CoDance生成的多主體動畫。給定一個(可能錯位的)驅動姿勢序列和一張多主體參考圖像,CoDance生成協調且可姿勢控制的群舞,無需每個主體的
視頻生成效率革命!英偉達TMD蒸餾框架:Wan2.1模型實時化,速度和質量最佳均衡!
作者:Weili Nie等 解讀:AI生成未來 亮點直擊 一種新穎的視頻擴散蒸餾框架:?轉移匹配蒸餾(TMD),它將長去噪軌跡蒸餾成緊湊的少步概率轉移過程。 解耦的擴散主干設計:?將教師模型分解為語義
Qwen3-VL-Flash提升13.62%!浙大等首創CoV:多步推理具身問答Agent,通用提點神器
作者:CoV團隊 解讀:AI生成未來 亮點直擊 CoV 框架:首創“視鏈提示”(Chain-of-View, CoV),一個免訓練、測試時(test-time)的具身問答智能體框架。 主動視覺推理:將
自回歸最新SOTA!百度VideoAR:首個視頻VAR框架,推理步數減少10倍,比肩擴散模型
作者:Longbin Ji等 解讀:AI生成未來 圖1 VideoAR通過文本提示生成高保真且時間一致的視頻 亮點直擊 首個視頻 VAR 框架:?VideoAR,首個將視覺自回歸建模應用于視頻生成的大
國產多模態搜索史詩級突破!Qwen3-VL登頂MMEB:支持30+語言,一套模型搞定圖文視頻
作者:Mingxin Li等 解讀:AI生成未來 亮點直擊 推出了基于 Qwen3-VL 基礎模型的?Qwen3-VL-Embedding?和?Qwen3-VL-Reranker?系列模型。 一套端到
硬剛谷歌Veo3!快手Klear統一多任務音視頻聯合生成:創新單塔架構,口型語音完美同步
作者:Jun Wang、Chunyu Qiang等 解讀:AI生成未來 亮點直擊 Klear 框架:提出了一個統一的音頻-視頻生成框架,能夠同時處理聯合生成(Joint Generation)和單模態
強勢斬獲6項SOTA!UniCorn打通理解與生成任督二脈,靠“內省”重構多模態認知
作者:Ruiyan Han等 解讀:AI生成未來 亮點直擊 傳導性失語癥:將統一多模態模型中“理解能力強但生成能力弱”的現象形式化為“傳導性失語癥”。 UniCorn 框架:一種無需外部數據或教師監督
一個人就是一支整編劇組!首個“統一導演”模型發布:字節UniMAGE,讓腦洞原地變大片
作者:Jiaxu Zhang等 解讀:AI生成未來 亮點直擊 概念:UniMAGE體現了“統一導演模型” 的概念,整體協調敘事邏輯和視覺構圖,將用戶意圖與多模態劇本聯系起來,實現創意音視頻生成。 技術
全棧視覺生成器殺到!上交&快手&南洋理工最新VINO:圖像視頻生成+編輯一網打盡
作者:Junyi Chen等 解讀:AI生成未來 亮點直擊 統一視覺生成框架VINO:一個將圖像/視頻生成與編輯任務統一在單一框架下的模型,無需針對特定任務設計獨立模塊。 交錯全模態上下文:通過耦合視
復刻“黑客帝國”子彈時間!SpaceTimePilot:視頻變可操控4D游戲,倒放/變速/運鏡隨你掌控
作者:Zhening Huang等 解讀:AI生成未來 亮點直擊 首次實現了聯合空間和時間控制的視頻擴散模型:?SpaceTimePilot 是首個能夠從單個單目視頻實現對動態場景進行聯合空間(攝像機
港中文&字節聯合推出DreamOmni3:解鎖“涂鴉+圖文”聯合輸入,重新定義多模態生成與編輯
作者:Bin Xia等 解讀:AI生成未來 DreamOmni3 的效果展示,具備基于涂鴉的編輯和生成功能 亮點直擊 提出了兩項對統一生成與編輯模型極具實用價值的任務:基于涂鴉的編輯和基于涂鴉的生成。
DJI Neo 2 兩個月實測:跟拍靠譜、畫質夠用,無人機“玩具化”的方向對了?
用兩個月后,我上癮了。 兩個月前,小雷拿到 DJI Neo 2 ,第一反應其實很普通:這么小一臺無人機,能有多大本事? 151g 的機身、包著槳保的“安全外殼”、機身上那塊小小的屏幕……它看起來更像一
首個亞秒啟動的14B“數字人”開源!效率飆23倍!SoulX-LiveTalk:32FPS讓對話絲滑如真人
作者:Le Shen等 解讀:AI生成未來 亮點直擊 SoulX-LiveTalk框架:?一個低延遲、實時、音頻驅動的虛擬形象框架,其核心是14B參數的DiT模型。克服大規模擴散模型在實時、無限流媒體
資訊訂閱
- 精彩回顧 《2024智能制造產業高端化、智能化、綠色化發展藍皮書》 查看回顧
- 精彩回顧 OFweek 2025(第十四屆)中國機器人產業大會 查看回顧
- 精彩回顧 Ansys Motion薄膜卷曲卷對卷工藝仿真解決方案 查看回顧
- 精彩回顧 STM32全球線上峰會 查看回顧
- 精彩回顧 2024視覺感知技術在半導體與印刷包裝創新大會 查看回顧
- 精彩回顧 全數會2024中國人形機器人技術創新發展大會 查看回顧
-
加密芯片筑牢工業設備防抄板防線2025-11-14
-
LKT4202UGM、LKT4305GM國密芯片2025-10-31
-
金融級安全加密芯片-LKT43042025-04-10
-
ATSHA204A國產全兼容芯片LCSHA2042025-02-27
-
耗材保護芯片-LKT4304解決方案2025-02-13
-
LKT4304新一代算法移植加密芯片2025-01-16

