免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

當(dāng)前位置:

OFweek 人工智能網(wǎng)

評(píng)測(cè)

媲美Nano Banana Pro!南科大階躍星辰等開(kāi)源真實(shí)世界圖像恢復(fù)之王RealRestorer

作者:Yufeng Yang, Xianfang Zeng, Zhangqi Jiang等 解讀:AI生成未來(lái) 該工作由南方科技大學(xué)、階躍星辰和中科院深圳先進(jìn)院等機(jī)構(gòu)聯(lián)合完成,并已同步發(fā)布論文、項(xiàng)目頁(yè)

谷歌Gemma 4遭破解!實(shí)測(cè):偽造支票、找盜版電影,有求必應(yīng)

能力越大,作惡越多? 就在最近幾天,谷歌發(fā)布了新一代開(kāi)源模型Gemma 4。大家都在討論新款模型的能力和變化,雷科技(ID:leitech)也第一時(shí)間做了上手實(shí)測(cè)。我們發(fā)現(xiàn),作為能塞進(jìn)手機(jī)里的小參數(shù)模

“世界模型”到底是個(gè)啥?OpenWorldLib一錘定音:感知+交互+記憶,這才叫理解世界的AI!

作者:Bohan Zeng等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 標(biāo)準(zhǔn)化定義:針對(duì)學(xué)術(shù)界對(duì)“世界模型”定義的模糊性,本文提出了一個(gè)清晰的定義:以感知為中心,具備交互和長(zhǎng)期記憶能力,用于理解和預(yù)測(cè)復(fù)雜世界的模

實(shí)測(cè)百度抓蝦吧:AI龍蝦把場(chǎng)子炒熱了,但內(nèi)容差點(diǎn)「人味」

AI熱場(chǎng)之后,貼吧還能干啥? 前幾天,百度貼吧意外地「火了」。 這次不是什么明星粉絲大戰(zhàn),也不是什么體育運(yùn)動(dòng)盛事,而是一個(gè)叫「抓蝦吧」的貼吧突然在全網(wǎng)爆火。在「抓蝦吧」里,人類(lèi)不能發(fā)帖,真正負(fù)責(zé)發(fā)言、

短劇革命!港中文&快手發(fā)布ShotStream:16幀/秒實(shí)時(shí)生成電影級(jí)多鏡頭視頻,可邊拍邊改

作者:Yawen Luo等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 ShotStream,一種新穎的因果式多鏡頭長(zhǎng)視頻生成架構(gòu),實(shí)現(xiàn)了交互式敘事和實(shí)時(shí)合成。 將多鏡頭合成重新定義為“下一鏡頭生成”任務(wù)以支持交互

復(fù)旦大學(xué) × 階躍星辰開(kāi)源最新力作PixelSmile:AI 終于實(shí)現(xiàn)人臉表情PhotoShop

作者:Jiabin Hua,Wei Cheng等 解讀:AI生成未來(lái)復(fù)旦大學(xué)與階躍星辰最新研究開(kāi)源,聚焦人臉的細(xì)粒度表情編輯,把表情編輯真正做出了 PhotoShop 編輯的感覺(jué)! 亮點(diǎn)直擊 語(yǔ)義重疊

2張顯卡即可20FPS流式生成!SoulX-LiveAct開(kāi)啟“小時(shí)級(jí)”實(shí)時(shí)數(shù)字人交互新時(shí)代

作者:Dingcheng Zhen等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 在數(shù)字人技術(shù)從“實(shí)驗(yàn)室點(diǎn)播”邁向“直播間實(shí)戰(zhàn)”的過(guò)程中,行業(yè)始終被兩大陰云籠罩:一是長(zhǎng)時(shí)生成的崩潰,視頻跑著跑著臉就“化”了;二是算

2026-03-24 15:49 評(píng)論

視覺(jué)AR逆襲!177M效果媲美675M最新SOTA擴(kuò)散模型,僅需一個(gè)“即插即用”的正則化reAR

作者:Qiyuan He等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 將生成器和分詞器之間的不一致性,即分詞器無(wú)法解碼生成的 token 序列,確定為視覺(jué)自回歸生成的瓶頸; reAR,一種即插即用的訓(xùn)練正則化方法

2026-03-19 14:10 評(píng)論

騰訊「龍蝦」QClaw體驗(yàn):AI能連微信干活了,但整體還很粗糙

騰訊把龍蝦放了出來(lái),還能回去? 3 月 18 日,騰訊終于把 QClaw(騰訊龍蝦)放了出來(lái)。 不是一場(chǎng)發(fā)布會(huì),也沒(méi)有太多預(yù)熱,只是以「邀請(qǐng)制測(cè)試」的方式,在一定范圍內(nèi)開(kāi)放體驗(yàn)。但很快,它就在 AI

2026-03-19 10:29 評(píng)論

炸裂!單卡實(shí)時(shí)生成分鐘級(jí)長(zhǎng)視頻,北大&字節(jié)聯(lián)合推出14B大模型Helios,速度碾壓1.3B

作者:Shenghai Yuan等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 長(zhǎng)視頻防漂移的魯棒性:Helios 能夠在不依賴(lài)常見(jiàn)的防漂移啟發(fā)式方法(如自強(qiáng)制、錯(cuò)誤庫(kù)或關(guān)鍵幀采樣)的情況下,生成具有強(qiáng)時(shí)間連貫性的

2026-03-17 16:31 評(píng)論

真“六邊形戰(zhàn)士”!Capybara把圖像視頻全打通:一個(gè)模型搞定T2I、T2V、I2V!

作者:Capybara 團(tuán)隊(duì) 解讀:AI生成未來(lái) 亮點(diǎn)直擊 統(tǒng)一的視覺(jué)創(chuàng)作模型 Capybara: 針對(duì)當(dāng)前視覺(jué)內(nèi)容創(chuàng)作領(lǐng)域高度碎片化(單一模態(tài)、功能割裂、接口不兼容)的問(wèn)題,本文提出了Capybar

2026-03-16 16:20 評(píng)論

大廠“龍蝦”vs開(kāi)源“澳龍”,2026 claw橫評(píng)

2026年3月,一只紅色的“龍蝦”爬上了開(kāi)源世界的王座。OpenClaw憑借27.3萬(wàn)的GitHub星標(biāo),超越了Linux——英偉達(dá)CEO黃仁勛更是將其譽(yù)為“我們這個(gè)時(shí)代最重要的軟件發(fā)布”。 它標(biāo)志著

2026-03-16 10:41 評(píng)論

4B參數(shù)干翻14B!國(guó)產(chǎn)統(tǒng)一多模態(tài)“全能戰(zhàn)士” InternVL-U開(kāi)源:理解、生成與編輯迎新高度

作者:Changyao Tian等 解讀:AI生成未來(lái) InternVL-U生成和圖像編輯效果 亮點(diǎn)直擊 InternVL-U 架構(gòu):構(gòu)建了一個(gè)僅有 4B 參數(shù)的輕量級(jí)、高效統(tǒng)一多模態(tài)模型(UMM),

2026-03-13 14:33 評(píng)論

圖像生成迎來(lái)“思考-研究-創(chuàng)造”新范式!Mind-Brush:統(tǒng)一意圖分析、多模態(tài)搜索和知識(shí)推理

作者:Jun He,Junyan Ye等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 Mind-Brush,一個(gè)新穎的智能體框架,該框架統(tǒng)一了意圖分析、多模態(tài)搜索和知識(shí)推理,以實(shí)現(xiàn)圖像生成的“思考-研究-創(chuàng)造”范式

2026-03-12 13:56 評(píng)論

Openclaw部署實(shí)錄:安裝易翻車(chē)、本地模型弱,本地「龍蝦」不適合普通人

有的錢(qián)可不是那么好省的。 這段時(shí)間,如果你關(guān)注AI圈子,一定會(huì)被一個(gè)名字給刷屏——Openclaw。 (圖源:百度) 上到GITHUB這個(gè)最大的開(kāi)源社區(qū),中到各種媒體爭(zhēng)相轉(zhuǎn)發(fā),下到各個(gè)up主甚至普通人

2026-03-10 15:58 評(píng)論

ICLR 2026 | DragFlow 讓DiT也能“指哪打哪”:基于區(qū)域監(jiān)督的拖拽式圖像編輯新SOTA

作者:Zihan Zhou,Shilin Lu等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 首個(gè)基于 Diffusion Transformer(DiT)架構(gòu)量身打造的圖像精確區(qū)域編輯框架。 研究團(tuán)隊(duì)摒棄了傳統(tǒng)的

2026-03-09 17:19 評(píng)論

CVPR 2026|“像素級(jí)對(duì)齊大師” VA-π: 25分鐘微調(diào)FID暴降50%

作者:Xinyao Liao*, Qiyuan He*, Kai Xu, Xiaoye Qu, Yicong Li, Wei Wei, Angela Yao 作者單位:華中科技大學(xué),新加坡國(guó)立大學(xué)解讀

2026-03-03 17:13 評(píng)論

CVPR 2026|“全能AI海報(bào)設(shè)計(jì)師”P(pán)osterOmni開(kāi)源: 6大任務(wù)笑傲開(kāi)源社區(qū),媲美閉源商用

作者:Sixiang Chen等 解讀:AI生成未來(lái) 很多AI 海報(bào)生成默認(rèn)從一句 prompt 出發(fā)(Text-to-Poster)。但在真實(shí)設(shè)計(jì)流程里,更常見(jiàn)的起點(diǎn)其實(shí)是一張參考圖/舊海報(bào)/產(chǎn)品主

2026-02-26 15:04 評(píng)論

NeurIPS`25 | 清華提出模型驅(qū)動(dòng)的生成式探索機(jī)制MoGE,助力強(qiáng)化學(xué)習(xí)算法突破性能上限

作者:Likun Wang等 解讀:AI生成未來(lái) 本文介紹清華大學(xué)李升波教授課題組(iDLab)在NeurIPS 2025發(fā)表的《Off-policy Reinforcement Learning w

2026-02-25 16:32 評(píng)論

顛覆性突破!何愷明團(tuán)隊(duì)重磅工作「Drifting Models」革新生成范式:一步推理直接創(chuàng)紀(jì)錄

作者:Mingyang Deng等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 全新的生成范式:提出了“漂移模型” (Drifting Models),這一范式不再依賴(lài)于推理時(shí)的迭代過(guò)程,而是將分布演化的過(guò)程轉(zhuǎn)移到

2026-02-10 16:19 評(píng)論
上一頁(yè)  1  2  3 4 5 6 7 ... 12   下一頁(yè)

資訊訂閱

粵公網(wǎng)安備 44030502002758號(hào)