← AI 動態 The Decoder

Luma AI 推出 Uni-1 影像模型:融合理解與生成,邏輯表現超越 Google 與 GPT

Luma AI 發表全新 Uni-1 模型,首創將影像理解與生成整合於單一自迴歸架構,具備強大邏輯推理能力,能精準拆解並執行複雜的構圖指令。

Luma AI 圖像生成 多模態模型
Luma AI 推出 Uni-1 影像模型:融合理解與生成,邏輯表現超越 Google 與 GPT

Luma AI 推出的 Uni-1 標誌著影像生成技術的重要轉向。與傳統「擴散模型」從噪點中提取影像不同,Uni-1 採用與大型語言模型相似的「自迴歸 Transformer」架構,將文字與影像視為相同的序列資料處理。這使得模型在創作過程中能像人類一樣思考,在下筆前先進行場景規劃。

這種技術突破解決了 AI 繪圖長期以來的「不合邏輯」問題。Uni-1 能夠處理極其複雜的指令,並在邏輯基準測試中超越了 Google 的 Nano Banana 2 與 GPT Image 1.5。對創作者而言,這代表 AI 將能更精準地理解物理空間關係與物件互動,大幅降低反覆調整 Prompt 的溝通成本,讓生成式影像工具更具實用性。