AI 前沿 2026 年 5 月 14 日

2026-05-14 — Claude for Small Business、SenseNova-U1 NEO-unify、LEAP dLLM 加速

primary=https://www.anthropic.com/news/claude-for-small-business primary=https://arxiv.org/abs/2605.12500 primary=https://arxiv.org/abs/2605.10980

Claude for Small Business:15 個跨工具代理工作流,用戶審核後才執行

Anthropic · 2026-05-13

Anthropic 於 2026-05-13 推出 Claude for Small Business,是一組針對中小企業日常作業預建的代理工作流集合,透過整合層把 Claude 接進企業既有的 SaaS 工具,並要求每個動作須經使用者核准後才執行。

整合架構

平台以 Claude Cowork 為樞紐,向外對接 QuickBooks、PayPal、HubSpot、Canva、DocuSign,以及 Google Workspace 與 Microsoft 365。整合機制採「toggle install」設計,不需要客戶自行管理 API 憑證或 OAuth 流程;權限繼承自對應 SaaS 的角色設定——若某員工在 QuickBooks 看不到特定資料,透過 Claude 也無法存取。

工作流範圍

15 個工作流分布在財務、業務、行銷與人資四大領域,代表性案例包括:月底對帳自動化(QuickBooks)、應收帳款追蹤(PayPal)、銷售線索分類(HubSpot)、行銷活動執行(Canva)、合約審核(DocuSign)。每個流程都有一個「核准點」——Claude 在執行前向用戶呈現計畫,用戶確認後才觸發實際 API 呼叫,或可授權讓特定工作流端到端自動執行。

與 Claude Teams 的差異

Claude Teams 提供通用對話介面,Claude for Small Business 則是預建的領域特定代理,主要差別在於「工作流的固定化」:使用者不需自行設計提示或連接工具,直接使用已測試過的流程;另外預建工作流內建對應 SaaS 的資料格式處理,減少手動資料轉換。目前定價細節未在公告中揭露,需透過現有 Claude 訂閱方案取得存取權。


SenseNova-U1:NEO-unify 架構統一多模態理解與生成

arXiv:2605.12500 · 2026-05-13

SenseTime 研究院發表 SenseNova-U1,以自研的 NEO-unify(Native End-to-end Omnipresent unify)架構,在單一模型框架內同時處理視覺語言理解與圖像生成,避免現有系統常見的「級聯 pipeline」與「表示空間不對齊」問題。論文於 HuggingFace Papers 獲得 1640 個 upvote,是當日最受關注的投稿之一。

架構設計

NEO-unify 的核心理念是將理解(understanding)與生成(generation)視為同一底層過程的兩種「觀察視角」,而非獨立子系統。論文釋出兩個變體:SenseNova-U1-8B-MoT(8B 稠密參數)和 SenseNova-U1-A3B-MoT(30B 總參數、3B 激活參數的混合專家架構)。「MoT」後綴暗示採用 Mixture-of-Tokens 或類似稀疏路由機制以在推理效率與容量之間取得平衡。

能力範圍

論文涵蓋的任務橫跨視覺語言感知、知識推理、空間智能、圖像合成、文字豐富的資訊圖生成,以及視覺語言動作(VLA)與世界模型場景。從第一原則設計的統一架構使同一套參數可在無需切換模型的情況下處理這些異質任務,是其相較於分離式設計的主要宣稱優勢。


LEAP:免訓練的 dLLM 平行解碼加速,去噪步驟減少 30%

arXiv:2605.10980 · 2026-05-14

連續擴散語言模型(discrete diffusion LLM,dLLM)以多步去噪取代自回歸生成,但每步的信心閾值設計過於保守——LEAP(Lookahead Early-Convergence Prediction)透過「前瞻早收斂 token 偵測」,在不調整模型權重的情況下,平均減少約 30% 的去噪迭代次數。

核心機制

LEAP 的統計分析顯示:在標準去噪流程中,大量 token 在遠未達到信心閾值之前便已收斂到正確預測值。這意味著傳統的閾值停止條件讓模型做了不必要的額外去噪工作。LEAP 以「未來上下文過濾(future context filtering)」與「多序列疊加(multi-sequence superposition)」偵測這些早收斂的 token,並提前鎖定其值,讓後續步驟只繼續處理真正尚未收斂的位置。

實驗結果

在 GSM8K 數學推理任務上,LEAP 與 dParallel 結合後達到每步 7.2 個 token 的平行解碼速度,同時保留模型精度。相對於僅以信心閾值控制的基線,去噪步驟平均減少 30%。LEAP 為訓練無關(training-free)的即插即用方法,可應用於任何採用信心閾值停止機制的 dLLM,無需重新訓練或修改模型架構。


End of article
0
Would love your thoughts, please comment.x
()
x