AI 前沿 2026 年 5 月 6 日

2026-05-06 — Anthropic 金融 Agent 套件、Compute Optimal Tokenization、Haiku 三模態生醫模型

primary=https://www.anthropic.com/news/finance-agents primary=https://arxiv.org/abs/2605.01188 primary=https://arxiv.org/abs/2605.00925

Anthropic 發布金融服務 Agent 套件:十個專業模板搭載 Claude Opus 4.7

Anthropic · 2026-05-05

Anthropic 於 2026 年 5 月 5 日推出面向金融產業的 AI Agent 套件,以 Claude Opus 4.7 為核心,在 Vals AI 金融 Agent 基準測試(Finance Agent benchmark)上達到 64.37% 的成績,提供十個可直接部署的 Agent 模板。

架構組成

每個 Agent 模板由三個整合元件構成:

  • Skills:針對特定金融任務的領域知識與指令集,定義 Agent 在該業務場景下的行為邊界
  • Connectors:具備存取治理的外部資料來源整合,支援 Dun & Bradstreet、Fiscal AI、Financial Modeling Prep、Moody's(透過 MCP app 存取 6 億+ 實體信用評等)等 8+ 個新資料連接器
  • Subagents:處理特定子任務(如可比公司選取、方法論複審)的獨立 Claude 模型實例

部署模型

套件提供兩種不同的執行框架。Plugin 架構允許 Agent 作為插件在 Claude Cowork 或 Claude Code 環境中與分析師並行工作,適合輔助性工作流程。Managed Agents 框架則支援長時間執行的自主工作階段,具備每工具層級的權限管控、託管憑證保管(credential vault)與完整稽核日誌,適合批次作業。

金融任務涵蓋範圍

十個模板涵蓋兩大類別:

  • 研究作業:Pitch 建構、會議準備、財報分析、財務建模、市場研究
  • 財務與營運:估值複審、總帳調節(general ledger reconciliation)、月結關帳、報表稽核、KYC 審查

Microsoft 365 整合讓 Claude 可透過 Excel、PowerPoint、Word、Outlook 的原生增益集運作,跨應用程式自動維持上下文,不需要用戶重新解釋背景資訊。

原始來源:Anthropic — Agents for financial services


Compute Optimal Tokenization:模型參數規模應對應位元組數而非 Token 數

arXiv cs.CL · 2026-05-05 · arXiv:2605.01188

來自 Meta FAIR 的研究人員訓練了 988 個模型(參數量 50M 至 7B),系統性地探索 tokenization 壓縮率(bytes per token)與計算效率之間的關係,發現語言模型的規模定律應以原始位元組數衡量資料大小,而非 token 數。

核心發現

傳統的 Chinchilla 規模定律(scaling laws)以 token 數計算資料規模,模型參數量與訓練 token 數成正比。這篇論文提出修正:最佳模型參數量應與資料的位元組數成正比,而非 token 數。標準 BPE tokenizer 的壓縮率約為 4.57 bytes/token,但這個數值不一定對所有計算預算都是最佳的。

更根本的發現是最佳壓縮率會隨計算預算增加而降低。在計算預算較大時,使用較低壓縮率的 tokenizer(即每個 token 代表較少位元組)反而更有效率。

評估的 Tokenization 策略

  • Latent tokenization:學習型 token 表示,由模型自行決定如何切分
  • Subword tokenization:傳統 BPE 方法,以固定壓縮率產生離散 token

研究跨越英語與多語言設定進行測試,確認發現具有普遍性而非英語特定現象。

實務意涵

對於正在設計大型預訓練實驗的工程團隊,這意味著tokenizer 的選擇不應視為固定的前置決定,而應作為計算預算的函數。以 token 數計算的「effective compute」在跨模型比較時存在系統性偏差,特別是比較使用不同 tokenizer 的模型時。

原始來源:arXiv:2605.01188 — Compute Optimal Tokenization


Haiku:連結空間生物學與臨床組織病理學的三模態對比學習模型

arXiv cs.LG · 2026-05-05 · arXiv:2605.00925

來自 Genentech、UCSF 等機構的研究人員提出 Haiku,一個在 2,670 萬個免疫螢光(immunofluorescence)影像區塊上訓練的三模態對比學習模型,能夠在空間蛋白質組學(spatial proteomics)、免疫螢光影像與 H&E 組織切片三種模態之間進行跨模態檢索與臨床預測。

模型設計

Haiku 採用三模態對比學習框架,將三種模態的表示對齊到同一嵌入空間。訓練資料來自配對的多重免疫螢光(mIF)與 H&E 影像,每對影像提供同一組織區域在不同成像模態下的對應視圖。

模型的核心能力在於跨模態對齊:給定一張 H&E 切片的 patch,能檢索出對應的免疫螢光影像;反之亦然。這讓研究者可以用已知生物標記的空間分布預測標準染色切片中的臨床結果,無需重新進行昂貴的多重免疫螢光實驗。

評估結果

論文在多個下游任務上報告結果,包括跨模態影像檢索與臨床指標(如存活率、治療反應)的預測。三模態對齊使 Haiku 能夠從標準 H&E 切片中萃取原本只有昂貴蛋白質組學技術才能提供的生物資訊,具有降低臨床研究成本的潛力。

原始來源:arXiv:2605.00925 — Linking spatial biology and clinical histology via Haiku


End of article
0
Would love your thoughts, please comment.x
()
x