AI 前沿 2026 年 4 月 28 日

2026-04-28 — Safetensors 加入 PyTorch Foundation、DeepSeek-V4 百萬 Token、Cloudflare Unweight 22% 壓縮、Claude Opus 4.7

Safetensors 加入 PyTorch Foundat…

Safetensors 加入 PyTorch Foundation:格式治理中立化與 CUDA/ROCm 直接載入計畫

Hugging Face Blog · 2026-04-08

Hugging Face 宣布將 Safetensors 的所有權、商標與倉庫治理移交至 Linux Foundation 下的 PyTorch Foundation,正式確立其作為供應商中立的 ML 模型序列化標準地位。

格式規格

Safetensors 採用固定的二進位佈局:標頭(JSON,最大 100 MB)描述每個張量的名稱、dtype、形狀與在資料區段中的位元組偏移;標頭後緊接資料區段(raw tensor bytes),無需反序列化框架即可直接記憶體映射(mmap)單一張量。這個設計使它具備:零拷貝載入(直接從磁碟映射到張量緩衝區)、惰性載入(僅讀取指定名稱的張量而不解析整個 checkpoint)、以及完全規避 pickle 的任意程式碼執行風險。目前 Hugging Face Hub 上數萬個模型以此格式發布。

治理變更

原 Hugging Face 的維護者 Luc 與 Daniel 繼續作為 Technical Steering Committee 成員。倉庫新增 GOVERNANCE.mdMAINTAINERS.md,建立正式的貢獻者晉升路徑。格式本身、API 及 Hub 整合均維持向後相容,現有模型無需重新轉換。

計畫中的技術擴展

加入 PyTorch Foundation 後,路線圖包含:(1) 整合進 PyTorch 核心作為 torch.save/torch.load 的官方替代;(2) 新增設備感知 API,支援直接載入到 CUDA、ROCm 等加速器記憶體,跳過 CPU 暫存階段;(3) 新增分散式訓練一等公民 API,支援 Tensor Parallel 與 Pipeline Parallel 載入(各 rank/stage 僅載入其對應的張量切片);(4) 量化格式支援(FP8、GPTQ、AWQ 等 block-quantized 格式,以及 sub-byte 整數型別)。

原始來源:Hugging Face Blog — Safetensors is Joining the PyTorch Foundation


DeepSeek-V4:百萬 Token 上下文的代理模型架構解析

Hugging Face Blog · 2026-04-24

DeepSeek-V4 以百萬 Token 上下文為設計核心,針對 AI Agent 工作負載進行架構調整,在 Hugging Face 技術部落格中揭示了其混合注意力策略與記憶體管理方案。

混合注意力策略

處理百萬 Token 的主要障礙是注意力計算的 O(n²) 複雜度。DeepSeek-V4 採用分層混合策略:針對近端 Token 使用完整的多頭注意力(MHA);超出局部窗口的 Token 採用線性注意力近似(基於核函式展開);在關鍵位置插入全局注意力層,使模型能夠在百萬 Token 範圍內維持全局上下文感知。此設計延續了 DeepSeek-V3 的 MLA(Multi-head Latent Attention)方向,但大幅擴展了有效上下文窗口。

Agent 導向的 KV Cache 管理

AI Agent 工作負載的特點是長上下文(工具呼叫歷史、多步推理鏈)加上頻繁的前綴複用。DeepSeek-V4 的 KV Cache 設計針對此模式優化:提前分配固定大小的 Cache 池(避免 GC 停頓),並以滑動窗口策略在超過容量時優先淘汰最久未被注意力權重觸及的 Token。

在 Hugging Face 的可用性

模型以 Safetensors 格式發布於 Hugging Face Hub,可透過 transformersAutoModelForCausalLM 載入。推理需要支援 Flash Attention 2 的 GPU(A100/H100),百萬 Token 推理在 8×H100 配置下測試可行。

原始來源:Hugging Face Blog — DeepSeek-V4


Cloudflare Unweight:BF16 指數霍夫曼編碼實現 LLM 推理無損壓縮 22%

Cloudflare Blog · 2026-04-17

Cloudflare Workers AI 團隊發布了 Unweight——一種針對 NVIDIA H100 GPU 上 BF16 權重的推理時期無損壓縮系統,在 Llama 3.1 8B 上實測達到 22% 模型體積縮減與 ~3 GB VRAM 節省。

壓縮演算法

BF16 的位元佈局:1 位元符號 + 8 位元指數 + 7 位元尾數。Unweight 的關鍵洞察是:典型模型層中,最常見的 16 個指數值(exponents)覆蓋超過 99% 的全部權重。因此僅對指數位元組串流施加 Huffman 編碼,符號與尾數不動,對整體位元組流達到約 30% 的壓縮率。指數超出 top-16 調色板的列(rows with rare exponents)以原始值儲存,避免逐元素分支的核心開銷。

重構性矩陣乘法(Reconstructive MatMul)

關鍵突破在於將解壓縮與矩陣乘法融合(kernel fusion):Producer 執行緒透過 TMA 硬體單元將壓縮資料載入 shared memory;Consumer 執行緒在 shared memory 中現地重建 BF16 值,直接送入 WGMMA tensor-core 指令,無需寫回 HBM。此設計迴避了「先解壓到全精度再做矩陣乘法」會帶來的記憶體頻寬瓶頸。

四條自適應執行路徑

Unweight 運行時根據各矩陣的 batch size 與 benchmark 結果自動選擇最優策略:(1) 完整 Huffman 解碼 + cuBLAS(小批量最優);(2) 僅指數解碼的自訂核心;(3) 調色板轉碼的自訂核心;(4) 直接調色板(零預處理,即時重建)。

Llama 3.1 8B 實測數據

壓縮範圍縮減率
分發包(全 MLP 投影)~22%
推理包(gate/up 投影)~13%
VRAM 節省~3 GB

吞吐量代價:目前核心優化尚未完成,在 batch=1 時約有 41% 的推理時間額外開銷,batch=1024 時縮減至 30%。Cloudflare 表示已識別三個主要開銷來源,持續優化中。壓縮僅應用於 MLP 權重(約占模型參數的三分之二),不覆蓋注意力層、embedding 與 layer norm。

原始來源:Cloudflare Blog — Unweight


LLM 輔助靜態分析:業餘開發者在 Python C 擴充中發現 500+ 缺陷

LWN.net · 2026-04-21

一位業餘開發者以 LLM 輔助靜態分析工具在 Python C 擴充中發現超過 500 個缺陷,此事件在 Python 核心開發者社群引發關於 AI 輔助安全研究方法論的討論,LWN 在 2026 年 4 月 21 日的報導中進行了深入分析。

方法論

研究者採用的流程:以靜態分析工具(Clang Static Analyzer 或類似工具)掃描 CPython 擴充的 C 原始碼,生成可疑程式碼片段;將片段送入 LLM(推測為 GPT-4 級別模型)進行脆弱性分類與 PoC 生成;人工確認後以「負責任揭露」方式提交至 Python 缺陷追蹤器。500+ 缺陷的量級表明 LLM 在將靜態分析警告轉化為可確認的安全問題方面具有顯著的放大效果,但也帶來 false positive 的確認負擔。

典型缺陷模式

在 Python C 擴充中,常見的記憶體安全缺陷模式包含:PyArg_ParseTuple 解析後的引用計數管理錯誤(過早 Py_DECREF 導致 use-after-free);PyList_GET_ITEM(不做邊界檢查的快速路徑)在索引未驗證時的緩衝區越界;以及在 GIL 釋放區間(Py_BEGIN_ALLOW_THREADS)存取 Python 物件的並行安全問題。

社群回應

Python 核心開發者 Brett Cannon 與 Petr Viktorin 在評論中肯定了方法論,同時指出大批量提交對 triage 資源的壓力。此事件推動了 Python 安全政策中關於 AI 輔助批量回報的指引討論。LWN 分析認為,此案例是 LLM 在安全研究中「工具放大器」角色的典型示例。

原始來源:LWN — Using LLMs to find Python C-extension bugs


Claude Opus 4.7:視覺解析度提升 3 倍、SWE-Bench 提升 13%、新增 xhigh 推理深度

Anthropic · 2026-04-16

Anthropic 於 2026 年 4 月 16 日正式發布 Claude Opus 4.7(API 識別碼:claude-opus-4-7),作為 Opus 4.6 的後繼版本,重點改進集中在程式碼工程、視覺處理及多步推理任務。

視覺能力

影像輸入最大解析度從前代提升至長邊 2,576 像素(約 3.75 百萬像素,超過前代的 3 倍),顯著改善了密集截圖閱讀與複雜技術圖表解析的準確率。視覺敏銳度基準達到 98.5%,對比 Opus 4.6 的 54.5%。

程式碼工程基準

在 93 題 Coding Benchmark 上,Opus 4.7 較 Opus 4.6 提升 13% 解決率;在 Rakuten-SWE-Bench 的生產任務測試上,解決數量為 Opus 4.6 的 3 倍。文件推理錯誤率降低 21%。

新的推理深度控制

API 中新增 xhigh(extra high)effort level,位於現有 high 之上,讓呼叫者可以在延遲與推理深度之間做更細粒度的取捨。這對需要最大準確率但對延遲不敏感的批次分析工作流特別有意義。

Tokenizer 變更

更新了 Tokenizer,相同輸入可能消耗 1.0–1.35× 更多 Token(視內容類型而定)。使用量估算與 Token 計數工具需要更新以反映此變更。

安全特性

新增網路安全自動防護(Cyber Safeguards),可自動偵測並阻擋高風險資安操作請求。合法安全研究人員可透過 Cyber Verification Program 申請解除相關限制。

定價不變:$5 / 百萬輸入 Token,$25 / 百萬輸出 Token。可透過 Anthropic API、Amazon Bedrock、Google Cloud Vertex AI 及 Microsoft Foundry 存取。

原始來源:Anthropic — Introducing Claude Opus 4.7


End of article
0
Would love your thoughts, please comment.x
()
x