發表文章

目前顯示的是 3月, 2026的文章

Figma 開放 AI Agent 改設計稿:use_figma MCP 完整指南 | Figma Opens Canvas to AI Agents: use_figma MCP Guide

By Kit 小克 | AI Tool Observer | 2026-03-31 🇹🇼 Figma 開放 AI Agent 改設計稿:use_figma MCP 完整指南 use_figma MCP 是 Figma 於 2026 年 3 月 24 日發布的 MCP Server,讓 Claude Code、Cursor、GitHub Copilot 等 AI Agent 獲得對 Figma 畫布的 寫入權限 。這不是「AI 看截圖猜設計」,而是 Agent 直接在你的真實 Figma 檔案裡動手改。 use_figma 能做什麼? 透過 Model Context Protocol,AI Agent 連上 use_figma 後可以: 在 Figma 中建立、修改元件(Components),並使用你既有設計系統的樣式 套用設計 token 與變數(Variables) 依據自然語言需求,生成多個畫面的 UI flow 批次重命名圖層、套用 brand token 到數百個元件 Skills 框架:用 Markdown 控制 AI 行為 use_figma 最值得注意的設計是「Skills」系統:設計師或工程師可以用 Markdown 文件 定義 Agent 應如何操作 Figma,完全不需要寫程式碼。例如: 「建立卡片元件時,永遠使用 surface-02 顏色 token」 「不可修改 Master Components」 「所有新 frame 命名規則:feature/page/component」 這讓非工程師也能設定 AI 的行為邊界,有效防止 Agent 亂改設計系統。 真實使用案例 早期測試者分享的使用情境: 產品經理描述新功能,Claude Code 根據既有設計系統在 Figma 生成初稿 工程師在 IDE 告訴 Copilot:「根據這個 API response,建立對應的 UI flow」 設計師一句話,Agent 把 200 個按鈕元件全部套用新 brand token,10 秒完成 限制也很明確:複雜的 Auto Layout 處理仍不穩定,Agent 偶爾會誤解 constraint 設定,不建議直接套用到正式設計稿,先在副本測試比較保險。 如何開...

Clearview AI 誤判:無辜婦女坐牢 108 天,人臉辨識的真實風險 | Clearview AI False Match: Innocent Woman Jailed 108 Days

By Kit 小克 | AI Tool Observer | 2026-03-30 🇹🇼 Clearview AI 誤判:無辜婦女坐牢 108 天,人臉辨識的真實風險 2026 年 3 月,CNN 披露了一則令人心寒的案例:美國田納西州 50 歲的祖母 Angela Lipps,因 Clearview AI 人臉辨識 系統的一次錯誤比對,在未犯任何罪的情況下,被迫在監獄中度過了整整 108 天。這不是科幻小說——這是 AI 誤判在現實世界的真實代價。 事件經過:一張假 ID 害了一個無辜的人 2025 年 4 至 5 月間,北達科他州法哥市(Fargo)發生一系列銀行詐騙案,罪犯持偽造美軍身分證開設帳戶。執法人員透過 Clearview AI 系統掃描嫌犯面孔,結果系統將 Lipps 的照片與犯罪現場照片判定為同一人。 問題核心在於: 警方沒有做任何交叉驗證 。Lipps 的銀行記錄與社會安全存款收據明確顯示,案發期間她人在田納西州。這些證據本可在數天內整理完畢,但她已先在田納西被捕、引渡至北達科他。整個案件直到 2025 年聖誕夜才終於撤銷。 這 108 天裡,她失去了家、車子,以及她的狗。 Clearview AI 是什麼?誤判率有多高? Clearview AI 是一家美國公司,其資料庫據稱含有從網路公開來源抓取的數百億張人臉照片,供執法機關進行 AI 人臉辨識 比對。但準確率爭議從未停止——多項研究顯示,該技術對膚色較深或年長女性族群的誤判率明顯偏高,而 Lipps 正好屬於這個族群。 Tom's Hardware 的調查指出,Lipps 的案例並非特例:類似的 AI 人臉辨識 冤案在全美已有數十起記錄,而執法機構仍持續使用這項技術,問責機制幾乎付之闕如。 技術問題,還是制度問題? 這個案件揭露的核心困境不只是 AI 準確率——更是執法文化對 AI 辨識結果的盲目信任 。當系統輸出一個「比對結果」,人類應扮演最後防線,而非橡皮圖章。 美國目前沒有聯邦層級的人臉辨識規範法律 歐盟《AI 法案》執行日期已延後至 2027 年 白宮最新 AI 框架未明確限制執法機關的人臉辨識使用 對普通公民來說,這意味著:你的臉可能被 Clearview AI 誤判,而當前幾乎沒有任何法律能快速...

ChatGPT 讓 Cloudflare 偷讀你的資料:打字前已收集 55 項資訊 | ChatGPT Lets Cloudflare Collect 55 Data Points Before You Type

By Kit 小克 | AI Tool Observer | 2026-03-30 🇹🇼 ChatGPT 讓 Cloudflare 偷讀你的資料:打字前已收集 55 項資訊 ChatGPT 的機器人防護系統,比你想的侵入性更強。一位開發者近日解密了 Cloudflare 部署在 ChatGPT 上的混淆 JavaScript,發現在你輸入第一個字之前,系統已靜默收集了 55 項關於你的資料——從 GPU 型號、IP 地理位置,到你的 React 應用程式狀態,全部一網打盡。這篇調查報告在 HackerNews 登上榜首,獲得 650 分以上及 413 則熱烈討論。 Cloudflare Turnstile 在 ChatGPT 上做什麼? 使用 Cloudflare 做機器人防護本身並不罕見。問題在於這次調查揭露的深度:Cloudflare 的 Turnstile 程式不只檢查你的 IP 或 User-Agent,它直接讀取 ChatGPT 的 React 應用程式內部狀態 。 程式碼中,它存取三個 React 內部屬性: __reactRouterContext 、 loaderData 、 clientBootstrap 。這是為了確認「真正的 React 程式碼確實在瀏覽器中執行完畢」,而非只是載入靜態 HTML。換句話說,這是史上少見的 應用程式層機器人偵測 ,而非傳統的網路或瀏覽器層操作。 55 項資料:三層收集機制 解密後的腳本揭示,Turnstile 共收集 55 個屬性,分三個層次: 瀏覽器層 :GPU 型號與效能、螢幕解析度、硬體規格、已安裝字型列表、本地儲存空間 網路層 :城市名稱、IP 地址、緯度經度、連接 IP、使用者地區(由 Cloudflare 伺服器端注入) 行為層 (透過 Signal Orchestrator):鍵盤輸入時機間隔、滑鼠移動速度與軌跡、捲動模式、貼上事件 更重要的是:這份「指紋」(fingerprint)會以編碼金鑰存入瀏覽器的 localStorage , 跨頁面持久追蹤你 ,而非每次重新運算。 為什麼這比普通的防機器人措施更嚴重? 傳統 Cloudflare 防護只需在網路或瀏覽器層運作,不需要碰 React 狀態。這次的設計選擇讓第三...

Claude Code Bug:背景自動執行 git reset --hard 靜默刪除你的程式碼 | Claude Code Bug: Background git reset --hard Silently Deletes Your Code

By Kit 小克 | AI Tool Observer | 2026-03-30 🇹🇼 Claude Code Bug:背景自動執行 git reset --hard 靜默刪除你的程式碼 Claude Code 近日被開發者回報一個高危 Bug:工具在背景每 10 分鐘自動執行 git fetch origin 與 git reset --hard origin/main ,靜默覆蓋所有未提交的本地更動,讓開發者在毫無警告的情況下損失數小時的心血。這個問題在 GitHub Issue #40710 與 HackerNews 上迅速引爆,超過 200 名開發者參與討論。 Bug 的具體行為 根據多名受影響的開發者描述,Claude Code 內建一個背景定時器,固定間隔執行以下指令: git fetch origin git reset --hard origin/main 這個行為的設計初衷據推測是「讓工作目錄保持與遠端同步」,但在實際使用中,效果等同於 每 10 分鐘強制丟棄你所有未提交的本地更動 ——包括已修改但尚未 git add 或 git commit 的檔案。 為什麼這個 Bug 特別危險 完全靜默 :沒有任何 UI 警示、彈窗或 terminal 輸出,你不會知道它發生了。 git reset --hard 不可逆 :不像 git stash , reset --hard 的未 commit 更動無法直接還原,只能靠 reflog 或 IDE 本地歷史勉強救援。 10 分鐘間隔讓人難以察覺 :你以為自己寫錯了、手殘了,結果是工具偷偷把你的改動丟掉。 與 AI 輔助開發工作流衝突 :使用 AI 工具時,你可能正在半成品狀態下來回嘗試,uncommitted 的改動本來就是正常的工作狀態。 如何立即自保 在官方修補程式推出前,以下幾個做法可以大幅降低損失風險: 勤 commit、早 commit :不要讓任何重要改動停留在 unstaged 狀態超過幾分鐘。 使用 git stash :暫時離開工作時先 git stash push -m "WIP" ,保留工作記錄。 開啟 IDE 本地歷史 :VS Code、JetBra...

ARC-AGI-3 發布:頂尖 AI 全部得分不到 1% | ARC-AGI-3: Every Top AI Model Scored Under 1%

By Kit 小克 | AI Tool Observer | 2026-03-30 🇹🇼 ARC-AGI-3 發布:頂尖 AI 全部得分不到 1% ARC-AGI-3 於 2026 年 3 月 25 日正式發布,這個全新互動式基準測試立刻震驚整個 AI 圈:Gemini 3.1 Pro、GPT-5.4、Claude Opus 4.6 等頂尖模型,全部得分不到 1%。這不只是一個數字,而是對當前 AI 能力極限最直接的一次公開測試。 ARC-AGI-3 是什麼? ARC-AGI(Abstraction and Reasoning Corpus)系列由 Francois Chollet 創立,目的是測試機器是否具備真正的一般智能,而非死記硬背或過度訓練特定題型。 第三代與前兩代最大的不同在於: 它是完全互動式的 。AI 不是解題,而是要在一個沒有說明書的遊戲環境中自主探索、學習規則、設定目標、並完成長期任務。測試的四個核心能力是: 探索能力(Exploration) :在未知環境中主動試探 世界建模(World Modeling) :理解環境規則並形成心理模型 目標設定(Goal-setting) :自行定義並追求有意義的目標 長期規劃(Long-horizon Planning) :跨多步驟維持行動一致性 各大模型得分:讓人冷靜的數字 以下是目前已知的 ARC-AGI-3 各模型成績: Google Gemini 3.1 Pro Preview: 0.37% (目前最高) OpenAI GPT-5.4(High): 0.26% Anthropic Claude Opus 4.6(Max): 0.25% xAI Grok-4.20(Reasoning Beta): 0.00% 人類基準線: 100% 差距不是些微落後,而是 接近零 。這個結果讓不少在 Hacker News 討論的開發者感嘆:「我們一直在測量的,根本不是智能。」 為什麼這次不一樣? 過去的 AI 基準測試,往往在幾年內就被「攻克」——模型訓練資料越來越接近測試集,得分隨之飆升。ARC-AGI-3 試圖從根本上改變這個循環: 沒有預先給定的目標或規則,AI 必須自己發現 環境是動態的,每...

OpenAI Spud 完成訓練:GPT-6 幾週後上線? | OpenAI Spud Training Done: Is GPT-6 Weeks Away?

By Kit 小克 | AI Tool Observer | 2026-03-30 🇹🇼 OpenAI Spud 完成訓練:GPT-6 幾週後上線? OpenAI Spud 是 OpenAI 下一代旗艦語言模型的內部代號,已於 2026 年 3 月 24 日完成預訓練(Pre-training)。執行長 Sam Altman 在內部備忘錄中形容這個模型「非常強大,足以真正加速整體經濟」,並預計將在「幾週內」正式發布。它究竟是 GPT-5.5 還是 GPT-6?目前 OpenAI 尚未確認命名,但這或許是自 GPT-4 以來最值得關注的一次模型更新。 Stargate 超算中心:10 萬張 H100 訓練出的模型 根據 The Information 的報導,Spud 在德州 Abilene 的 Stargate 設施中完成訓練,動用超過 10 萬張 NVIDIA H100 GPU ,是目前已知最大規模的單一模型訓練集群之一。為了釋出算力,OpenAI 甚至關閉了 Sora 影片生成服務——這個取捨清楚說明了公司的戰略優先序:語言模型才是核心賭注,影片生成可以等。 超級應用藍圖:ChatGPT + Codex + 瀏覽器合而為一 Spud 不只是更強的聊天機器人。OpenAI 計劃讓它成為「超級應用」(Super App)的核心引擎,將以下三個元件整合為單一介面: ChatGPT :對話與推理介面 Codex :程式設計代理人(Coding Agent) Atlas :AI 原生瀏覽器 對開發者來說,這意味著未來一個 API 呼叫可能同時處理搜尋、推理與寫程式,大幅簡化現有 AI 工作流的整合複雜度。這也是對 Claude Code 與 Google Gemini 生態系的直接挑戰。 GPT-6 還是 GPT-5.5?命名不是重點 OpenAI 近年習慣保守命名(o3、o4-mini、GPT-5.4),因此即使 Spud 是實質意義上的 GPT-6,正式名稱可能也讓市場失望。但重要的不是數字——部分 OpenAI 員工描述 Spud 的能力「和我們見過的完全不同」,這才是真正值得關注的訊號。等 benchmarks 出來,再評斷這個形容詞是否名副其實。 數學家 Terence Tao:AI 已成可信賴的共同作...

Mistral Small 4 開源:三合一 MoE 模型,免費商用 | Mistral Small 4: Open-Source 119B MoE That Does It All

By Kit 小克 | AI Tool Observer | 2026-03-30 🇹🇼 Mistral Small 4 開源:三合一 MoE 模型,免費商用 Mistral Small 4 是 Mistral AI 於 2026 年 3 月 16 日發布的 119B 參數開源模型,採用 Apache 2.0 授權 ,可免費商用。這個版本最大的意義不是參數量,而是「合三為一」:它把原本三個獨立模型——Magistral(推理)、Pixtral(視覺)、Devstral(程式碼)——整合成單一權重,讓企業只需維護一個模型就能搞定多種任務。 什麼是 Mistral Small 4?三合一的實際意義 過去使用 Mistral 系列,你需要根據任務類型選擇不同模型:需要推理用 Magistral、需要看圖用 Pixtral、需要寫程式用 Devstral。現在 Mistral Small 4 把這三者合一,同一個 API endpoint、同一份部署,處理所有任務。 對於需要建立多功能 AI Agent 的開發者來說,這不是小事——少一個模型就少一筆推理費用、少一套維護成本、少一個延遲節點。 核心規格一覽 架構 :混合專家模型(MoE),128 個專家,每個 token 啟動 4 個 總參數 :119B;每次推理實際使用:~6B 上下文視窗 :256,000 tokens(原生支援長文件) 多模態 :原生支援文字 + 圖片輸入 動態推理 : reasoning_effort 參數可即時切換「快速模式」與「深度推理模式」,無需換模型 授權 :Apache 2.0,商業使用無限制 與上一代 Mistral Small 3 相比:端對端延遲降低 40%,吞吐量提升 3 倍。 如何使用 Mistral Small 4? 最簡單的方式是透過 API :Mistral 官方 API 與 NVIDIA NIM 均已提供存取,按量計費。 本地部署 (需要企業級硬體:4x NVIDIA H100 或 2x H200 起跳): vllm serve mistralai/Mistral-Small-4-119B-2603 --max-model-len 262144 --tensor-parallel...

MCP 安全漏洞大爆發:AI Agent 最危險的攻擊入口 | MCP Security Crisis: The Hidden Attack Surface in Your AI Stack

By Kit 小克 | AI Tool Observer | 2026-03-30 🇹🇼 MCP 安全漏洞大爆發:AI Agent 最危險的攻擊入口 MCP(Model Context Protocol) 被稱為「AI Agent 的 HTTP」,正快速成為連接 LLM 與工具的標準協議。但安全研究員最新發現:這個正在爆炸成長的生態系,同時也是目前 AI 領域最危險的攻擊入口。Palo Alto Unit 42、Adversa AI、arXiv 等機構在 2025-2026 年間陸續揭露了多個嚴重漏洞,開發者如果還沒採取行動,現在是時候了。 MCP 安全漏洞到底有多嚴重? 根據 Palo Alto Networks Unit 42 的最新研究,MCP 的 Sampling 功能存在三類高危攻擊向量: 資源耗盡攻擊(Resource Theft): 攻擊者透過隱藏請求,在背景持續消耗用戶的 LLM Token 配額,讓你的 API 帳單暴增而不自知。 對話劫持(Conversation Hijacking): 惡意指令被注入並在多輪對話中持續存活,讓 AI Agent 的後續行為都受到操控。 隱蔽工具呼叫(Covert Tool Invocation): 在用戶毫不知情的情況下,Agent 自動執行檔案系統操作或外部 API 呼叫。 真實 CVE:不只是理論漏洞 這些不是紙上談兵,已有多個 CVE 被正式登錄: CVE-2025-6514(CVSS 9.6): mcp-remote 套件存在任意 OS 命令執行漏洞,任何使用此套件的 MCP 伺服器都可能被遠端控制。 CVE-2025-68143 / 68144 / 68145: Anthropic 官方的 mcp-server-git 中存在三個連鎖漏洞,組合使用可達成完整遠端代碼執行(RCE)。 根據 The Vulnerable MCP Project 掃描的 500+ 個公開 MCP 伺服器, 38% 完全沒有驗證機制 。這代表大量正在運行的 AI Agent 工具,任何人都可以直接呼叫。 工具投毒(Tool Poisoning):最難防的攻擊 最令人擔憂的攻擊方式,是透過惡意的工具描述(Tool Description)進行「工具投毒」。攻擊者只...

Gemini 3.1 Flash Live:Google 即時語音 Agent API,開發者搶先試 | Gemini 3.1 Flash Live: Build Real-Time Voice AI Agents with Google

By Kit 小克 | AI Tool Observer | 2026-03-30 🇹🇼 Gemini 3.1 Flash Live:Google 即時語音 Agent API,開發者搶先試 Gemini 3.1 Flash Live 在 2026 年 3 月 26 日正式進入開發者預覽。這是 Google 專為即時語音與視覺 AI Agent 設計的多模態模型,原生處理音訊,省去傳統 STT → LLM → TTS 三層管道,大幅壓低對話延遲。如果你正在開發語音 Agent,這個 API 值得優先評估。 Gemini 3.1 Flash Live 是什麼? 過去要打造一個「能聽、能看、能行動」的 AI Agent,你需要串接至少三個服務:語音辨識(Whisper / Deepgram)、大型語言模型(GPT / Claude)、語音合成(ElevenLabs)。光是管線本身就帶來 1–3 秒的延遲,嚴重破壞對話的流暢感。 Gemini 3.1 Flash Live 的設計目標,就是把這三層壓縮成一個 API 呼叫。它直接接收麥克風音訊,在同一個模型內完成理解與回應,再以語音輸出——不轉文字、不換模型、不排隊。 核心技術亮點 原生音訊處理 :直接接收音訊輸入,無需 STT 前處理,降低管線複雜度 對話中工具呼叫 :語音對話進行中可即時呼叫外部 API、查詢資料庫,不需中斷 thinkingLevel 參數 :開發者可依情境調整「速度 vs. 推理深度」的取捨——快速回應或深度思考,自行選擇 ComplexFuncBench Audio 得分 90.8% :在語音工具呼叫基準測試中超越多數競品 即時視覺輸入 :支援攝影機影像串流,打開 Edge AI Agent 的應用場景(如輔助視障者、即時翻譯看板) 實際延遲有多低? 早期整合案例(包括設計工具 Stitch)回報的端到端延遲已降至 400ms 以內 ,接近自然對話的流暢度。相比之下,串接三個獨立服務的典型管線延遲約為 1.5–3 秒。這個差距在電話客服、即時口譯、語音教學等場景,直接影響使用者是否願意繼續對話。 值得注意的限制 這是開發者預覽,不是正式產品。目前已知的限制: Flash 等級模型 :複雜多步驟推理仍不如 Gemini Pro 或 G...

OpenCode 被迫移除 Claude:Anthropic 畫下開源 AI 工具的訂閱紅線 | OpenCode Forced to Drop Claude: Anthropic Draws the Line on OAuth Token Abuse

By Kit 小克 | AI Tool Observer | 2026-03-29 🇹🇼 OpenCode 被迫移除 Claude:Anthropic 畫下開源 AI 工具的訂閱紅線 三月底,一個在 GitHub 上累積超過 12.5 萬顆星的開源專案悄悄推送了一個讓社群嘩然的 commit:OpenCode,這個被開發者廣泛使用的終端 AI 編程助手,宣布移除所有 Claude 模型的整合支援。原因只有一行:「anthropic legal requests」。 OpenCode 是什麼? OpenCode 是一個以 Go 語言撰寫的開源命令列 AI 編程助手,功能類似 Claude Code 或 GitHub Copilot,但完全開源、可自行架設,並支援多個 AI 模型。Claude 因為智能表現較強,成為許多用戶的首選。 問題在於:許多用戶並非透過付費 API 金鑰存取 Claude,而是利用 Claude Pro/Max 訂閱帳戶的 OAuth Token ,讓 OpenCode 偽裝成 Claude Code 官方客戶端對 Anthropic 伺服器發送請求。簡單說,就是用每月 20 美元的訂閱方案,當成無限制的 API 使用。 Anthropic 為何出手? 這並非突然的決定。完整時間軸如下: 2026 年 1 月 9 日 :Anthropic 啟動伺服器端封鎖,第三方工具使用 OAuth Token 開始收到錯誤訊息:「This credential is only authorized for use with Claude Code」。 2026 年 2 月 19 日 :Anthropic 正式更新服務條款,明確禁止 Free/Pro/Max 訂閱計畫的 OAuth Token 用於第三方工具或 Agent SDK。 2026 年 3 月 :Anthropic 發出法律要求,OpenCode 隨即提交 commit 移除所有 Claude 整合。 從商業角度看,這合乎邏輯:用 $20/月 訂閱「薅」API 流量,嚴重侵蝕了 Anthropic 的 API 收入,也對伺服器基礎設施造成壓力。 開發者的憤怒與背後問題 這個移除 commit 在 GitHub 上收到 40 個踩,只有 4 個讚。HackerNews 討論超過 398 ...

OpenAI 簽下五角大廈合約、Anthropic 遭列黑名單:AI 軍事化的倫理紅線在哪裡? | OpenAI Signs Pentagon Deal as Anthropic Gets Blacklisted: Where Is the Ethical Line for Military AI?

By Kit 小克 | AI Tool Observer | 2026-03-29 🇹🇼 OpenAI 簽下五角大廈合約、Anthropic 遭列黑名單:AI 軍事化的倫理紅線在哪裡? 2026 年初,AI 產業出現了一場迄今最具爭議的政治分裂: OpenAI 與美國國防部正式簽署合作協議 ,幾乎同一時間, Anthropic 卻被川普政府以「供應鏈風險」為由列入聯邦合約黑名單 。兩家公司在 AI 安全領域都自稱業界模範,卻在短短數週內走上截然不同的命運。 發生了什麼事? OpenAI × 美國國防部合約 :OpenAI 與美國國防部(官方名稱已改為「Department of War」)簽署雲端 AI 部署協議,宣稱有三條紅線:不參與大規模國內監控、不直接指揮自主武器、不訓練殺人機器人。但協議細節列為機密,外界無從驗證。 Anthropic 被列黑名單 :國防部長 Pete Hegseth 將 Anthropic 列為「聯邦供應鏈風險」,禁止政府機構採購其服務。官方未說明具體原因,外界推測與 Anthropic 創辦人曾公開批評川普政府 AI 政策有關。 OpenAI 內部出走 :機器人部門負責人 Caitlin Kalinowski 在合約簽署後一週遞辭,公開表示無法認同公司的軍事方向。Sam Altman 事後承認整個對外溝通「顯得太機會主義、也太倉促」。 這對開發者和企業意味著什麼? 如果你正在評估哪款 AI 工具適合政府標案、醫療或國防相關業務, 這場政治風波已經直接改變了可用清單 。Claude(Anthropic)目前不能用在任何美國聯邦政府合約中;GPT 系列則可以,但代價是你必須接受合約細節不透明的現實。 更值得關注的是: AI 供應商的政治立場,正在成為企業採購的風險因子 。你選擇哪家模型,可能決定你能不能進入某些市場、能不能承接某些客戶。 三條「紅線」真的有約束力嗎? OpenAI 官方聲明的三條紅線聽起來很合理,但都有致命的模糊地帶: 「不直接指揮自主武器」不等於不協助武器目標辨識或情報分析 「不訓練殺人機器人」不等於不協助無人機決策系統 所有限制均為自我申報,沒有第三方審計機制 AI 安全研究員普遍認為, 在沒有獨立核查的情況下,這些承諾更像是公關文件 ,而非真正的治理框架。 誰...

Meta 聯手 Arm 打造 AGI CPU:科技巨頭自建晶片,AI Agent 時代的算力版圖正在重組 | Meta and Arm Build Custom AGI CPU: Big Tech Is Quietly Dismantling Nvidia's Data Center Monopoly

By Kit 小克 | AI Tool Observer | 2026-03-29 🇹🇼 Meta 聯手 Arm 打造 AGI CPU:科技巨頭自建晶片,AI Agent 時代的算力版圖正在重組 快速摘要 2026 年 3 月 24 日,Meta 與 Arm 宣布聯手開發一款全新的資料中心 CPU—— Arm AGI CPU ,這是 Arm 有史以來第一款專為 AI 時代設計的資料中心處理器。Meta 擔任主要合作夥伴與共同開發方,並計劃將相關的電路板與機架設計透過 開放運算計劃(Open Compute Project) 向整個業界開放。 這不只是一顆新晶片的發布,而是 Big Tech 逐步降低對 NVIDIA 依賴的最新一步棋。 為什麼 Meta 要自己做 CPU? Meta 目前正在大規模部署 AI 系統——從 Meta AI 聊天助理、Instagram 演算法推薦,到訓練 Llama 系列開源模型,算力需求已到天文數字。傳統通用 CPU 早已無法支撐這些負載,而 NVIDIA GPU 雖強大卻昂貴且供貨緊張。 Arm AGI CPU 的定位不是取代 GPU,而是填補「通用 CPU 與 AI 加速器之間」的空白。設計目標包含: 每機架(per rack)提供比傳統 CPU 更高的效能密度 更節能,支援 Meta 所說的「十億瓦特級 AI 部署」(gigawatt-scale AI deployments) 搭配 Meta 自家的 MTIA(Meta Training and Inference Accelerator)AI 晶片協同運作 設計圖透過 Open Compute Project 開放,讓更多企業可採用同樣架構 Arm 的戰略升級 對 Arm 而言,這筆合作代表重大市場轉型。Arm 執行長 Rene Haas 表示,這款 CPU 代表「Arm 運算平台的下一階段——擴展至為 大規模 AI Agent 部署 提供最佳化的生產級晶片」。 Arm 傳統商業模式是 IP 授權(客戶用 Arm 架構設計自己的晶片,如 Apple Silicon、Qualcomm Snapdragon)。這次是 Arm 更直接參與「成品 CPU」的共同開發,有明確的 AI 用途定位——顯示 Arm 正在從「賣圖紙」升級到「搶攻...

LangChain/LangGraph 七大漏洞爆發:九千萬週下載量的 AI 框架正在洩露你的 API 金鑰 | LangChain & LangGraph: 7 Critical CVEs Threaten 90M Weekly Downloads — API Keys, RCE, SQL Injection

By Kit 小克 | AI Tool Observer | 2026-03-29 🇹🇼 LangChain/LangGraph 七大漏洞爆發:九千萬週下載量的 AI 框架正在洩露你的 API 金鑰 如果你的 AI 應用是用 LangChain 或 LangGraph 建立的,請先停下來看這篇文章。2026 年 3 月 27 日,資安研究人員公開披露了橫跨這兩個框架的 七個重大漏洞(CVE) ,影響週下載量超過 9,200 萬次的生態系——幾乎所有主流 AI 應用開發者都直接或間接受到波及。 這次漏洞有多嚴重? 七個 CVE 涵蓋了幾乎所有最危險的漏洞類型: CVE-2025-68664(CVSS 9.3 / Critical) :langchain-core Python 版序列化注入漏洞。攻擊者可透過 LLM 回應中的惡意 lc 鍵,竊取環境變數中的 API 金鑰與資料庫憑證。受影響版本:< 0.3.81 及 1.0.0–1.2.5。 CVE-2025-68665(CVSS 8.6 / High) :相同類型的漏洞存在於 JavaScript/TypeScript 版的 @langchain/core ,受影響版本:< 1.1.8。 CVE-2026-34070(CVSS 7.5 / High) :langchain-core 路徑穿越(Path Traversal),透過 load_prompt() 可讀取伺服器任意檔案,受影響版本:< 1.2.22。 CVE-2025-67644(CVSS 7.3 / High) :LangGraph SQLite checkpoint SQL 注入漏洞,可讀取所有對話歷史與 agent 狀態,受影響版本:< 3.0.1。 CVE-2026-27794(CVSS 6.6 / Medium) :LangGraph Pickle 反序列化 RCE,預設啟用的 pickle_fallback=True 讓任何可寫入快取的攻擊者都能執行任意程式碼,受影響:langgraph < 1.0.6。 CVE-2026-28277(CVSS 6.8 / Medium) :LangGraph msgpack 不安全反序列化,受影響:langgraph < 1.0.10...

Apple Project Campos 全面曝光:iOS 27 的 Siri 終於要變成真正的 AI Agent,還內建 Claude 和 Gemini | Apple Project Campos: iOS 27 Siri Is Finally Becoming a Real AI Agent — With Claude and Gemini Built In

By Kit 小克 | AI Tool Observer | 2026-03-29 🇹🇼 Apple Project Campos 全面曝光:iOS 27 的 Siri 終於要變成真正的 AI Agent,還內建 Claude 和 Gemini 三月下旬,彭博社記者 Mark Gurman 連續發出數篇報導,揭露了蘋果代號「Project Campos」的重大計畫——一個將徹底改變 Siri 的全面改造專案,預計在 6 月 8 日的 WWDC 正式亮相。這是 Siri 有史以來規模最大的一次重建。 從語音小幫手到真正的 AI Agent 新版 Siri 不再只是設個鬧鐘或查天氣的工具,而是要蛻變成一個能跨應用程式推理、執行多步驟任務的 AI Agent。根據報導,主要功能包括: 獨立 App :iOS 27 將推出 Siri 專屬應用程式,介面類似 ChatGPT 或 Claude,支援對話歷史、收藏、搜尋功能 Dynamic Island 整合 :查詢時出現脈動的 Siri 圖示,並展開成半透明「液態玻璃」面板 跨 App 推理能力 :可讀取訊息、筆記、Email 的上下文,執行橫跨多個 App 的複合任務 全系統「Ask Siri」按鈕 :在裝置任何地方都能快速呼叫,還新增「Write with Siri」寫作輔助功能 最大亮點:Claude 和 Gemini 也進來了 這才是最讓人驚訝的部分。蘋果計畫建立一套「Extensions」系統,讓使用者可以在 Siri 設定中自行選擇由哪個 AI 來回答問題: Google Gemini Anthropic Claude OpenAI ChatGPT(原有整合延續) 這意味著蘋果終於承認, 自家的 AI 能力可能不足以滿足所有使用情境 ,並選擇開放平台讓使用者自行決定。對於一貫強調封閉生態系的蘋果而言,這是相當罕見的讓步。 硬體門檻:你的手機夠格嗎? 全功能的 Project Campos 需要至少 12GB RAM ,這意味著只有近期型號的 iPhone 才能跑完整版功能。舊款 8GB 機型可能只能拿到「Siri Lite」——部分功能將依賴雲端處理。 後端架構方面,蘋果同時使用自家的 Apple Foundation Model v11 ...