人工智能公司 Anthropic 週一宣布,旗下 AI 模型 Claude 現已具備直接操作個人電腦的能力,用戶可透過手機發送指令,讓 AI 代理完成從文件處理到網頁操作等複雜任務,正式加入白熱化的 AI 代理(agent)競賽。
本文核心內容:
- 核心功能:Claude 可透過指令操作電腦應用程式、瀏覽器與電子表格。
- 操作方式:用戶可從手機向 Claude 發送任務訊息,實現遠端控制。
- 競爭對手:此更新旨在與病毒式傳播的 AI 代理 OpenClaw 競爭。
- 行業趨勢:輝達(Nvidia)行政總裁黃仁勳稱 AI 代理為「下一個 ChatGPT」。
想深入探索 AI 技術極限?不要隨便養龍蝦!論 OpenClaw 的正確「養殖」方式
機器人也會失控?掌握 OpenClaw 正確「養殖」方式讓 AI 更聽話
Anthropic 表示,在收到指令後,Claude 能夠自主打開電腦上的應用程式、操作網頁瀏覽器甚至填寫電子表格。在一則演示影片中,一名即將開會遲到的用戶,透過手機要求 Claude 將一份簡報檔案匯出為 PDF,並附加到會議邀請中,影片顯示 Claude 順利完成了所有步驟。
AI代理成新戰場 OpenClaw引爆風潮
Anthropic 的最新更新,凸顯了科技巨頭正積極創造能夠全天候代表用戶自主執行任務的「AI 代理」。今年,隨著 OpenClaw 的發布並迅速走紅,代理能力成為業界焦點。OpenClaw 能夠連接 OpenAI 和 Anthropic 的模型,用戶僅需透過 WhatsApp 或 Telegram 等通訊軟體發送訊息,即可執行任務。與 Claude 的新功能相似,OpenClaw 在用戶設備上本地運行,使其能直接存取檔案。
這股熱潮引起了晶片巨頭的注意。輝達(Nvidia)行政總裁黃仁勳(Jensen Huang)上週向 CNBC 表示,OpenClaw「無疑是下一個 ChatGPT」,並隨即宣布推出企業級版本 NemoClaw。與此同時,OpenAI 也在上個月聘請了 OpenClaw 的創建者施泰因貝格(Peter Steinberger),意圖「推動下一代個人代理的發展」。
安全措施與早期階段警告
儘管功能強大,Anthropic 仍提醒用戶,與 Claude 已有的編寫程式碼或文本互動能力相比,電腦使用功能「仍處於早期階段」。該公司警告:「Claude 可能會犯錯,儘管我們不斷改進安全措施,但威脅也在不斷演變。」
Anthropic 補充,在開發過程中已「加入了將風險降至最低的安全措施」,例如 Claude 在存取新的應用程式前,總會先請求用戶許可。用戶可透過上週在 Claude Cowork 中發布的「Dispatch」功能,從手機或桌面與 Claude 進行持續對話,並向其分配代理任務。
來源:CNBC
封面來源:Adobe Stock

