![]()
智東西
作者 程茜
編輯 李水青
DeepSeek版Claude Code爆了!
智東西5月6日消息,今日,美國獨立開發者Hunter Bown的開源項目DeepSeek-TUI在GitHub上爆了,沖上GitHub熱榜第一,今天Star數上漲2434,總Star數已超10.2k。
![]()
這一項目是基于DeepSeek-V4的終端原生編程Agent,其允許開發人員直接在終端與DeepSeek聊天、編輯文件、運行shell命令、管理任務,甚至協調代碼庫中的子Agent。
![]()
今早,DeepSeek-TUI更新了0.8.13新版本,聚焦運行時和TUI相關問題修復,提示詞規范優化、運行軌跡日志、Anthropic接口兼容支持以及大規模界面整理優化,均已延后至后續版本發布。
值得一提的是,DeepSeek-TUI的開發者并不是專業人士,Bown的本碩專業與編程無關,Bown 2015年獲得北得克薩斯大學音樂教育學士,2019年在南方衛理公會大學獲得音樂教育碩士,目前就讀于美國南方衛理公會大學Dedman法學院。
該項目2026年1月發布,伴隨今年4月底DeepSeek-V4升級、Bown在X上發帖想和中國開發者建聯而走紅,他稱中國開發者為“鯨魚兄弟”。
![]()
X上網友分享,Bown已經成功擁有微信賬號,并和中國開發者交流起來了。
![]()
在DeepSeek-TUI開源主頁的貢獻者名單中,還有Claude、Gemini。
![]()
一站式全能調度智能Agent終端Tday開源項目的作者發帖稱,他成功將DeepSeek-TUI集成到Tday后,其體驗表現出極高的穩健性,配合DeepSeek-v4-flash時,速度非常接近開源AI編程智能體OpenCode。
![]()
Claude Design的開源替代方案Nexu作者稱,這是首次在代碼智能Agent的終端環境中直接運行DeepSeek-V4,他們測試的效果相當不錯。
![]()
有網友在下面詢問,Bown稱自己是用DeepSeek開發的這個項目,Bown回答是的。
![]()
還有網友詢問Bown帖子里說的“鯨魚兄弟”來源,感覺這個稱呼很有喜感。
![]()
不過,也有網友認為DeepSeek-TUI火得莫名其妙:“為什么要拋棄一個已有成熟方案的產品,轉向沒有穩定的產品?”
![]()
一、基于DeepSeek-V4構建,還專門發了中國開發者友好版本
DeepSeek-TUI是基于DeepSeek-V4構建的終端編程智能體,具備100萬token上下文窗口、流式推理塊和前綴緩存感知成本報告的能力。
具體而言,其可讀取與編輯文件、執行終端命令、聯網檢索、管理Git版本庫,并能在鍵盤交互的終端界面(TUI)中調度多個子智能Agent協同工作。
網友評價DeepSeek-TUI的界面布局一目了然,但缺點是對話區中AI輸出和用戶輸入的分界不明顯。
![]()
有網友用DeepSeek官方API進行了對比,相比Claude Code,DeepSeek-TUI在跑長時長任務時,緩存命中率會下降。
![]()
DeepSeek-TUI的架構如下:DeepSeek調度命令行→DeepSeek-TUI配套程序→終端圖形界面?異步引擎?兼容OpenAI協議的流式客戶端。
工具調用通過類型化注冊中心流轉,包含終端命令、文件操作、Git版本管理、聯網檢索、子智能體、MCP協議、RLM大模型,執行結果以流式方式回寫到對話日志中。
引擎負責管理會話狀態、對話輪次、持久化任務隊列,還內置LSP語言服務子系統;代碼編輯完成后,會先把語法診斷信息送入大模型上下文,再進行下一步邏輯推理。
DeepSeek-TUI的開源主頁還有對中國開發者的鏡像友好安裝版本:
![]()
二、共三大運行模式,還能自適應調整推理等級
在開源項目主頁,Bown專門用中文寫了README.zh-CN.md文件,其中提到DeepSeek-TUI的主要特點包括:
![]()
自動模式:用戶可以通過model auto指令啟用自動模式,該工具會在每一輪交互中自動適配選擇合適大模型,并匹配對應的推理思考等級。
切換推理等級:用戶可以通過按下Shift+Tab快捷鍵循環切換推理等級,分別為關閉推理→高推理強度→最高推理強度。
推理流式輸出:其會將模型進行思考推理的過程進行實時流式展示,可直觀看到DeepSeek的完整邏輯推理步驟。
全量工具能力:內置完整工具集,支持文件讀寫操作、終端命令執行、Git版本管理、網頁搜索與網頁瀏覽、補丁應用、子智能Agent調度,以及MCP協議服務器連接。
百萬token上下文:具備上下文內容追蹤、手動/自動配置內容壓縮功能,同時提供前綴緩存監控統計能力。
內置三大運行模式:規劃模式(僅只讀查閱項目代碼與文件)、Agent模式(交互操作且需手動審批)、極簡自動模式(全部操作自動審批執行)。
會話保存與接續:支持為長時間運行的工作會話創建檢查點,隨時保存進度,后續可一鍵恢復接續會話繼續工作。
工作區版本回滾:項目會內置獨立快照Git機制,在每輪操作前后自動生成項目快照,通過/restore和revert_turn命令即可回滾操作,不會改動項目原生的Git倉庫配置。
持久化任務隊列:后臺運行的任務支持持久化保存,程序重啟后,未完成的后臺任務可自動繼續執行。
HTTP/SSE運行接口:支持通過deepseek serve—http啟動服務,提供HTTP、SSE接口,適配無圖形界面的無頭自動化代理工作流。
MCP模型上下文協議:可連接Model Context Protocol模型上下文協議服務器,擴展更多第三方工具能力。
原生RLM批量查詢:內置rlm_query原生能力,復用同一API客戶端,調用輕量化低成本的deepseek-v4-flash模型,高效完成批量代碼與數據分析任務。
LSP代碼診斷:依托rust-analyzer、pyright、typescript-language-server、gopls、clangd等主流語言服務工具,每次編輯代碼后,都會在界面內實時展示代碼錯誤與警告信息。
用戶個性化記憶:用戶可開啟持久化備注文件功能,自定義的偏好設置會注入系統提示詞,實現跨會話保留個人使用習慣與配置偏好。
多語言界面本地化:支持英文、日文、簡體中文、巴西葡萄牙語四種界面語言,可自動識別系統語言適配切換。
實時費用統計:實時統計每一輪交互及整個會話的token消耗、預估使用成本,同時細化展示緩存命中與緩存未命中的明細數據。
技能擴展系統:支持從GitHub安裝、組合自定義指令技能包,可靈活擴展工具能力,全程無需依賴額外后端服務。
今早,DeepSeek-TUI更新了0.8.13新版本,聚焦運行時和TUI相關問題修復:
額外更新包括在壓縮前對無LLM工具結果進行剪枝:在付費摘要處理之前,對舊的詳細工具結果進行機械式摘要。重復讀取保留最新的完整數據體,并將舊的副本替換為單行摘要;如果這樣能使會話大小回到壓縮閾值以下,則完全跳過LLM摘要調用。
重復工具防環保護裝置:每個用戶回合都會生成(tool_name,args)對參數。在第三次相同的調用時,它會插入一個合成的糾錯工具結果,而不是再次運行相同的工具而不做任何更改;如果某個工具出現故障,則會在三次調用時發出警告,并在八次調用時停止。
V4緩存命中遙測兼容兜底適配:用量解析現已支持識別 usage.prompt_tokens_details.cached_tokens字段,因此底部狀態欄現有的緩存命中標識組件,既能適配DeepSeek-V4自動前綴緩存的遙測數據,也能兼容舊版明確的緩存命中/未命中字段格式。
結語:想打造Claude Code平替,但穩定性存疑
Claude Code這樣的專有系統通常需要付費API訪問,且運行在較為封閉的生態系統中,而DeepSeek-TUI的出現或能為打破這種局面提供參考,依托DeepSeek的低成本模型堆棧,以更低成本提供類似的工作流程。但開發者仍然不能這類不穩定開源項目背后的風險。
不過,這一開源項目的爆火,無疑也從側面印證了DeepSeek-V4的影響力,其為更多開發者提供了低成本搭建終端智能編程體、自主定制開發工作流的全新可能。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.