大家好,我是程序員魚皮。
最近 AI 圈兒也太鬧騰了,4 月 23 號 OpenAI 發布了 GPT-5.5,緊接著第二天 DeepSeek 就放出了 V4,兩個重磅模型前后腳上線。
![]()
光看跑分沒什么意思,模型好不好用,還得拿真實項目來檢驗。
正好 OpenAI 的 Codex 桌面端這段時間更新很猛,已經從一個純 AI 編程工具進化成了支持 Computer Use、插件市場、內置瀏覽器的「超級 App」。
所以這篇文章,我全程用 Codex + GPT-5.5 來開發一個完整的全棧項目,后端對接 DeepSeek V4 的 API 實現 AI 能力。
看完這期,你能學會 Codex 的使用方法、感受新模型的實際能力、掌握 AI 編程的實用技巧,可謂一舉三得。
點個收藏,咱們開始~
需求分析
這次要做的項目叫「項目學習助手」(project-helper),核心需求很簡單:
用戶輸入一個 GitHub 倉庫地址,系統自動克隆項目并分析源碼,生成一份通俗易懂的完整分析報告。報告涵蓋項目概述、技術棧、目錄結構、核心模塊、數據流、設計模式、閱讀建議等,真正做到「傻子也能懂」。分析過程實時推送進度,已經分析過的項目自動緩存,不用重復分析。
![]()
另外,用戶還可以針對源碼進行交互式問答,AI 會自主搜索代碼、讀取文件來回答問題,支持流式輸出。
這樣一來,你可以快速學會任何開源項目,哪怕面對幾萬行代碼的倉庫,也完全不虛。
方案設計
如果你完全沒有任何技術基礎,可以讓 AI 幫你完成方案設計。
但這里為了節省時間和 tokens,我直接告訴 AI 怎么做。
項目采用前后端分離架構:
后端用 Python FastAPI + LangChain + SQLite
前端用 Vue 框架
AI 能力對接 DeepSeek V4 的 API
AI 分析和 AI 問答能力的實現還是有點小技巧的,如果一個代碼倉庫有幾萬行,難道要全部扔給 AI 自己去分析么?
我的思路是, 采用 AI 工具調用(Tool Use)的方式,給 AI 提供讀取文件、搜索代碼、獲取倉庫結構等工具,剩下的交給 AI 自己判斷該看哪些文件、該怎么組織答案。這也是 DeepSeek V4 專門優化過的 Agentic 場景。
![]()
環境準備 Codex 配置
打開 Codex,首先確認模型列表里有 GPT-5.5。如果看不到,大概率是賬號的問題,可能需要開通更高級的會員,我這里用的是 Plus 會員。
![]()
可以看到界面上已經有了 GPT-5.5 模型選項,還支持調節智能程度(低 / 中 / 高 / 超高),我選擇「高」。
左下角進入設置,把工作模式切換為「用于編程」,這樣 AI 的回復會更專業、更適合開發場景:
![]()
安裝 AI 擴展
Codex 的 AI 擴展主要包括三類:
MCP 服務,用于連接外部工具連接
Agent Skills 技能包,讓 AI 學會特定的專業技能
Plugins 插件,給 AI 增加更多能力
官方自帶了一些內置的插件和技能,比如 Computer Use、Browser Use、PDF 處理、演示文稿編輯等:
![]()
![]()
不過這次項目需要的幾個擴展,Codex 默認沒有,得自己安裝。
我們需要下面 3 個擴展:
Firecrawl:聯網搜索和網頁抓取,讓 AI 能獲取最新的技術信息
Context7:查詢最新的技術文檔和 API 用法,減少 AI 瞎編的情況
UI UX Pro Max:前端美化技能,讓生成的頁面更有設計感
你可以在 Codex 設置里手動添加 MCP 服務:
![]()
但是,要手動填寫一堆參數,真特么麻煩啊!
![]()
雖然也可以直接編輯~/.codex/config.toml配置文件來添加 MCP 服務,但還是很麻煩。
這點上 Codex 的體驗不如 Copilot 和 Cursor 的可視化安裝,Copilot 甚至直接把 MCP 集成到了 VSCode 擴展市場里,一鍵搜索安裝就行。
好在我們可以換一種方式,用每個 AI 服務提供的命令來快速安裝。
1、安裝 Firecrawl
Firecrawl 是一個聯網搜索和網頁抓取工具,能讓 AI 在開發前先搜索最新的技術信息和文檔。我們的項目需要它來查詢 DeepSeek V4 的最新 API 用法。
打開終端,輸入下列命令:
npx -y firecrawl-cli@latest init --all --browser![]()
執行后,會自動打開瀏覽器,要在彈出的頁面中點擊授權:
![]()
安裝完成后,會自動注冊 12 個相關技能:
![]()
在 Codex 的技能管理中,就能看到新添加的 Firecrawl 相關技能了:
![]()
2、安裝 Context7
Context7 是一個技術文檔查詢工具,讓 AI 能獲取到各種框架和庫的最新官方文檔,避免用過時的 API 寫代碼。
先在終端輸入一行命令來安裝:
npx ctx7@latest setup
它會問是安裝 MCP 服務還是 CLI + Skills,這里我選擇 CLI + Skills。你會發現,現在越來越多工具已經從 MCP 轉向 CLI + Skills 的方式了:
![]()
同樣在彈出的網頁中授權,不用自己獲取和輸入 API Key,太方便了!
![]()
然后選擇要給哪個 AI 編程工具安裝,我選擇為 Codex 安裝:
![]()
安裝成功:
![]()
在 Codex 中確認已安裝的技能:
![]()
當然,你也可以選擇安裝 MCP Server 的方式:
![]()
安裝后,在 Codex 的 MCP 服務器設置里,就能看到 Context7 MCP 了,這不比自己手動填參數方便多了?
![]()
3、安裝 UI UX Pro Max
這是一個前端美化技能包,能讓 AI 生成的頁面更有設計感,不會有一大堆的 Emoji。
輸入一行命令:
uipro init
選擇為 Codex 安裝技能:
![]()
安裝成功:
![]()
在 Codex 的技能管理中,能看到新技能:
![]()
至此,環境準備完成!下次開發項目時,就不用再重復準備了~
新建一個project-helper項目文件夾,在 Codex 中打開:
![]()
然后輸入提示詞。這里分享一下我實際用的提示詞,給大家參考:
## 角色
你是一個全棧工程師,擅長 Python + FastAPI + LangChain 開發。
## 任務
開發一個叫 project-helper(項目學習助手)的 Web 應用,幫助用戶快速讀懂任意開源項目的源碼,傻子也能懂。
用戶輸入一個 GitHub 倉庫地址,系統自動克隆項目并分析源碼,生成一份通俗易懂的完整分析報告,涵蓋項目概述、技術棧、目錄結構、核心模塊、數據流、設計模式、閱讀建議等。分析過程實時推送進度,已分析過的項目自動緩存,無需重復分析。
用戶還可以針對源碼進行交互式問答,給 Agent 提供讀取文件、搜索代碼等工具,讓 AI 自主查找代碼來回答問題,支持流式輸出。
## 技術棧
-后端:Python FastAPI + LangChain + SQLite + 對接 DeepSeek V4 模型
-前端:Vue,前后端分離
## 要求1.頁面需要閱讀舒適,具有科技感,代碼塊有語法高亮,使用 UI UX Pro Max 技能美化頁面
2.開發前,先通過 Firecrawl 聯網搜索信息,通過 Context7 查詢最新技術文檔和用法
3.必須生成完整可運行的代碼,每步完成后必須自主測試驗證
簡單解讀一下這段提示詞的幾個要點:
角色定義放在最前面,讓 AI 進入全棧工程師的狀態
任務描述用自然語言把需求講清楚
技術棧只列關鍵選型,讓 AI 自己決定具體實現方案
最后兩條要求是關鍵,讓 AI 先查文檔再寫代碼,避免瞎編寫法;讓 AI 開發完后自主測試,減少翻車
模型我選擇 GPT-5.5,智能程度選「高」,權限給完全訪問(主要圖個省事兒):
![]()
注意,如果你想讓 AI 測試得更完整,可以先獲取好 DeepSeek 的 API Key 并直接寫在提示詞里。否則沒有 API Key,AI 是沒法完成大模型調用測試的。
把上述提示詞發送給 AI,接下來就是漫長的等待了。
我這次等了 9 分鐘,這期間一直在做提肛,有了 AI 編程后運動量也拉上來了~
AI 生成了完整的前端和后端項目代碼,還自動寫好了項目文檔:
![]()
點擊右上角可以查看生成的所有代碼文件,總共 19 個文件、1644 行代碼:
![]()
點擊右上角查看項目概覽,可以看到進度、生成結果、信息來源等。
注意看「來源」那欄,我們提供的 3 個技能 AI 都用上了。Firecrawl 用來搜索信息,UI UX Pro Max 用來美化頁面,Context7 用來查文檔:
![]()
感興趣的同學可以看下 AI 生成的核心代碼。比如問答模塊利用 LangChain 實現了一個能調用read_file(讀取文件)、grep_code(搜索代碼)、repo_map(獲取倉庫結構)這 3 個工具的 Agent,AI 會自主決定調用哪些工具來回答用戶的問題。
![]()
測試驗證
接下來需要獲取 DeepSeek 的 API Key,進入 DeepSeek 開放平臺,創建 API Key,記得不要泄露哦!
![]()
大家在使用某個 AI 大模型時,記得要關注一下價格。比如目前 DeepSeek 的 V4-Flash 百萬 tokens 輸入只要 1 元、輸出 2 元;V4-Pro 輸入 3 元、輸出 6 元(限時 2.5 折優惠到 5 月 5 號)。緩存命中的話更便宜,V4-Flash 輸入低至 0.02 元/百萬 tokens。
![]()
但是 DeepSeek 目前還沒有 Coding Plan,不太建議拿它來 AI 編程,估計消耗的 tokens 會讓很多同學吃不消。但是用它來做 AI 應用的大腦非常合適,性價比很高。
根據 AI 給出的指引,在 Codex 中打開終端,設置環境變量,把 API Key 改為你自己的:
exportDEEPSEEK_API_KEY=你的_key
exportDEEPSEEK_MODEL=deepseek-v4-pro![]()
不過這種export方式是臨時的,終端一關就沒了。
更好的做法是讓 AI 搞一個環境變量配置文件,我們手動填寫就行。
AI 很快完成了任務,新增了.env和.env.example環境變量文件:
![]()
注意,如果你的項目要開源,一定記得在.gitignore中忽略.env文件,防止 API Key 泄露到 GitHub 上。
然后直接在編輯器中打開.env文件,把 API Key 填進去:
![]()
配置完環境變量后,讓 AI 重啟項目:
![]()
接下來人工測試一下。打開網頁,輸入一個 GitHub 倉庫地址,比如我之前帶大家開發的 AI 零代碼應用生成平臺:
![]()
雖然頁面的布局和風格中規中矩,但功能是完全正常的。DeepSeek V4 生成的分析結果還挺靠譜的,包含了項目概述、技術棧分析:
![]()
還有核心模塊詳解、數據流分析、新手閱讀建議等等,內容是準確的,生成速度也比較快:
![]()
再來測試下源碼問答功能,問它:項目用了哪些設計模式?
AI 調用了工具自己去翻代碼,很快就列舉出來了,包括門面模式、策略模式等,每個模式都標注了對應的源碼文件路徑:
![]()
核心功能測試沒問題。但如果項目要正式上線,還要測試一堆邊界條件,比如倉庫不存在怎么辦?網絡斷了會不會崩?緩存命中的邏輯對不對?
一個個手動測太麻煩了,干脆直接讓 AI 幫忙。
Codex 內置了 Browser Use 插件,輸入@Browser Use使用插件,讓 AI 自主測試:
自主測試所有功能,出了問題自動修復,確保所有功能正常可用![]()
可以看到 AI 在 Codex 內部打開了一個瀏覽器,它會自己點擊頁面、輸入倉庫地址、查看分析結果、測試問答功能,全程自主操作。這期間我又做了一會兒提肛,提麻了。
![]()
等了大概 9 分鐘,AI 完成了端到端的自主測試,還修復了好幾個它自己發現的 Bug:
![]()
至此項目就開發完了,是不是很簡單?
你還可以繼續讓 AI 優化前端布局、給報告中增加 Mermaid 流程圖、支持導出報告文件等等,發揮想象力自由擴展吧~
我的感受
最后聊聊我用 Codex、GPT-5.5 和 DeepSeek V4 的真實感受。
先說 Codex,Codex 的界面主打一個簡潔,第一眼看上去甚至不像 AI 編程工具,更像個 AI 聊天助手。但功能其實比較完整,比如 MCP 和 Skills 擴展、插件市場、自動化、Git 集成、Browser Use、Computer Use,AI 編程所需的工程能力基本都具備了。
不過缺點也很明顯。默認可用的模型有限,不像 Cursor 和 Copilot 原生就整合了 Claude、GPT、Gemini 各種模型隨便切。易用性也差了一些,從 MCP 配置那里大家應該已經感受到了。Copilot 可以直接在擴展市場一鍵搜索安裝 MCP,Cursor 也支持可視化編輯 JSON 配置,Codex 這邊還得自己折騰命令行或者手寫 TOML。
![]()
再說說 GPT-5.5 模型。有一說一,我測了幾個全棧項目,并沒有明顯感受到 GPT-5.5 和 Claude Opus 模型的差距。只要提示詞到位,基本都能一把梭全棧項目的前端和后端,而且核心業務流程大概率一次性跑通。前端表現嘛,中規中矩,雖然實現了響應式,但 UI 沒有特別驚艷的地方。。。
![]()
再看看 GPT-5.5 的成本。以開發前面這個項目為例,共消耗了 13 萬 tokens,上下文用了 50%。Codex 桌面端目前上下文容量是 258K,開發簡單的全棧項目沒問題,但復雜工程項目可能會有壓力。
![]()
我目前開的是 GPT Plus 會員,一個月 20 刀(150 元左右),每 5 小時和每周有限額。做完這個項目,5 小時的額度基本就用完了,不算擴展功能的話,1 周差不多能做 5 個完整項目。
![]()
最后說說 DeepSeek V4。
我們團隊之前的業務有接入 DeepSeek V3,也在帶大家做的項目中用過 V3。這次把 V4 接到業務里,生成速度還是挺快的,效果比 V3 提升明顯,尤其是對代碼的理解和分析能力。而且有了 100 萬 tokens 的超長上下文支持,讓我們可以做更重的 AI 應用,比如深度研究、復雜項目源碼的全局分析等等。
看一下實際的 API 消耗,測試過程中用了 27 次請求,消耗了 5 萬多 tokens,花費 0.15 元。按正常用戶使用量算,一天 1000 次請求大約消耗 5.5 元,性價比很高。
![]()
總的來說,后續我不太會繼續用 Codex 來做日常 AI 編程,做復雜項目時會選擇 GPT-5.5 或 Claude Opus 模型,但開發 AI 應用時會優先對接 DeepSeek V4 的 API,便宜好用。
OK 就分享到這里,本文會收錄到我免費開源的,上千張圖、幾十萬字,帶你從 0 開始快速學會 AI 編程,做出自己的產品、跑通變現全流程,一次拿捏。
開源指路:https://github.com/liyupi/ai-guide
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.