<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      ollama v0.22.0 發布:新增 NVIDIA Nemotron 3 Omni 與 Poolside Laguna 模型支持,推理能力再升級!

      0
      分享至




      引言

      2026年4月29日,Ollama 團隊正式發布了 v0.22.0 版本。本次更新是一次意義重大的版本迭代,不僅引入了兩個重量級的新模型——NVIDIA 的 Nemotron 3 Omni 和 Poolside 的首個開源編碼模型 Laguna XS.2,還在推理控制、模型轉換、量化策略、MLX 后端性能、內置解析器等多個核心模塊進行了深度優化。

      本文將基于 v0.22.0 的完整變更日志,為您詳細解讀本次更新的每一個技術細節,幫助開發者全面理解新版本的能力邊界和使用方法。

      一、新模型支持:兩大重量級模型登場 1.1 NVIDIA Nemotron 3 Omni

      v0.22.0 引入了對 NVIDIA Nemotron 3 Omni 系列模型的原生支持。這是一個多模態模型家族,在代碼中對應的架構標識為nemotron_h_omni。該模型支持:

      • ?文本生成:基于 Nemotron-H 架構的 LLM 核心

      • ?視覺理解:集成了 Vision Transformer(ViT)模塊,支持圖像輸入

      • ?音頻處理:集成了 Parakeet 音頻編碼器,支持語音輸入

      在轉換器(converter)層面,新增了convert/convert_nemotron_h.goconvert/convert_nemotron_h_test.go兩個文件(共約 700 行代碼),專門處理 Nemotron 系列模型的權重映射和參數轉換。

      關鍵配置參數包括:

      • ?max_sequence_length: 131072(128K 上下文)

      • ?vision.image_size: 512

      • ?vision.patch_size: 16

      • ?audio.sample_rate: 16000

      1.2 Poolside Laguna XS.2

      Poolside 的首個開源權重編碼模型 Laguna XS.2 也獲得了完整支持。這是一個專注于代碼生成和軟件工程任務的模型,架構標識為LagunaForCausalLM。

      新增的模型支持文件包括:

      • ?model/models/laguna/model.go(約 440 行):Laguna 模型的 MLX 實現

      • ?convert/convert_laguna.go(約 600 行):GGUF 轉換邏輯

      • ?model/parsers/laguna.go(約 500 行):專用的輸出解析器

      • ?model/renderers/laguna.go(約 110 行):模板渲染器

      Laguna 模型采用了混合專家(MoE)架構,支持動態稀疏層的推理優化。其配置包括:

      • ? 逐層可變的注意力頭數(head_count 為數組而非固定值)

      • ? 滑動窗口注意力(sliding window)模式

      • ? 旋轉位置編碼(RoPE)支持全維度和 SWA 兩套參數

      二、推理控制增強:新增 "max" 思考級別 2.1 API 層面的變更

      api/types.go中,ThinkValue類型現在支持一個全新的字符串值"max"。這意味著思考級別從原來的high/medium/low三個檔位擴展為四個:

      // ThinkValue represents a value that can be a boolean or a string ("high", "medium", "low", "max")
      type ThinkValue struct {
      Value interface{}
      }

      驗證邏輯已同步更新:

      case string:
      return v == "high" || v == "medium" || v == "low" || v == "max"
      2.2 OpenAI 兼容接口映射

      openai/openai.go中,OpenAI 風格的reasoning_effort參數現在也支持"max"值:

      if !slices.Contains([]string{"high", "medium", "low", "max", "none"}, effort) {
      return nil, fmt.Errorf("invalid reasoning value: '%s' (must be \"high\", \"medium\", \"low\", \"max\", or \"none\")", effort)
      }

      reasoning_effort"none"時,思考功能被禁用;其他字符串值(包括"max")則按原樣傳遞。

      Responses API 也同步支持了max

      case "low", "medium", "high", "max":
      think = &api.ThinkValue{Value: effort}
      2.3 CLI 命令行支持

      cmd/cmd.go中的--think參數現在接受max作為合法值:

      case "high", "medium", "low", "max":
      opts.Think = &api.ThinkValue{Value: thinkStr}
      三、MLX 后端重大改進 3.1 采樣器歷史記錄優化

      mlxrunner: track sampler history in a fixed-size ring buffer

      采樣器現在使用固定大小的環形緩沖區來追蹤 token 歷史,而不是無限增長的切片。這顯著降低了長時間運行時的內存占用。

      3.2 批量采樣優化

      mlxrunner: batch the sampler across multiple sequences

      采樣器現在支持批量處理多個序列,將多個獨立生成請求的采樣操作合并為一次矩陣運算。這在處理并行請求時能大幅提升吞吐量。

      3.3 采樣器核心重構

      x/mlxrunner/sample/sample.go進行了大規模重構(+415/-122 行),主要改進包括:

      • ?多槽位(multi-slot)支持:采樣器現在可以管理多個獨立的生成會話,每個槽位有自己的歷史記錄和采樣參數

      • ?批量 Logprob 計算:當多個槽位同時請求 logprobs 時,一次性完成 softmax 和 log 計算

      • ?TopK/TopP 采樣優化:使用 MLX 原生的 argpartition 操作,避免顯式的完整排序

      新增的Add(slot int, opts Options, history []int32)方法用于注冊采樣槽位,Sample(slots []int, logits *mlx.Array)方法支持批量采樣。

      3.4 新增 Softplus 激活函數

      x/mlxrunner/mlx/act.go新增了SoftplusF32函數:

      var SoftplusF32 = Compile1(
      "SoftplusF32",
      func(x *Array) *Array {
      dt := x.DType()
      zero := FromValue[float32](0)
      return Logaddexp(x.AsType(DTypeFloat32), zero).AsType(dt)
      },
      Shapeless(),
      )

      這個函數以 float32 精度計算 softplus,然后轉換回原始數據類型,用于 Laguna 模型的注意力門控機制。

      3.5 TensorRT Model Optimizer 導入支持

      mlx: Support NVIDIA TensorRT Model Optimizer import

      MLX 后端現在可以直接導入由 NVIDIA TensorRT Model Optimizer 導出的 FP8 量化模型。導入器會自動識別并處理F8_E4M3類型的張量及其配套的 scale 張量。

      四、Tokenizer 多正則表達式偏移處理修復

      tokenizer: fix multi-regex BPE offset handling

      這是一個重要的 bug 修復。在tokenizer/bytepairencoding.go中,原來的多正則表達式匹配邏輯在處理重疊匹配時存在偏移量計算錯誤:

      修復前:

      if offset-m.Index != 0 {
      if !yield(string(r[:m.Index])) {

      修復后:

      if offset-m.Index != 0 {
      if !yield(string(r[offset:m.Index])) {

      這個修復確保在使用多個正則表達式進行 BPE 預分詞時,每個匹配片段都是從正確的偏移位置開始提取的,避免了 token 邊界錯位的問題。

      配套的測試用例TestBytePairEncodingSplitMultipleRegexpsPreservesOffsets驗證了修復的正確性。

      五、FP8 張量支持全面增強 5.1 Safetensors FP8 讀取

      convert/reader_safetensors.go大幅更新(+416/-13 行),新增了對 FP8 格式的完整支持:

      • ? 支持F8_E4M3F8_E5M2數據類型

      • ? 自動查找配套的 scale 張量(支持*_scale_inv*_scale兩種命名)

      • ? 讀取模型配置中的compression_config.weight.block_structure獲取分塊大小

      • ? 將 FP8 張量轉換為 BF16/FP32 進行后續處理

      5.2 GGUF 輸出標記

      convert/tensor.go中,新增了sourceTensorKV函數,用于在輸出的 GGUF 文件中標記哪些張量來自 FP8 源:

      func sourceTensorKV(ts []*ggml.Tensor) KV {
      // ...
      return KV{
      "source_quantization": "hf_fp8",
      "source_fp8_tensors": slices.Sorted(maps.Keys(sourceFP8)),
      }
      }

      這些元數據在后續的量化過程中會被讀取,用于決定哪些張量應該被量化、哪些應該保持原始精度。

      5.3 量化策略適配

      server/quantization.go新增了sourceFP8Tensors跟蹤:

      type quantizeState struct {
      // ...
      preserveSourceFP8ToQ8 bool
      preserveSourceQ4 bool
      sourceFP8Tensors map[string]struct{}
      }

      當用戶請求Q8_0量化時,只有來自 FP8 源的張量會被量化,其他 BF16 張量保持原樣。當用戶請求Q4_K_MQ4_K_S時,非 FP8 源張量被提升到Q8_0以保護精度。

      六、Nemotron-3-Nano 解析器增強

      model/parsers/nemotron3nano.go進行了多項改進:

      6.1 前導空格處理

      新增skipThinkingLeadingWS標志,用于跳過思考內容開頭的空白字符。當解析器處于Nemotron3NanoCollectingThinking狀態時,會 trim 掉 buffer 中的所有前導空格。

      6.2 開標簽邊界情況修復

      新增stripOpeningThinkTag()方法,處理 標簽跨 chunk 傳輸的場景。當 buffer 中的內容與 標簽有部分重疊時,解析器會等待完整標簽到達后再進行處理。

      測試用例TestNemotron3NanoParser_Streaming/leading_open_think_tag_split_across_chunks驗證了此場景。

      6.3 空思考塊處理

      現在解析器能夠正確處理 這樣的空思考塊,直接跳過而不產生空內容。

      七、渲染器改進 7.1 Nemotron-3-Nano 渲染器

      model/renderers/nemotron3nano.go進行了大規模重構(+263/-34 行),主要變更包括:

      • ?工具調用格式修正:函數調用輸出格式調整為 XML 風格,與模型的訓練數據對齊

      • ?思考標簽處理:歷史消息中的 thinking 內容被正確包裹在 標簽中

      • ?截斷策略:對于歷史中較早的 assistant 消息,只保留工具調用結果而裁剪思考內容,節省上下文空間

      7.2 Laguna 渲染器

      新增的LagunaRenderer實現了 Laguna 模型的對話模板:

      • ? 使用〈|EOS|〉作為 BOS 標記

      • ? 系統消息中包含思考模式指令

      • ? 工具調用格式為 + + 的結構

      • ? 用戶消息包裹在 標簽中

      • ? 助手消息包裹在 標簽中

      7.3 Renderer/Detect 自動匹配

      server/create.go中,模型創建時會根據架構自動設置默認的渲染器和解析器:

      case "laguna":
      config.Renderer = cmp.Or(config.Renderer, "laguna")
      config.Parser = cmp.Or(config.Parser, "laguna")
      case "nemotron_h", "nemotron_h_moe", "nemotron_h_omni":
      config.Renderer = cmp.Or(config.Renderer, "nemotron-3-nano")
      config.Parser = cmp.Or(config.Parser, "nemotron-3-nano")
      八、Poolside 集成 8.1 新的 launch 集成

      cmd/launch/poolside.go新增了對 Poolside CLI 工具的支持。用戶可以通過以下命令使用:

      ollama launch pool
      ollama launch pool --model kimi-k2.6:cloud
      ollama launch pool -- --help
      8.2 環境變量自動配置

      集成會自動設置以下環境變量:

      • ?POOLSIDE_STANDALONE_BASE_URL: 指向 Ollama 的 OpenAI 兼容端點

      • ?POOLSIDE_API_KEY: 設置為ollama

      8.3 Windows 平臺保護

      由于 Poolside 目前不兼容 Windows,在 Windows 系統上該集成會被自動隱藏,調用時會返回明確的錯誤提示。

      文檔更新:新增docs/integrations/poolside.mdx,包含安裝和使用說明。

      九、Safetensors 導入增強 9.1 新增數據類型支持

      x/create/dtype.go新增了 FP8 和 U8/I8 類型的尺寸定義:

      case "U8", "I8":
      return 1, nil
      case "F8_E4M3", "F8_E5M2", "F8_E4M3FN", "F8_E5M2FNUZ":
      return 1, nil
      9.2 Laguna 專用導入轉換器

      新增x/create/laguna.go,實現了 Laguna 模型的特殊導入邏輯:

      • ?路由專家權重識別:通過.mlp.experts.路徑識別 MoE 層的路由專家

      • ?NVFP4 導入優化:當請求nvfp4量化時,down_proj權重被保留為mxfp8格式以保持精度

      • ?量化決策:路由專家參與量化,共享專家和注意力層保持 BF16

      9.3 導入能力推斷

      x/create/client/create.go中的inferSafetensorsCapabilities函數現在會參考解析器的能力:

      • ? 如果解析器支持工具調用,則添加tools能力

      • ? 如果解析器支持思考,則添加thinking能力

      十、Logprobs 與內置解析器兼容性

      server: preserve generate logprobs with builtin parsers

      這是一個重要的用戶體驗修復。之前當使用內置解析器(如 Nemotron-3-Nano 或 Laguna 解析器)時,生成響應中的 logprobs 會被丟棄,因為解析器會緩沖內容直到檢測到完整的語義單元。

      修復后,在server/routes.go的 GenerateHandler 中:

      if builtinParser != nil {
      // Emit chunks that carry logprobs even if the parser is still buffering
      if res.Response != "" || res.Thinking != "" || res.Done || len(res.ToolCalls) > 0 || len(res.Logprobs) > 0 {
      ch <- res
      }
      }

      現在只要 chunk 中包含 logprobs,即使沒有新的文本內容,也會被發送給客戶端。

      配套測試TestGenerateLogprobsWithBuiltinParser驗證了此功能。

      十一、架構兼容性標記 11.1 強制單并行請求

      server/sched.go中,nemotron_h_omni被加入到了需要強制num_parallel = 1的架構列表中:

      if slices.Contains([]string{..., "nemotron_h", "nemotron_h_moe", "nemotron_h_omni"}, req.model.Config.ModelFamily) && numParallel != 1 {
      numParallel = 1
      }

      這是因為多模態模型和 MoE 結構在并行處理時存在狀態同步問題。

      11.2 FlashAttention 支持

      fs/ggml/ggml.go中,nemotron_h_omni被加入了啟用 FlashAttention 的架構列表:

      case "nemotron_h", "nemotron_h_moe", "nemotron_h_omni":
      // FlashAttention enabled
      十二、Harmony 后端適配

      server/routes.goserver/routes.go中的shouldUseHarmony邏輯進行了調整:

      • ? 當think.Value為字符串"max"時,在傳遞給 Harmony 后端之前映射為"high"

      • ? Harmony 的 Parser 只在未顯式配置時才設置為"harmony"

      這確保了 Harmony 后端在接收到max思考級別時不會報錯。

      十三、MLX 圖像生成兼容性

      x/imagegen/safetensors/safetensors.go中新增了 FP8 數據類型的映射:

      case "F8_E4M3", "F8_E5M2", "F8_E4M3FN", "F8_E5M2FNUZ":
      return mlx.DtypeUint8 // FP8 types stored as raw uint8 bytes

      這為未來在 MLX 后端支持 FP8 圖像生成模型奠定了基礎。

      十四、代碼統計總覽

      本次更新共涉及:

      • ?14 個 commits

      • ?90 個文件變更

      • ?5 位貢獻者

      • ?+13,915 行代碼新增

      • ?-1,190 行代碼刪除

      主要變更模塊分布:

      • ?convert/: +1,500 行(FP8 支持 + Nemotron/Laguna 轉換)

      • ?model/models/: +2,800 行(Laguna + Nemotron Omni 模型實現)

      • ?x/mlxrunner/: +1,200 行(采樣器重構 + Pipeline 優化)

      • ?x/create/: +900 行(Laguna 導入 + Safetensors 增強)

      • ?cmd/launch/: +200 行(Poolside 集成)

      十五、升級建議 15.1 兼容性說明
      • ? 所有 v0.22.0 之前創建的模型均可繼續使用

      • ? 新版本生成的 GGUF 文件與舊版本不兼容(由于新增了source_quantization等 KV 元數據)

      • ? Windows 平臺的 Poolside 集成暫不可用

      15.2 推薦使用場景
      1. 1.需要更強推理能力的應用:使用think: "max"級別調用 Nemotron 或 Laguna 模型

      2. 2.多模態應用:Nemotron 3 Omni 支持圖文語音輸入

      3. 3.代碼生成場景:Poolside Laguna 專為代碼任務訓練

      4. 4.高吞吐量場景:升級后 MLX 后端的批量采樣能力可提升 2-3 倍

      15.3 量化建議

      對于從 FP8 源導入的模型:

      • ? 使用Q8_0量化可獲得最佳精度保持

      • ? 使用Q4_K_M時,路由專家使用 Q4,注意力層使用 Q8

      • ? 使用Q4_K_S時,淺層專家的 down_proj 使用 Q5

      結語

      代碼地址:github.com/ollama/ollama

      Ollama v0.22.0 是一次功能密集、質量優先的版本發布。NVIDIA 和 Poolside 兩大模型的支持極大地擴展了 Ollama 的應用邊界,而 MLX 后端的采樣器重構、FP8 導入的完善、以及解析器/渲染器的增強,都體現了項目對生產級穩定性和用戶體驗的重視。

      我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業洞察。 歡迎關注“福大大架構師每日一題”,發消息可獲得面試資料,讓AI助力您的未來發展。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      球隊高管:詹姆斯能賣票簽他穩賺 只要是一年合同他要多少給多少

      球隊高管:詹姆斯能賣票簽他穩賺 只要是一年合同他要多少給多少

      羅說NBA
      2026-05-15 20:13:16
      中美關系新定位,“三字之變,穩字當頭”

      中美關系新定位,“三字之變,穩字當頭”

      中國新聞周刊
      2026-05-15 20:55:06
      故宮建造時使用的木材,來自哪里?為何這些木材至今沒有腐爛

      故宮建造時使用的木材,來自哪里?為何這些木材至今沒有腐爛

      云霄紀史觀
      2026-05-15 01:49:45
      1.4億歐!巴黎簽阿爾瓦雷斯!

      1.4億歐!巴黎簽阿爾瓦雷斯!

      足球王國
      2026-05-15 13:07:13
      世界超級摩托車錦標賽捷克站:“張雪機車”位列超級桿位賽第三名

      世界超級摩托車錦標賽捷克站:“張雪機車”位列超級桿位賽第三名

      新京報
      2026-05-15 21:22:10
      4000萬年薪泡湯?倫敦之夜,張本宇看兒女慘敗,紅著眼眶收拾書包。

      4000萬年薪泡湯?倫敦之夜,張本宇看兒女慘敗,紅著眼眶收拾書包。

      最愛乒乓球
      2026-05-15 00:08:05
      世界第1粉碎日本爭冠希望!石宇奇2-1渡邊航貴,晉級男單四強

      世界第1粉碎日本爭冠希望!石宇奇2-1渡邊航貴,晉級男單四強

      釘釘陌上花開
      2026-05-15 18:19:32
      中美會談圓滿后,中方當面對臺灣問題定調,特朗普反應耐人尋味

      中美會談圓滿后,中方當面對臺灣問題定調,特朗普反應耐人尋味

      顧史
      2026-05-15 17:06:04
      最高院:提供 “口交” “肛交”等進入式性服務,是否屬賣淫行為?

      最高院:提供 “口交” “肛交”等進入式性服務,是否屬賣淫行為?

      周軍律師聊案子
      2026-04-21 09:50:16
      女娃被鎖車里絕望喝光3瓶水,都沒有等到打麻將的父母想起她

      女娃被鎖車里絕望喝光3瓶水,都沒有等到打麻將的父母想起她

      第四思維
      2025-07-15 13:16:45
      今天全世界都在看的新聞 2026.5.15

      今天全世界都在看的新聞 2026.5.15

      鳳凰衛視
      2026-05-15 16:50:16
      特朗普結束訪華,大贊中南海景致:若待得慣都不想走

      特朗普結束訪華,大贊中南海景致:若待得慣都不想走

      澎湃新聞
      2026-05-15 18:28:12
      第一次感受到“荔枝核的威力”,泡水里20天,長成“粉盆栽”

      第一次感受到“荔枝核的威力”,泡水里20天,長成“粉盆栽”

      美家指南
      2026-05-15 15:27:43
      突發! 韓國股市重挫6% 觸發熔斷

      突發! 韓國股市重挫6% 觸發熔斷

      每日經濟新聞
      2026-05-15 13:55:21
      12小時航程1萬公里,全程不加油,特朗普的空軍一號,我國能造嗎

      12小時航程1萬公里,全程不加油,特朗普的空軍一號,我國能造嗎

      泠泠說史
      2026-05-14 21:50:29
      南京4個區,區政府主要領導調整

      南京4個區,區政府主要領導調整

      上觀新聞
      2026-05-15 18:08:13
      支付寶回應“扣款捐贈184萬元”:涉事賬戶存在與他人共用嫌疑,正在向警方尋求幫助

      支付寶回應“扣款捐贈184萬元”:涉事賬戶存在與他人共用嫌疑,正在向警方尋求幫助

      每日經濟新聞
      2026-05-15 13:22:06
      國際足聯秘書長回應央視世界杯版權費用:不能透露細節,“只能說我們對協議非常滿意,很高興能繼續合作,將足球賽事帶給所有中國的球迷”

      國際足聯秘書長回應央視世界杯版權費用:不能透露細節,“只能說我們對協議非常滿意,很高興能繼續合作,將足球賽事帶給所有中國的球迷”

      大風新聞
      2026-05-15 19:27:07
      14歲男生被蛇咬后淡定上課,看黑板模糊以為是近視,下午就醫才發現是銀環蛇咬的,醫生:再晚一兩個小時,后果不堪設想

      14歲男生被蛇咬后淡定上課,看黑板模糊以為是近視,下午就醫才發現是銀環蛇咬的,醫生:再晚一兩個小時,后果不堪設想

      揚子晚報
      2026-05-15 10:20:33
      R馬不滿落選哥倫比亞名單:我在沙特聯進球如麻;關鍵戰我從沒慫過

      R馬不滿落選哥倫比亞名單:我在沙特聯進球如麻;關鍵戰我從沒慫過

      懂球帝
      2026-05-15 16:57:22
      2026-05-15 21:44:49
      moonfdd incentive-icons
      moonfdd
      福大大架構師每日一題
      1227文章數 68關注度
      往期回顧 全部

      科技要聞

      直降千元起步!蘋果華為率先開啟618讓利

      頭條要聞

      生產成本疑不足40元 "童鞋界愛馬仕"泰蘭尼斯廣告翻車

      頭條要聞

      生產成本疑不足40元 "童鞋界愛馬仕"泰蘭尼斯廣告翻車

      體育要聞

      德約科維奇買的球隊,從第6級聯賽升入法甲

      娛樂要聞

      方媛為何要來《桃花塢6》沒苦硬吃?

      財經要聞

      騰訊掉隊,馬化騰戳破真相

      汽車要聞

      高爾夫GTI刷新紐北紀錄 ID. Polo GTI迎全球首秀

      態度原創

      時尚
      健康
      本地
      房產
      公開課

      日常衣服千萬不用買太貴,準備幾件白色T恤,清爽百搭又實用

      專家揭秘干細胞回輸的安全風險

      本地新聞

      用蘇繡的方式,打開江西婺源

      房產要聞

      老黃埔熱銷之下,珠江春,為何去化僅3成?

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 韩国福利一区二区美女视频 | 欧美特黄一免在线观看| 国产成人亚洲精品在线看| 亚洲AV熟女| 中文字幕亚洲乱码熟女在线| 久艾草在线精品视频在线观看 | 亚洲小说区图片区色综合网| 日本欧美久久久久免费播放网| 午夜福利小视频400| 日韩无码综合| 99九九成人免费视频精品| 亚洲精品国模一区二区| 九色九九九老阿姨| 熟女中文字幕丝袜日韩| 精选国产av精选一区二区三区| 国产二区三区不卡免费| 69影院少妇在线观看| 在线永久免费观看日韩a| 国产 高清 无码 在线播放| 天天爽天天爽夜夜爽毛片| 亚洲色无码播放亚洲成av| 国内自产少妇自拍区免费| 爱爱福利社| 久久大香香蕉国产| 欧美老少配性行为| 日本成人| 国产成人AV无码精品天堂| 亚洲国产av无码精品无广告| 亚洲熟妇AV一区二区午夜景院| 岛国大片在线免费播放| 国产成人无码免费视频97| 中文字幕无码av激情不卡| 自拍偷在线精品自拍偷无码专区| 国产一区二区在线观看app| 无码日韩人妻AV一区免费| 最新A片| 亚洲精品少妇高清30p | 久久久国产精品人人片| 国产大屁股视频免费区| 精品在免费线中文字幕久久| 91欧洲在线视精品在亚洲|