WPK正版官網(wǎng)_WePoker下載-微撲克俱樂部加入Copyright ? WePoker. All Rights Reserverd. 簡體中文 和好朋友一起玩最快樂的德州撲克
在多模態(tài)文本嵌入(MTEB)跨語言場景下,Qwen3-Embedding 8B模型在多語言檢索任務(wù)中取得了69.02的高分,在中文檢索任務(wù)中得分達到77.45,在英文檢索任務(wù)中得分達到69.76。
阿里巴巴Qwen3-Reranker系列模型提供了三種不同參數(shù)規(guī)模的模型配置,分別為0.6B、4B和8B參數(shù),以滿足不同場景下的性能與效率需求。
Qwen3-Reranker 4B模型參數(shù)量為4B,性能匹敵Qwen2.5-72B-Instruct。Qwen3-Reranker 4B模型同樣具備32k的上下文長度,它通過多項架構(gòu)增強提升語義理解能力;Qwen3-Reranker 4B模型在AIME25(美國數(shù)學(xué)邀請賽)評測中得分為81.5,刷新了開源模型記錄,展現(xiàn)出強大的數(shù)學(xué)推理能力,能夠處理復(fù)雜的數(shù)學(xué)問題,進行嚴(yán)謹(jǐn)?shù)挠嬎愫投嗖酵评怼?/p>
二、32k長文檔精準(zhǔn)排序:Qwen3-Reranker支持法律科研檢索99%穩(wěn)定性
https://huggingface.co/collections/Qwen/qwen3-reranker-6841b22d0192d7ade9cdefea
同時,Qwen3-Embedding模型的開源免費策略顯著降低技術(shù)門檻,中小企業(yè)可零成本構(gòu)建文檔檢索、知識庫聚類等系統(tǒng),可能使多語言文本處理技術(shù)進入普惠化應(yīng)用階段。
Qwen3-Embedding模型采用三階段訓(xùn)練框架:首階段基于36萬億token多語言數(shù)據(jù)弱監(jiān)督預(yù)訓(xùn)練,第二階段融合MS MARCO標(biāo)注數(shù)據(jù)進行監(jiān)督微調(diào),最終通過模型融合技術(shù)提升泛化性。推理層面Qwen3-Embedding模型創(chuàng)新性支持自定義指令模板,使特定任務(wù)性能提升3%-5%。
阿里巴巴昨天正式推出Qwen3-Embedding文本向量模型,提供0.6B、4B、8B三檔參數(shù)規(guī)模,全面覆蓋輕量級邊緣計算到高性能云端場景。該模型支持119種自然語言及Python、Java等編程語言,并突破性地實現(xiàn)32k tokens長文本處理能力。
針對長文檔場景,Qwen3-Reranker模型集成RoPE位置編碼與雙塊注意(Dual Chunk Attention)機制,有效避免長程信息丟失,確保32k上下文內(nèi)語義連貫性。
阿里巴巴的開源策略激活開發(fā)者生態(tài),通過Hugging Face快速微調(diào)行業(yè)模型,阿里云API支持5行代碼接入,極大降低技術(shù)門檻。同時推動文本檢索從“關(guān)鍵詞匹配”升級至“語義理解+動態(tài)交互”,為AI Agent與多模態(tài)應(yīng)用奠定基礎(chǔ)。
▲Qwen3-Reranker的模型架構(gòu)
另外,Qwen3-Reranker模型或推動高精度檢索技術(shù)普及,企業(yè)知識庫問答準(zhǔn)確率提升40%,大幅降低人工成本;跨境電商實現(xiàn)119語言商品精準(zhǔn)搜索,誤檢率下降35%;科研法律領(lǐng)域長文檔檢索效率突破90%,加速信息提取。
Qwen3-Embedding 8B以70.58分登頂MTEB(當(dāng)前全球公認(rèn)的文本嵌入模型評測基準(zhǔn),通過整合檢索、聚類、分類等7大場景,系統(tǒng)評估向量模型的語義表征能力)多語言榜全球第一,創(chuàng)歷史新高(截至2025年6月6日);Qwen3-Reranker在mMARCO跨語言檢索中MRR@10達0.42,超越行業(yè)標(biāo)桿。雙模型支持119種語言及編程語言,提供0.6B/4B/8B全尺寸覆蓋,其中Reranker對100文檔排序延遲壓至80ms內(nèi)(A100),長文本處理突破32k上下文。即日起雙模型在Hugging Face/GitHub/ModelScope開源免費商用,阿里云API同步上線。
Qwen3-Embedding/Reranker通過“多語言+長文本+可定制”三位一體設(shè)計,解決了傳統(tǒng)文本處理模型泛化性差、成本高的痛點。其開源策略更將加速產(chǎn)業(yè)應(yīng)用創(chuàng)新,開發(fā)者可基于Hugging Face快速微調(diào),企業(yè)可通過阿里云API即時部署。阿里巴巴在文本嵌入領(lǐng)域的技術(shù)布局覆蓋從輕量級到高性能的全場景需求。
同時,Qwen3-Reranker模型支持任務(wù)指令微調(diào),開發(fā)者可通過自定義指令(如“按病例描述相關(guān)性排序”)優(yōu)化特定領(lǐng)域性能,實測可提升排序準(zhǔn)確率3%-5%,而競品如ColBERT缺乏此類功能。
▲Qwen3-Embedding與Qwen3-Reranker系列的訓(xùn)練流程
▲Qwen3 Embedding在多模態(tài)文本嵌入任務(wù)中表現(xiàn)的性能
Qwen3-Embedding和Qwen3-Reranker,均基于Qwen3基礎(chǔ)模型訓(xùn)練,專為文本表征、檢索與排序任務(wù)設(shè)計。其中,Qwen3-Embedding接收單段文本,將其轉(zhuǎn)換為語義向量,以用于語義搜索、問答系統(tǒng)等場景。Qwen3-Reranker則接收文本對,利用單塔結(jié)構(gòu)計算并輸出兩個文本的相關(guān)性得分,可在各類文本檢索場景中顯著提升搜索結(jié)果的相關(guān)性。在實際應(yīng)用中,二者常結(jié)合使用,比如在RAG系統(tǒng)里,Qwen3-Embedding用于初步檢索,Qwen3-Reranker用于優(yōu)化候選結(jié)果,兼顧效率和精度。
除此,技術(shù)報告還透露,Qwen3 Embedding依托Qwen3基座模型的深度語言理解能力,創(chuàng)新采用雙編碼器架構(gòu),能獨立處理查詢文本與文檔內(nèi)容,生成高精度語義向量。
技術(shù)報告特別提醒,在實際檢索場景中,建議應(yīng)用者根據(jù)具體任務(wù)、語言和場景設(shè)計指令模板,否則可能影響效果。這一細節(jié)可能反映出AI模型正從“通用泛化”向“精準(zhǔn)專用”演進,也為行業(yè)提供了新的優(yōu)化思路。
阿里巴巴的Qwen3-Reranker系列模型專門用于提升搜索和推薦系統(tǒng)相關(guān)性排序能力的模型,該系列提供0.6B/4B/8B三檔參數(shù)規(guī)模。Qwen3-Reranker系列模型專為文本表征、檢索與排序任務(wù)設(shè)計。該系列模型采用基于Qwen3基礎(chǔ)模型的稠密版本,并與Qwen3-Embedding模型協(xié)同構(gòu)建端到端檢索鏈路。
▲Qwen3-Embedding的模型架構(gòu)
Qwen3-Embedding的核心優(yōu)勢在于多語言深度適配(跨語言檢索誤差率降低30%)、長文本處理標(biāo)桿級能力(32k窗口+雙塊注意力機制),以及靈活定制化設(shè)計(競品如OpenAI text-embedding僅支持固定維度)。
智東西6月6日消息,昨天,阿里巴巴宣布推出Qwen3-Embedding和Qwen3-Reranker系列模型,正式發(fā)布Qwen3-Embedding和Qwen3-Reranker系列大模型技術(shù)報告,首次公開開源模型Qwen3-Embedding和Qwen3-Reranker的推理架構(gòu)、訓(xùn)練策略及評測結(jié)果。
Qwen3-Reranker 8B模型參數(shù)量為8B,上下文長度在標(biāo)準(zhǔn)配置下為32768個 Token;Qwen3-Reranker 8B在多語言檢索任務(wù)中取得了69.02分,性能超越bge-reranker-large等開源競品;在中文檢索任務(wù)中得分達到77.45,在英文檢索任務(wù)中得分達到69.76,顯著優(yōu)于傳統(tǒng)BM25和ColBERT等其他基線模型。
一、阿里巴巴發(fā)布Qwen3-Embedding模型,模型多語言得分超70
Qwen3-Reranker系列模型的32k tokens上下文窗口專為法律文書、科研論文等長文檔排序優(yōu)化,顯著提升長文本處理穩(wěn)定性。模型以Apache 2.0協(xié)議開源免費,開發(fā)者可通過Hugging Face、GitHub、ModelScope獲取,或通過阿里云API一鍵調(diào)用集成。
Qwen3-Embedding模型在代碼檢索(MTEB-Code)任務(wù)中,搜索精準(zhǔn)度排名第一。
結(jié)語:告別通用泛化!阿里報告揭示:文本處理進入精準(zhǔn)專用
智東西 編譯 金碧輝 編輯 程茜
Qwen3-Reranker 0.6B模型參數(shù)量為0.6B,屬于超小型模型,適合端側(cè)設(shè)備部署。其上下文長度達32k,采用基于Transformer的架構(gòu),以RMSNorm對層輸入進行歸一化,確保訓(xùn)練穩(wěn)定;Qwen3-Reranker 0.6B模型能無縫集成兩種思考模式,在保持推理效率的同時,展現(xiàn)出良好的多語言處理能力。
▲Qwen3-Embedding模型在MTEB多語言Leaderboard榜單中位列第一
▲圖源阿里巴巴Qwen3-Embedding和Qwen3-Reranker系列模型技術(shù)報告
目前Qwen3-Embedding模型以Apache 2.0協(xié)議免費開源,開發(fā)者可通過Hugging Face、ModelScope及阿里云API一鍵部署。
Qwen3-Reranker模型采用單塔交互結(jié)構(gòu),將用戶查詢與候選文檔拼接輸入,通過動態(tài)計算查詢-文檔交互特征輸出相關(guān)性得分,實現(xiàn)非靜態(tài)向量匹配的實時排序。
https://github.com/QwenLM/Qwen3-Embedding
▲Qwen3-Embedding在代碼檢索任務(wù)中表現(xiàn)的性能
在權(quán)威評測中,Qwen3-Embedding 8B版本以70.58分登頂MTEB多語言Leaderboard榜單(截至2025年6月6日),超越Google Gemini-Embedding等商業(yè)模型。