本文分類:news發(fā)布日期:2026/3/2 4:41:22
相關(guān)文章
混元翻譯1.5模型部署:Google Cloud配置
混元翻譯1.5模型部署:Google Cloud配置 1. 引言
隨著全球化進程的加速,高質(zhì)量、低延遲的機器翻譯需求日益增長。騰訊開源的混元翻譯大模型(HY-MT1.5)應(yīng)運而生,旨在為多語言互譯場景提供高性能、可定制、易部署的解決方…
建站知識
2026/2/1 18:57:36
UI-TARS 72B:AI自動操控GUI的全新突破
UI-TARS 72B:AI自動操控GUI的全新突破 【免費下載鏈接】UI-TARS-72B-DPO 項目地址: https://ai.gitcode.com/hf_mirrors/ByteDance-Seed/UI-TARS-72B-DPO
導(dǎo)語:字節(jié)跳動最新發(fā)布的UI-TARS 72B-DPO模型實現(xiàn)了AI與圖形用戶界面(GUI)交互的革命性突…
建站知識
2026/1/31 13:17:42
開源翻譯模型部署痛點:HY-MT1.5常見問題實戰(zhàn)解決手冊
開源翻譯模型部署痛點:HY-MT1.5常見問題實戰(zhàn)解決手冊 1. 背景與挑戰(zhàn):為什么HY-MT1.5的部署會“卡住”?
隨著多語言業(yè)務(wù)場景的爆發(fā)式增長,高質(zhì)量、低延遲的翻譯能力成為智能客服、內(nèi)容本地化、跨境交流等應(yīng)用的核心需求。騰訊開源…
建站知識
2026/2/16 2:35:40
CogVLM:10項SOTA!免費商用的視覺對話模型
CogVLM:10項SOTA!免費商用的視覺對話模型 【免費下載鏈接】cogvlm-chat-hf 項目地址: https://ai.gitcode.com/zai-org/cogvlm-chat-hf
導(dǎo)語:THUDM團隊發(fā)布開源視覺語言模型CogVLM,以170億參數(shù)量在10項跨模態(tài)基準(zhǔn)測試中刷…
建站知識
2026/2/25 5:27:52
Hunyuan HY-MT1.5降本方案:邊緣設(shè)備部署,GPU費用省60%
Hunyuan HY-MT1.5降本方案:邊緣設(shè)備部署,GPU費用省60%
近年來,大模型在機器翻譯領(lǐng)域取得了顯著進展,但高昂的推理成本和對高性能計算資源的依賴,限制了其在實際場景中的廣泛應(yīng)用。騰訊開源的混元翻譯大模型 HY-MT1.5 …
建站知識
2026/2/28 0:03:30
Qwen3-235B:一鍵切換雙模式,AI推理更高效
Qwen3-235B:一鍵切換雙模式,AI推理更高效 【免費下載鏈接】Qwen3-235B-A22B-MLX-8bit 項目地址: https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-235B-A22B-MLX-8bit
導(dǎo)語:Qwen3系列最新旗艦?zāi)P蚎wen3-235B-A22B-MLX-8bit正式發(fā)布&am…
建站知識
2026/2/23 2:16:36
混元翻譯1.5上下文理解優(yōu)化:指代消解技術(shù)
混元翻譯1.5上下文理解優(yōu)化:指代消解技術(shù)
1. 引言:混元翻譯模型的技術(shù)演進與上下文挑戰(zhàn)
隨著全球化進程的加速,高質(zhì)量、多語言互譯能力已成為自然語言處理(NLP)領(lǐng)域的重要基礎(chǔ)設(shè)施。騰訊推出的混元翻譯模型 1.8B 和 …
建站知識
2026/1/30 12:53:36
Qwen3雙模式大模型:22B參數(shù)實現(xiàn)智能無縫切換
Qwen3雙模式大模型:22B參數(shù)實現(xiàn)智能無縫切換 【免費下載鏈接】Qwen3-235B-A22B-GGUF 項目地址: https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-235B-A22B-GGUF
導(dǎo)語:Qwen3系列最新發(fā)布的235B參數(shù)大模型(激活參數(shù)22B)帶來…
建站知識
2026/2/4 23:48:08

