稀宇科技推出萬億MoE模型abab 6.5
4月17日,稀宇科技MiniMax正式推出abab 6.5系列模型。abab 6.5系列包含兩個模型:abab 6.5和abab 6.5s。據介紹,abab 6.5包含萬億參數,支持200k tokens的上下文長度;abab 6.5s跟abab 6.5使用了同樣的訓練技術和數據,但是更高效,支持200k tokens的上下文長度,可以1秒內處理近3萬字的文本。在各類核心能力測試中,abab 6.5開始接近GPT-4、Claude-3、Gemini-1.5等大語言模型。
相關資訊
- ▣ MiniMax發佈萬億MoE模型abab 6.5
- ▣ 將多模態大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
- ▣ 科大訊飛:已關注DeepSeek的MoE模型技術進展,持續推動星火大模型迭代提升
- ▣ 獵戶星空發佈MoE大模型,推出AI數據寶AirDS
- ▣ 新視角設計下一代時序基礎模型,Salesforce推出Moirai-MoE
- ▣ 北京深度求索公司推出首個國產開源MoE大模型
- ▣ MiniMax發佈abab大模型:6.51秒內可處理近3萬字文本
- ▣ 階躍星辰發佈Step-2萬億參數MoE語言大模型預覽版
- ▣ 通用大模型創業硬核選手亮相 階躍星辰發佈萬億參數MoE大模型預覽版
- ▣ 蘋果推出開放語言模型 OpenELM;微軟、清華團隊提出多頭混合專家 MH-MoE|大模型論文
- ▣ 最神秘國產大模型團隊冒泡,出手就是萬億參數MoE,2款應用敞開玩
- ▣ 獵戶星空發佈MoE大模型
- ▣ 豆包提出全新稀疏架構 推理成本較MoE最高可降83%
- ▣ 全球科技早參丨微軟推出輕量級AI模型
- ▣ 生數科技與清華聯合推出視頻大模型Vidu
- ▣ 影響市場大事件:宇樹科技兩款人形機器人京東線上剛上架就下架;字節豆包大模型團隊提出稀疏模型架構,推理成本最高可降低83%
- ▣ 騰訊發佈最大開源MoE模型,3890億參數免費可商用
- ▣ 大模型初創企業MiniMax將發佈國內首個MoE大模型
- ▣ 中國科技公司推出多款模型與OpenAI的Sora競爭
- ▣ 阿里通義千問開源首個MoE模型
- ▣ 騰訊開源:3D素材生成模型、最大MoE模型,兼容OpenAI SDK
- ▣ 第一個100%開源的MoE大模型,7B的參數,1B的推理成本
- ▣ 騰訊混元又來開源,一出手就是最大MoE大模型
- ▣ 一塊錢100萬token,超強MoE模型開源,性能直逼GPT-4-Turbo
- ▣ 螞蟻百靈大模型推出20億參數遙感模型
- ▣ 科大訊飛2024上半年虧損,在大模型研發等方面投入超6.5億
- ▣ 字節豆包大模型團隊提出稀疏模型架構 推理成本最高可降低83%
- ▣ 「天工大模型3.0」4月17日正式發佈——同步開源4000億參數MoE超級模型,性能超Grok1.0
- ▣ 字節豆包大模型團隊提出稀疏模型架構UltraMem