标签:Mistral AI

刚刚,Mistral AI最新磁力链放出!8x22B MoE模型,281GB解禁

Mistral AI,一家初创公司,再次引起人工智能(AI)领域的轰动,通过发布一个281GB的磁力链,解禁了其最新的8x22B MoE(Mixture of Experts)模型。这款创新MoE模型拥有56层深度,48个注意力头,包含8个专家和2个活跃专家,上下文长度达到65k,彰显出强大的计算与处理能力。该模型的出现让社区用户兴奋不已,期待其与其他最先进的(SOTA)模型进行详细对比。 去年12月,Mistral AI首次发布的8x7B MoE模型就获得了广泛赞誉,其在基准测试中超越了参数量更大的Llama2模型。该模型能处理长达32k的上下文,并支持多种语言,如英...

下一个OpenAI来了?Mistral超大杯模型直逼GPT-4,93年创始人6人公司被微软认领

Mistral AI,被誉为“下一个OpenAI”,发布了其旗舰模型Mistral Large,该模型在多语言任务处理上表现出色,直逼GPT-4。尽管未开源,Mistral已引起广泛关注,特别是微软已将其纳入麾下。由年轻创始人Arthur Mensch领导的团队,仅用4周时间、6人阵容、7页PPT便筹集到8亿欧元资金,打造了这家与OpenAI和Anthropic抗衡的公司。Mistral Large擅长逻辑推理,能处理多种语言,包括代码生成,且在多个基准测试中超越 Anthropic的Claude2和谷歌的Gemini Pro。 近期,Mistral修改网站内容引发开源社区担忧,但CEO确认将继续秉持开源理...

欧洲最火AI独角兽发布旗舰大模型!性能直逼GPT-4,微软宣布合作投资

欧洲人工智能公司Mistral AI最近推出了其最新的大语言模型——Mistral Large,不同于以往,这个模型不会开源。该模型支持五种语言,具有32K tokens的上下文窗口,但具体参数规模未公开。在多语言理解任务基准MMLU上,Mistral Large仅次于GPT-4,优于Llama 2。 在价格方面,Mistral Large比GPT-4 Turbo定价更低。同时,微软宣布与Mistral AI建立多年合作关系,并对其进行小额投资,Mistral AI的大模型将在Azure云平台上提供,成为继OpenAI之后第二个在此托管的公司。 Mistral Large拥有四大亮点:多语言支持、大上下文窗口、...