温馨提示:这篇文章已超过376天没有更新,请注意相关的内容是否还可用!
据Decrypt报道,总部位于巴黎的初创公司Mistral AI发布了一款名为Mixtral的开放大型语言模型(LLM),该公司声称Mixtral在多个基准测试中表现优于OpenAI的GPT 3.5,同时效率更高。Mistral AI最近获得了20亿美元的估值。风险投资公司Andreessen Horowitz(a16z)为Mistral提供了大量的A轮投资,a16z以在变革性技术领域的战略投资而著称,尤其是人工智能。Nvidia和Salesforce等科技巨头也参与了这轮融资。Mixtral采用了一种名为稀疏专家混合(MoE)的技术,Mistral表示,这使得该模型比其前身Mistral 7b以及其他更强大的竞争对手更强大、更高效。Mixtral已经获得了Apache 2.0许可,这使得开发者可以自由地检查、运行、修改甚至在该模型之上构建定制解决方案。然而,关于Mixtral是否100%开源存在争议,因为Mistral表示它只发布了“开放权重”,而核心模型的许可证禁止其与Mistral AI竞争。该初创公司还没有提供用于创建模型的训练数据集和代码,这在开源项目中是常见的。