说明法国人工智能初创公司 Mistral AI开源的一种具有开放权重的稀疏专家混合模型 (SMoE),在大多数基准测试中都优于 Llama 2 70B 和 GPT-3.5论文地址:https://arxiv.org/pdf/2401.04088.pdf论文主页:https://mistral.ai/news/mixtral-of-experts/链接Github费用免费Files上一篇免费机场节点订阅全自动获取下一篇音乐下一篇音乐