登陆注册

7Bx8个专家

  • 首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

    “取消今晚所有计划!”,许多AI开发者决定不睡了。只因首个开源MoE大模型刚刚由MistralAI发布。MoE架构全称专家混合(Mixture-of-Experts),也就是传闻中GPT-4采用的方案,可以说这是开源大模型离GPT-4最近的一集了。没有发布会、没有宣传视频,只靠一个磁力链接,就产生如此轰动效果。具体参数还得是网速快的人下载完之后,从配置文件里截图发出来的:
    站长网站长资讯2023-12-10 09:47:27
    0003