登陆注册

7B

  • 2B小钢炮碾压Mistral-7B,旗舰级端侧模型炸场开年黑马!1080Ti可训,170万tokens成本仅1元

    【新智元导读】2B性能小钢炮来了!刚刚,面壁智能重磅开源了旗舰级端侧多模态模型MiniCPM,2B就能赶超Mistral-7B,还能越级比肩Llama2-13B。成本更是低到炸裂,170万tokens成本仅为1元!最强旗舰端侧模型,重磅诞生!就在刚刚,坐落在「宇宙中心」的面壁智能,重磅发布2B旗舰端侧大模型MiniCPM,并全面开源。「用最小的规模,做最强的AI」
    站长网2024-02-02 11:02:19
    0004
  • Perplexity发布两款LLM模型:pplx-7b-online和pplx-70b-online 可利用实时互联网数据查询

    **划重点:**-🚀PerplexityAI推出两款新的在线大语言模型,通过API公开访问,标志着公众首次能够使用'pplx-7b-online'和'pplx-70b-online'。-🌐与传统的离线LLM不同,这些模型利用实时互联网数据,实现对查询的即时、精确响应,解决了获取最新体育比分等实时信息的难题。
    站长网2023-12-04 10:09:29
    0002
  • MosaicML推开源大语言模型MPT-7B-8K 上下文长度达8k

    站长之家(ChinaZ.com)7月20日消息:MosaicML发布了名为MPT-7B-8K的7B参数开源语言模型(LLM),支持8K的上下文长度。与以前的模型相比,MPT-7B-8KLLM在摘要和回答任务方面展现出卓越的能力。
    站长网2023-07-20 18:09:31
    0001
  • Mistral 7B v0.2 基模型开源,支持32K上下文

    划重点:⭐MistralAI开源了Mistral7Bv0.2BaseModel,提升了上下文到32K,取消了滑动窗口。⭐MistralAI与微软达成长期合作协议,将在Azure上部署MistralAI模型,微软也投资了1600万美元。⭐MistralAI发布了旗舰级大模型MistralLarge,与OpenAI的GPT-4直接竞争。
    站长网2024-03-25 10:17:05
    0000
  • Allen AI开源微调模型OLMo-7B-Instruct

    AllenAI最近宣布开源了微调模型OLMo-7B-Instruct,这是一个真正意义上的开源项目。该模型是基于AI2的Dolma数据集构建的,该数据集包括了用于语言模型预训练的三万亿标记的开放语料库,还包括生成训练数据的代码。官网:https://allenai.org/olmo项目页:https://top.aibase.com/tool/olmo
    站长网2024-02-29 10:04:49
    0000
  • 面壁智能发布端侧旗舰MiniCPM 性能超越 Mistral-7B

    面壁智能于2月1日发布了旗舰端侧模型MiniCPM,它以小博大的性能超越了Mistral-7B,并在MT-Bench等榜单上表现出色。MiniCPM是一款能说会看、具备编程能力、拥有多模态能力的端侧模型。它不仅在性能上优秀,而且具有极低的成本,支持CPU推理。MiniCPM开源,并已在主流操作系统上进行了适配和测试。
    站长网2024-02-04 09:15:06
    0000
  • Salesforce新AI模型可改善数据分析 XGen-7B基准测试超越Meta的LLaMA-7B

    随着对AI工具的需求增加,对能够完成更多任务的系统的需求也越来越大。企业可以通过拥有像ChatGPT或Bard这样的聊天界面来受益,这些界面能够对冗长的文件进行摘要或筛选客户数据以获取见解。但要执行这些任务,模型需要经过大量数据的训练。而企业通常选择了更小、更具成本效益的模型,问题在于这些模型无法很好地处理这些任务。
    站长网2023-07-04 15:58:07
    0000
  • MosaicML发布大型语言模型 MPT-7B 可商用

    MosaicML的MPT-7B是一个具有近70亿个参数的大型语言模型,该团队在自己的近万亿个标记的数据集上对其进行了训练。MosaicML遵循Meta的LLaMA模型的训练方案。培训花费近200,000美元,使用MosaicML平台耗时9.5天。
    站长网2023-05-11 12:02:56
    0000
  • Together AI发布AI模型StripedHyena-7B 性能超越Llama-27B

    划重点:1.🌐StripedHyena-7B引领人工智能领域,提供计算效率和性能升级的替代选择。2.🚀采用独特混合结构,StripedHyena在训练、微调和生成长序列时表现出色。3.💡未来研究重点:构建更大的模型、引入多模态支持、提高StripedHyena模型的性能。
    站长网2023-12-13 22:45:27
    0000
  • 微软发布小语言模型AI Phi-2 性能优于Llama 2、Mistral 7B

    微软研究院今天宣布发布其Phi-2小语言模型(SML),这是一种文本到文本的人工智能程序,具有27亿个参数。Phi-2的性能可与其他更大的模型相媲美,包括Meta的Llama2-7B和Mistral-7B
    站长网2023-12-13 17:27:50
    0000
  • 微软发布小型语言 AI 模型 Phi-2,性能优于 Llama 2、Mistral 7B

    微软研究院当地时间周二宣布其Phi-2小型语言模型(SML),这是一款文本到文本的人工智能程序,据X平台的一篇帖子称,它「足够小,可以在笔记本电脑或移动设备上运行」。Phi-2拥有27亿参数,性能堪比其他更大的模型,包括Meta的Llama2-7B(拥有70亿参数)和Mistral-7B(另一款70亿参数模型)。
    站长网2023-12-13 09:04:01
    0000
  • Meta开源最新模型——Llama Guard-7b

    全球社交、科技巨头Meta在官网开源了全新模型——LlamaGuard。据悉,LlamaGuard是一个基于Llama2-7b的输入、输出保护模型,可对人机会话过程中的提问和回复进行分类,以判断其是否存在风险。可与Llama2等模型一起使用,极大提升其安全性。
    站长网站长资讯2023-12-12 09:24:49
    0000
  • 研究人员发布Starling-7B:基于AI反馈的大语言模型 媲美GPT-3.5

    **划重点:**1.🚀**RLAIF技术介绍:**Starling-7B采用了基于AI反馈的强化学习(RLAIF),通过优化Openchat3.5和Mistral-7B而成。2.📊**性能卓越:**在MT-Bench和AlpacaEval两项基准测试中,Starling-7B表现出色,对比其他模型的性能提升引人瞩目。
    站长网2023-11-29 11:22:54
    0000
  • 亚马逊机器学习团队推出 Mistral 7B 基础模型 支持8000个token上下文长度

    文章概要:-Mistral7B是MistralAI开发的英文文本和代码生成基础模型,参数规模70亿。-SageMakerJumpStart提供一键部署Mistral7B进行推理,可快速自定义。-Mistral7B具有8000个token的上下文长度,表现低延迟和高吞吐量。
    站长网2023-10-10 10:06:04
    0000
  • 多用途大语言模型SynthIA-7B-v1.3:可用于教学、写作等多领域

    文章概要:-SynthIA-7B-v1.3是一个拥有七十亿参数的大型语言模型,经过Orca风格数据训练,能够执行多种任务,包括文本生成、语言翻译、创作原创内容和提供深入的问题回答。-这个模型具有广泛的应用领域,包括文学创作、科研辅助、教育工具和商业流程优化。
    站长网2023-10-09 09:44:39
    0000
  • 元象开源70亿参数通用大模型 XVERSE-7B 免费可商用

    元象宣布开源70亿参数通用大模型XVERSE-7B底座与对话版,这是一款全开源、免费可商用的模型。相比之前的XVERSE-13B,7B版本更小巧,可以在单张消费级显卡上运行,并且推理量化后最低只需6GB显存,大大降低了开发门槛和推理成本。该模型在多项权威测试中表现出色,并具有强大的认知、规划、推理和记忆能力,支持40多种语言。
    站长网2023-09-27 08:52:58
    0000
  • Together AI 推出 Llama-2-7B-32K-Instruct:扩展上下文语言处理能力

    TogetherAI发布了Llama-2-7B-32K-Instruct:一项在语言处理中扩展上下文的突破。这项创新具有重大意义,特别是在需要对复杂上下文细微差别有深刻理解的任务中。该模型通过巧妙地利用TogetherInferenceAPI的能力,成功地处理了长篇指令,同时在短篇情境下表现出色。
    站长网2023-08-22 11:53:11
    0000