查看原文
其他

SiliconCloud上线InternLM2.5-20B-Chat,复杂场景推理能力全面增强

SiliconCloud 硅基流动
2024-09-14

(由SiliconCloud平台模型Flux.1生成)
此前,硅基流动的大模型API服务平台SiliconCloud上线了上海人工智能实验室开源的InternLM2.5-7B-Chat(免费使用)。今天,SIliconCloud正式上线推理加速后的新版本InternLM2.5-20B-Chat,其综合性能更为强劲,可以有效支持更加复杂的实用场景,接入MindSearch多智能体框架后能自主进行互联网搜索并从上百个网页中完成信息整合。
一键体验传送门:
https://cloud.siliconflow.cn/playground/chat/17885302561
直观感受下InternLM2.5-20B在SiliconCloud上的生成速度与复杂推理效果。
API文档:
https://docs.siliconflow.cn/reference/chat-completions-3

与其他各类开源大模型一样,由于开发者在本地开发部署InternLM2.5系列模型有一定门槛。现在,SiliconCloud上线的InternLM2.5模型免去了开发者自己开发部署的门槛,可以轻松调用相应的API服务到自己的实际应用中。
更重要的是,SiliconCloud平台对这些模型做了推理加速,输出速度极快、价格极其亲民(InternLM2.5-20B-Chat只需1.00/1M tokens,支持开发者自由对比体验各类大模型,从而为自己的生成式AI应用选择最佳实践。

InternLM2.5性能评测表现及亮点

InternLM2.5采用了多种数据合成技术并进行了多轮迭代,每次迭代均基于当前领先模型构建的多智能体进行数据筛选、扩增和优化,实现了复杂场景下模型推理能力的全面增强,尤其是在由竞赛问题构成的数学评测集MATH上,InternLM2.5-20B模型成绩相较上一代提升近1倍,达到了64.7%的准确率。对比其他同量级开源模型,也表现出较强的竞争力。
(基于司南OpenCompass开源评测框架的结果,使用统一可复现的评测方法在多个推理能力权威评测集上进行评测。
面向长文档理解和复杂的智能体交互等依赖上文本处理能力的应用场景,进一步释放了模型在超长文本应用上的潜力,InternLM2.5通过在预训练阶段进行256K Token长度的高效训练,将上下文长度从上一代模型InternLM2的200K提升到了1M(约合120万汉字)。
为了解决大规模复杂信息的搜索和整合,InternLM2.5在微调阶段学习了人的思维过程,能够接入他们提出的MindSearch多智能体框架,引入了任务规划、任务拆解、大规模网页搜索、多源信息归纳总结等步骤,有效地整合网络信息,能够基于上百个网页的信息进行筛选、浏览和整合。

Token工厂SiliconCloud

Llama3.1(8B)、InternLM2.5(7B)等免费用


除了InternLM2.5-20B,SiliconCloud已上架包括BCE、BGE、InternLM2.5-7B、SenseVoice-SmallLlama-3.1FLUX.1DeepSeek-V2-ChatDeepSeek-Coder-V2SD3 MediumQwen2GLM-4-9B-Chat、InstantID在内的多种开源大语言模型、图片生成模型、代码生成模型、向量与重排序模型以及多模态大模型。
其中,Llama3.1(8B)、InternLM2.5(7B)、Qwen2(7B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。
作为集合顶尖大模型的一站式云服务平台,SiliconCloud致力于为开发者提供更快、更便宜、更全面、体验更丝滑的模型API。
SiliconCloud支持用户自由切换符合不同应用场景的模型,同时提供开箱即用的大模型推理加速服务,为生成式AI应用带来更高效的用户体验。
SiliconCloud,让超级产品开发者实现“Token自由”

邀请新用户体验SiliconCloud狂送2000万Token/人


邀请越多,Token奖励越多
siliconflow.cn/zh-cn/siliconcloud

扫码加入用户交流群
修改于
继续滑动看下一个
硅基流动
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存