IT之家讯(11月19日)——在昨日(11月18日)的一篇博文中,阿里巴巴的通义千问团队宣布推出了一款名为Qwen2.5-Turbo的开源AI模型。
在经历了数月的细致优化和改良之后,该模型旨在满足社区对于更长上下文长度(ContextLength)的需求,显著提升了自然语言处理(NLP)领域的大型语言模型(LLM)性能。
在自然语言处理领域,上下文长度一直是一个重要的技术指标。
它限制了一次处理过程中模型能够考虑和生成的文本的最大长度。
随着文本数据的日益丰富和复杂,社区对于模型能够处理更长上下文的期待也越来越高。
在这样的背景下,阿里通义千问团队推出了Qwen2.5-Turbo模型,旨在突破这一限制。
1. 上下文长度的大幅扩展:Qwen2.5-Turbo将上下文长度从原先的12.8万个tokens扩展至100万个tokens。
这一改进相当于约100万英语单词或150万汉字,能够轻松容纳10部完整的小说、150小时的演讲稿或30000行代码,极大地增强了模型在处理长文本时的能力。
2. 准确率的提升:在1M-token的Passkey检索任务中,Qwen2.5-Turbo实现了100%的准确率。
在RULER长文本评估中,其得分也达到了93.1,这一成绩超越了当前流行的GPT-4和GLM4-9B-1M等模型。
3. 响应效率的大幅提升:为了提高模型的响应速度,团队通过整合稀疏注意力机制(sparse attention mechanisms),将处理100万tokens到输出第一个tokens的时间,从原先的4.9分钟缩短至仅68秒,速度提升了4.3倍。
这一进步使得Qwen2.5-Turbo在处理长文本时更加迅速,显著提高了其实用性。
4. 经济效益显著:除了性能上的提升,Qwen2.5-Turbo的处理成本也保持在每百万个tokens仅0.3元。
相比之下,它能够处理3.6倍于GPT-4o-mini的token数量,这使得Qwen2.5-Turbo在经济效益上具备了更强的竞争力,成为了一种高效且经济的长上下文处理解决方案。
尽管Qwen2.5-Turbo在多个基准测试中表现出色,但团队也意识到在真实场景中的长序列任务表现可能还存在不稳定的情况。
大型模型的推理成本仍需进一步优化。
对此,通义千问团队表示将继续优化人类偏好、提高推理效率,并积极探索更强大的长上下文模型。
他们承诺将不断聆听社区的声音,持续改进模型,以满足用户的需求。
阿里通义千问推出的Qwen2.5-Turbo开源AI模型在上下文长度、准确率、响应效率和经济效益等多个方面取得了显著的进步。
这一模型的出现,无疑将为自然语言处理领域带来新的突破,并为用户带来更加高效、经济的长文本处理体验。
期待未来Qwen2.5-Turbo能够在更多场景中得到应用,并持续推动NLP领域的发展。
(注:本文中的相关数据和信息均来源于阿里通义千问团队的官方博文。)
标签: 阿里、 AI、 通义千问、本文地址: https://www.gosl.cn/hlzxwz/da1ac77d4fc6952b6e27.html
上一篇:引领AI算力新纪元...