在2023腾讯全球数字生态大会上,腾讯混元大模型正式亮相,并宣布通过腾讯云对外开放。这一全链路自研的通用大语言模型具备强大的中文创作能力、复杂语境下的逻辑推理能力和可靠的任务执行能力。目前,腾讯混元大模型已经接入超过50个腾讯业务和产品进行测试,并取得初步效果。


9月7日,在2023腾讯全球数字生态大会上,腾讯混元大模型正式亮相,并宣布通过腾讯云对外开放。作为一款由腾讯全链路自研的通用大语言模型,腾讯混元大模型拥有超过千亿参数规模和预训练语料超2万亿tokens的强大实力,具备了强大的中文创作能力、复杂语境下的逻辑推理能力和可靠的任务执行能力。


值得一提的是,腾讯混元大模型是“从实践中来,到实践中去”的实用级大模型。据了解,超过50个腾讯业务和产品已经接入腾讯混元大模型测试,并取得了初步效果。这些应用场景包括腾讯会议、腾讯文档、腾讯广告等多个领域。


腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生表示:“以大模型生成技术为核心,人工智能正成为下一轮数字化发展的关键动力,也为解决产业痛点带来了全新的思路。大模型需要基于产业场景,与企业数据融合,才能释放出最大的价值。”


为了实现全链路技术自研,腾讯混元大模型从第一个token开始从零训练,掌握了从模型算法到机器学习框架再到AI基础设施的全过程。在算法层面,腾讯进行了一系列的自研创新,提高了模型的可靠性和成熟度。例如,通过优化预训练算法及策略,让混元大模型的幻觉相比主流开源大模型降低了30%至50%。此外,通过强化学习的方法,让模型学会识别陷阱问题;通过位置编码优化,提高了超长文的处理效果和性能;并提出思维链的新策略,让大模型能够像人一样结合实际的应用场景进行推理和决策。


得益于全链路自研技术,腾讯混元大模型能够理解上下文的含义,并且有长文记忆能力,可以流畅地进行专业领域的多轮对话。除此之外,它还能进行文学创作、文本摘要、角色扮演等内容创作,做到充分理解用户意图,并高效、准确地给出有时效性的答复。在中国信通院《大规模预训练模型技术和应用的评估方法》的标准符合性测试中,混元大模型共测评66个能力项,在“模型开发”和“模型能力”两个重要领域的综合评价均获得了当前的最高分。在主流的评测集MMLU、CEval和AGI-eval上,混元大模型均有优异的表现,特别是在中文的理科、高考题和数学等子项上表现突出。


上海财经大学校长刘元春认为:“借助于全链路自研,中国将不断积累大模型相关人才和技术,逐渐形成体系化的产业链、人才链、技术链和创新链,最终走出一条发展通用人工智能的中国路径,助力我们在数字技术的创新上取得突破性进展。”


腾讯集团副总裁蒋杰表示:“我们研发大模型的目标不是在评测上获得高分,而是将技术应用到实际场景中。腾讯将全面拥抱大模型。”在此次大会上,蒋杰展示了腾讯会议、腾讯文档、腾讯广告等多个业务在接入腾讯混元大模型后的实际应用情况。比如腾讯会议基于混元大模型打造了AI小助手,只需要简单的自然语言指令就能完成会议信息提取、内容分析等复杂任务,会后还能生成智能总结纪要;据实测,在指令理解、会中问答、会议摘要、会议待办项等多个方面