记者 陈月芹 5月17日,腾讯云在腾讯云生成式AI产业应用峰会上宣布混元大模型多个版本模型实现升级,并且发布了知识引擎、图像创作引擎、视频创作引擎三大工具。
注意到,腾讯管理层在峰会上强调了混元大模型的技术精进、性能、差异化、安全、低使用门槛、离产业更近等特点,却全程没有公开介绍过价格。
腾讯云官网显示,它为首次使用混元大模型的用户提供10万tokens(大模型文本中的最小单位)的文本生成模型免费体验额度,有效期为1年。而在tokens资源包的价格方面,窗口尺寸为32K的hunyuan-standard模型和hunyuan-pro模型,它们的模型推理输入价格分别为0.0069元/千tokens和0.069元/千tokens,两者均为刊例价的6.9折。
值得注意的是,尽管混元大模型的价格在峰会上未被重点提及,但其与此前相比已明显降低。腾讯云官网一份更新于5月14日的计费信息显示,混元大模型标准版(hunyuan-standard的前身)和高级版(hunyuan-pro的前身)此前的模型推理输入价格分别为0.012元/千tokens和0.12元/千tokens。
实际上,字节跳动在5月15日刚刚对外正式发布豆包大模型。作为较晚发布大模型产品的互联网大厂,字节跳动选取用“低价”作为卖点和宣传点,以求出奇制胜。
字节跳动称,在窗口尺寸小于等于32K的主力模型中,GPT-4(美国AI研究公司OpenAI旗下的大模型)、百度文心一言、阿里通义千问的模型推理输入价格分别为0.42元/千tokens、0.12元/千tokens、0.12元/千tokens。而字节跳动的豆包通用模型 pro-32k 版模型推理输入价格为0.0008元/千tokens,比行业价格低99.3%,这让大模型从“以分计价”进入“以厘计价”阶段。
字节跳动旗下火山引擎总裁谭待当时表示,该公司能够在大模型产品上做到低价,是因为它在模型结构、训练、生产等各种技术层面都能做得很好,有很多优化手段能够实现降价。此外,市场对降价的呼声比较高,平台必须把试错成本做到非常低,才能让大家用起来。只有大的使用量,才能打磨出好模型,也能大幅降低模型推理的单位成本。
字节跳动这次的降价动作,被市场解读为打响了大模型“价格战”。对购买大模型产品的企业客户而言,无论是用它来改造企业内部的智慧化系统,还是用于医院的患者分流倒流服务,抑或是用于车企升级智能驾驶系统,这都体现出大模型产品的排他性:客户选择某一家企业的大模型产品后,基于它进行的内部培训、运营和更换的成本都极高。
因此,开启“圈地战争”、尽可能多地抢到第一批企业客户,成为现阶段大模型厂商十分重要的任务。这也是字节跳动、腾讯云等厂商对大模型降价的动力之一。
不过,在本次峰会上,面对“如何看待大模型厂商开打‘价格战’”、腾讯云是否有降价策略等提问时,腾讯云副总裁、腾讯云智能负责人吴运声没有直接回应。
吴运声说,无论是底层能力发展,或是构建应用工具链发展,大模型技术和应用还在快速发展过程中。因此,腾讯云把所有的、大量的精力放在怎样提高底层大模型能力上,包括怎么让用户真正用起来混元大模型、如何多层次对外提供大模型等工作。
在本次峰会上,腾讯云安排了六场演讲,其中介绍了腾讯混元多尺寸的大模型矩阵及特色,它旗下的最大模型hunyuan-pro已拓展至万亿级参数规模。并且,混元大模型在国内率先采用混合专家模型(MoE)结构,模型总体性能相比上一代提升了50%,部分中文能力已追平GPT-4。
在多模态能力方面,混元大模型在生图领域的文生图基础架构已升级至Sora(OpenAI旗下的文生视频大模型)同款的DiT架构,支持中英文双语输入及理解,具备多轮绘图能力;在生视频领域,混元已能生成长度达到16秒的视频;在生三维(3D)层面,混元已布局文/图生3D,单图仅需30秒即可生成3D模型。
此外,腾讯云还重点介绍了混元大模型如何应对大模型应用过程中可能出现的安全问题,例如模型被盗用、窃取和破坏,商业机密或重要数据泄漏,以及大模型数据安全合规等问题。