IT之家 5 月 21 日消息,字节跳动在5月15日的“春季火山引擎FORCE原动力大会”中推出了豆包大模型(原名“云雀”),该模型主要面向行业场景,能够提供多种图文音频生成能力,IT之家整理如下:
豆包通用模型pro:字节跳动自研LLM模型专业版,支持128k长文本,全系列可精调,具备更强的理解、生成、逻辑等综合能力,适配问答、总结、创作、分类等丰富场景;
豆包通用模型lite:字节跳动自研LLM模型轻量版,对比专业版提供更低token成本、更低延迟,为企业提供灵活经济的模型选择;
豆包角色扮演模型:个性化的角色创作能力,更强的上下文感知和剧情推动能力,满足灵活的角色扮演需求;
豆包语音合成模型:提供自然生动的语音合成能力,善于表达多种情绪,演绎多种场景;
豆包声音复刻模型:可在 5秒内实现声音1:1克隆,对音色相似度和自然度进行高度还原,支持声音的跨语种迁移;
豆包语音识别模型:更高的准确率及灵敏度,更低的语音识别延迟,支持多语种的正确识别;
豆包文生图模型:更精准的文字理解能力,图文匹配更准确,画面效果更优美,擅长对中国文化元素的创作;
豆包Function call模型:提供更加准确的功能识别和参数抽取能力,适合复杂工具调用的场景;
豆包向量化模型:聚焦向量检索的使用场景,为LLM知识库提供核心理解能力,支持多语言。
今日火山引擎官网更新了豆包大模型的定价详情,号称“在模型推理定价大幅低于行业价格的基础上,豆包通用模型的TPM、RPM 均达到国内最高标准”、“价格比行业低 99%,TPM 限额则达同规格模型的 2.7 倍到 8 倍”;此外,相关模型还可使用“预付费”、“后付费”模式:
以豆包通用模型pro-32k 为例: 按照“预付费”模型单元价格计算,10K TPM的包月价格为 2000 元。10K*60*24*30=43200K。
即432000K Tokens 的价格为 2000 元,平均价格为0.0046 元 / 千 Tokens。按照“后付费”模式计算:在模型推理的计算成本中,推理输入通常占绝大部分比例,业界一般认为推理输入是输出的 5 倍。
根据豆包通用模型pro-32k推理输入0.0008 元 / 千 Tokens、推理输出0.002 元 / 千 Tokens计算,模型推理的综合价格为 0.001 元 / 千 Tokens。
官方表示,国内其他竞品模型的TPM限额大多在100K到300K之间,RPM 则是在 60 到 120 区间,轻量级模型的 RPM 限额相对较高,但仅仅在 300 到 500 之间。按照10K RPM限额计算,企业客户平均每秒可以同时调用 167 次豆包通用模型,从而满足绝大多数业务场景在生产系统的大模型应用需求。
官方同时强调,相关标准已经达到OpenAI为高级别客户(Tier4及Tier5等级客户)提供的RPM上限。在算力挑战更大的长文本模型上,豆包通用模型pro和lite的128k版本,模型限流为1K RPM和400K TPM,同样大幅高于国内其他的 128k 长文本模型,能够帮助企业以较低成本使用大模型、加速大模型应用落地。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。