在2024年冬季FORCE原动力大会上,火山引擎总裁谭待与36氪CEO冯大刚进行了深入对话,探讨大模型市场的最新动态和火山引擎的战略。
低价大模型:豆包不随波逐流
随着大模型技术的发展,市场竞争日益激烈,价格战成为不可避免的趋势。然而,火山引擎旗下的豆包大模型却逆势而行,推出了一系列低成本的推理服务。
谭待表示,豆包视觉理解模型的千tokens输入价格仅为3厘,一元钱就能处理284张720P的图片,远低于行业平均水平。这不仅引发了业内热议,也体现了火山引擎将大模型技术普惠化的决心。
与一些厂商采用“高刊例价+折扣”的做法不同,豆包大模型的定价是一步到位的合理价格,并保持了毛利的正向增长。谭待强调,通过算法、软件工程和硬件的联合创新,火山引擎实现了在满足性能需求的前提下降低成本,从而推动了AI技术的普惠。
技术创新:降低大模型落地成本
谈及豆包大模型低成本的秘密,谭待将其归功于一系列技术创新。
在算法层面,豆包大模型采用了具有成本效益的模型结构和优化机制,在保证模型智能水平的前提下,降低了推理成本。此外,在工程层面,火山引擎通过规模化调度、PD分离推理等措施,进一步优化了资源利用率。在软硬结合方面,火山引擎率先采用了PD分离推理,并将模型推理与不同的硬件选型相匹配,实现了更高的成本效率。
AI云原生:下一代云计算架构
谭待认为,大模型的出现带来了云计算架构的变革。传统云原生技术已经无法满足大模型计算和数据处理的需求。因此,火山引擎提出了AI云原生概念,主张以GPU为核心,重新构建数据流动体系,并解决安全性、数据管理等问题。
谭待表示,AI云原生架构将成为未来10-20年的行业趋势,而火山引擎将通过一系列产品的发布,推动AI技术在云计算领域的深入融合。
大模型普惠:赋能中小企业和开发者
谭待强调,火山引擎推出低成本大模型服务的根本目的在于实现AI技术的普惠。通过降低门槛,更多中小企业和开发者能够使用大模型技术,提升生产力,促进创新。
豆包大模型已经广泛应用于制造、金融、教育等领域,为企业和开发者提供了高效且经济实用的解决方案。火山引擎希望通过技术革新和商业模式创新,为AI技术的普及和应用作出贡献。
原创文章,作者:讯知在线,如若转载,请注明出处:http://m.xzxci.cn/2024/12/21/40021.shtml