冯大刚与火山引擎谭待,1元284张图片的性价比之争与豆包的‘不内卷’战略

内容

随着2024年的尾声临近,大模型市场激战正酣。国内外各大公司纷纷抛出高额融资新闻,其中Databricks更是刷新了全球AI创企的融资纪录。在这一波热潮中,OpenAI发布季引领了全球新模型、新产品的集中更新。就在12月18日的2024冬季FORCE原动力大会上,火山引擎带来了其豆包大模型家族的一系列全新升级。

火山引擎总裁谭待表示,豆包Pro作为字节最强的大语言模型,综合任务处理能力较5月份提升32%,与GPT-4o全面对齐,价格仅为后者的1/8。新推出的豆包视觉理解模型不仅能精准识别视觉内容,还具备强大的理解和推理能力,能够处理分析图表、代码,解答学科问题等复杂任务。尤其值得注意的是,豆包视觉理解模型千tokens输入价格仅为3厘,一元钱就可处理284张720P的图片,比行业价格便宜85%,引发了业内热议。

火山引擎通过技术创新降低大模型落地成本,谭待透露,低价并非“烧钱补贴”的市场策略,而是通过算法、工程、硬件的联合创新,从底层系统架构到上层应用的共同进步才得以实现。火山引擎希望帮助企业和开发者更方便、更低门槛地使用大模型技术,促进AI技术普惠,把蛋糕做得更大。

自ChatGPT推出以来,大模型这把火已经在全球烧了整整两年多。两年后的今天,大模型市场格局发生了天翻地覆的变化,尤其在to B领域,越来越多企业开始从真实的落地应用场景、经济价值考量。火山引擎究竟如何通过技术创新降低大模型落地成本?大模型对于云计算产业带来了哪些冲击与机遇?下一个十年,我们将迎来怎样的AI云原生架构?围绕这些备受行业关注的话题,火山引擎总裁谭待与36氪CEO冯大刚进行了一场深入的对话。

谭待强调,大模型与之前的所有技术存在明显差异,以前技术在to B跟to C是相互割裂的,但今天大模型在to B跟to C仍具备高度耦合性。大模型不仅能够体验,而且决策者和使用者在很多场景中都是相通的。他认为这不仅是大模型技术本身的改变,也会对整个to B和to C的商业模式带来很大差别。

谈及大模型领域“第一”的定义,谭待认为,从消耗数量来看,token消耗数最重要。他提到,火山引擎目前处于很靠前的位置,但大家口径不同,例如他们直接讲token数,而有些人不讲token数,只讲调用次数。未来,AI模型可能会演化成按照价值收费的模式。

在AI云原生时代,谭待认为,整个企业的IT架构已经到了变化的节点。他强调,传统以太网架构已无法满足计算网络与数据层面的新需求,需要以GPU为核心,重新构建一套数据流动体系。他还探讨了如何利用AI解决隐私问题的私密计算方案,以及如何将结构化数据和非结构化数据在数据库里统一存储、管理。

对于火山引擎的豆包大模型,谭待表示,虽然目前很多工具和AI已在字节内部使用,效果非常好,而且豆包大模型的定价是一步到位的合理价格,价格透明,并不是“高刊例价+折扣”的做法。火山引擎的目标是推动大模型的普惠,让更多的中小企业和个人开发者能够释放自己的生产力,帮助他们做更多的创新。

谭待最后分享了他个人在繁忙工作之余的放松方式,他提到喜欢玩两款游戏,这两款游戏每次花费的时间都非常长。他认为,这些爱好不仅让他对历史和足球产生了兴趣,也让他领悟了一些管理理念,并可以进行沙盘演练等操作。

火山引擎通过AI大模型与AI云原生架构的完美结合,正在开启一场技术革命,为未来的数字化时代描绘出一幅激动人心的蓝图。

发表评论

评论列表

还没有评论,快来说点什么吧~