-
友情链接:
作者 | 王欣
编辑 | 苗正卿
面对全球性的大模型狂热,究竟是一场新的技术革命,还是新一轮泡沫的灵魂拷问。
百度再次将答案指向应用——“没有构建于基础模型之上的、丰富的AI原生应用生态,大模型就一文不值。”
11月12日,本次百度世界2024大会主题为应用来了,李彦宏在1小时的演讲中,提了42次应用,他认为,“依托检索增强(RAG)技术,大模型会利用检索到的信息来指导文本或答案的生成,从而极大地提高了内容的质量和准确性。”基于此,李彦宏感受到过去24个月AI行业最大的变化是“大模型基本消除了幻觉”——这也是应用爆发的基础。
基础模型能力就位的情况下,他观察到应用层的真需求逐渐爆发:
截至11月初,百度文心大模型的日均调用量超15亿,相较5月披露的2亿,增长7.5倍,相较一年前首次披露的5000万次,增长约30倍。
在产业端,百度智能云已经拥有中国最大的大模型产业落地规模,超过六成的央企和大量的民营企业,正在联合百度智能云进行AI创新。百度智能云千帆大模型累计帮助用户精调了3.3万个大模型,开发出了77万个企业级应用。
实际上,百度在应用上的态度始终较为激流勇进,在去年的百度世界大会上,李彦宏就喊出:“百度要做第一个把所有现有产品都进行重构、重做的公司。”
今年的大会,百度在应用上的布局变得更为大胆。
你似乎很难将大胆与百度这家公司联系起来,但铁了心要做应用的百度也显露了一些与以往不同的端倪。
用AI重构产品矩阵只是第一步,一些大刀阔斧的变革正在发生。
最大变量?
这样的变化,发生在百度的“基本盘”——搜索业务上。
作为PC时代的搜索巨头,百度在AI搜索应用上的动作一直备受关注。随着战火逐渐烧到AI搜索,百度也坐不住了。
目前,百度搜索引擎总搜索量的18%都是由智能问答的快思考方式回答,也就是说每天调用百度AI搜索的次数已经过亿。
智能问答的快思考主要针对答案明确的简单问题,例如:百度大会举行几年了?
百度搜索向虎嗅透露,近日,百度在AI搜索上开辟更多新路径——内测了慢思考模式的深度推理搜索。
这一模式支持更加复杂、需要结合全网信息进行推理整合的问题,比如:总结下国产新能源车近两年的发展趋势是什么样的?
目前,OpenAI的O1、Kimi的探索版都采用了这种应用思维链的深度推理搜索能力,据某国产六小虎AI公司高层透露,目前国内有更多厂商都在投入这一路线。而百度的优势在于它积累的用户数据,以及全网几十亿的搜索溯源库。
同时,作为分发入口,百度也在将更多其他AI应用接入搜索。比如背靠百度搜索获得流量的智能体平台——用户能够通过百度搜索场景,直接进入智能体触发对话。
而在业内非常关注的AI搜索成本方面,百度移动生态事业群组(MEG)搜索平台负责人肖阳曾告诉虎嗅,单看搜索一项,基于文心一言实现“极致满足、推荐激发、多轮交互”的搜索成本没有那么可怕。相对于普通搜索,融合了生成式AI的搜索在成本方面只是“略高”。
极限求变
另外,在C端应用方面,百度也在AI重构产品基础之上,探索更多的可能。
这里我们以李彦宏所展示的的工具智能体——“自由画布”为例,它的形态相较去年,更偏向探索新的应用边界。
实际上,去年它的采用的仍是行业主流AI原生应用的产品形态——对话框交互,用户通过输入不同的指令,生成所需的AIGC内容。这里所支持的内容可以是视频、文档、图片。
今年的“自由画布”不再是对话框形式,而是支持兼容不同模态限制的一张画布,用户可以将视频、文档、图片等各种不同模态的文件同时拖拽到画布中,生成用户所需要的内容。
高自由度还体现在,用户可以标记出所需要文档素材中的某几句话,输入更加准确的指令,比如“这段文字重新写成更严肃的风格”或者“这段话保留在报告中”。
百度副总裁,百度事业部、网盘事业部负责人王颖向虎嗅透露,该产品的设计理念源于两个阶段。
一是2023年3月份重构应用时,她就在思考文库作为内容创作(输入)的起点,该做成什么样的形式,那时她发现问题在于各种编辑器都存在于不同的平台,因此逐渐开始有了做更加融合的跨模态产品形式的想法。
二是24年3月份时,开始从输入、处理、输出三个维度来同时考虑,产品形态也更为清晰——在这个平台上让用户可以输入输出任何格式的内容。
文库偏向创作、编辑等内容生产端,网盘侧重分享、存储等内容消费端,这两种形式天然就形成内容创作的闭环链路。
所以他们决定将百度文库与网盘融合,来打通文库公域资料与个人授权的网盘私域内容的壁垒,实现内容创作和消费的闭环。
变革之后,王颖发现,他们“已经实现了一个全新的内容操作系统。”
极限求变之下,目前百度文库月活已经超过7000万,在国内AI应用月活排名第一,百度文库AI产品负责人钟昊表示,截至 2024 年 10 月,文库的AI 用户数累计超过 2.3 亿。
不要超级应用?
虽然业界探讨AI超级应用的声音一直没变,但李彦宏却表示“百度不是要推出一个‘超级应用’,而是要不断地帮助更多人、更多企业打造出数百万‘超级有用’的应用。”
同时,百度发布基于大模型的100大产业应用,它涵盖了制造、能源、交通、政务、金融、汽车、教育、互联网等众多行业
对此,百度智能云事业群总裁沈抖的判断是“AI应用正率先在B端爆发”。
百度智能云技术委员会主席孙珂告诉虎嗅,应用层的优势,还体现在百度上下层衔接和基础设施支撑上,“我们一直提倡的是从底层芯片层、基础云设施、平台,应用四层架构完全打通,客悦等应用基本上是基于包括百舸、千帆等底层平台搭建的,这是我们的基本逻辑。”
在底层算力方面,随着“暴力美学”大模型的算力要求已冲破十万卡门槛,百度也提前布局,是行业内最早打磨10万卡集群能力的厂商之一。
百度AI计算部负责人王雁鹏告诉虎嗅,虽然大模型创企 只有少数的一两家需要十万卡,但他们对成本有很高诉求。十万卡的意义在于,通过跨地域的RDMA的技术、多芯混训技术、容错技术的技术储备,可以提供更好的云平台。整体云的成本下降了,就可以给客户更好的算力供给。