文心一言全面开放,属于百度的“iPhone时刻”

解码Decode

1

(图片来源:摄图网)

作者|解码工作室 来源|解码Decode(ID:kankeji001)

8月31日凌晨,百度宣布文心一言首批获批上线,正式向公众开放服务。目前用户已经可以在App Store(免费榜第一)、官网下载/体验,无需申请内测资格即可使用。

大模型获批,意味着文心一言将向所有用户全面开放,并在用户积累、数据获取和产品迭代上占有优势。

李彦宏的表态也直截了当,当文心一言向数以亿计互联网用户大规模开放服务后,能够获得大量真实世界中的人工反馈,这将进一步改进基础模型,并以更快速度迭代文心一言,创造更好的用户体验。

与此同时,大模型也将逐渐从参数之争演变到以AI应用和产业落地为主的生态之争。而百度此前启动的大模型领域首个创业大赛,据悉将在10月17日宣布结果。

据称百度内部对此非常重视,李彦宏甚至直接过问并指挥百度战投与参赛者接洽,对优秀产品给予资源和资金支持。

受开放消息提振,百度今夜凌晨美股盘中一度涨超5%。给予资本市场信心的一方面是文心一言的开放,另一方面也有此前被视为文心一言直接竞对的阿里通义千问、360智脑、讯飞星火等均不在首批获批名单中。

某种程度上,这是对百度和文心一言的认可,但同时也是一种鞭策。

信心从哪来?

本质上,大模型就不是一个一蹴而就的事。

以百度为例,早在2019年就推出了知识增强的文心大模型1.0,2021年,百度又发布了全球首个百亿参数的对话大模型PLATO-XL。

文心大模型系列经过不断迭代,为推出大语言模型“文心一言”打下了基础。后来的故事大家都知道了,文心大模型在产品能力、生态能力方面处于国内第一梯队的水平。

从模型来看,文心一言是高度本土化的大语言模型,更加匹配中文环境的使用习惯,作为百度基本盘的搜索业务,不仅能够提供巨大的基础数据,而且在中文搜索上具有显著优势。

1

甚至此前,在AGIEval、C-Eval等中英文权威测试集和MMLU英文权威测试集中,文心大模型3.5取得了超过ChatGPT和LLaMa、ChatGLM等其他大模型的分数表现,在中文评测中甚至有超越GPT-4的表现。

而文心一言之所以能取得这样的成绩,自然离不开百度压强式、马拉松式的研发投入。

数据显示,过去十年来,百度已投入了超千亿的研发费用,研发费用率从15%提升至去年的22.4%。对比海外互联网大厂,百度的研发投入占比也为较高水平。在高强度的研发投入下,百度取得的成果也是显著的。

如果仔细剖析这些成果,又是另外一层故事了。

任何一个行业都不能没有创新,但并不是每一个行业都需要持续性的大规模研发投入。比如新能源汽车市场,宁德时代的研发费用就比小米还要低,这其中涉及到产业特征、环境、创新周期等多重因素。

百度在研发上的持续投入,一方面是因为技术型企业本身就要保持不断地迭代;另一方面也是因为前瞻性布局。

百度布局AI最早可追溯到2010年,在移动互联网和智能手机尚未普及的年代布局AI,没有点魄力和前瞻性真的不行。

那么这么多年持续性的投入又给百度带来了什么呢?

表层上我们看到的是大模型、智能云等产品,而本质上百度其实构建了一个围绕技术迭代不断创新的周期穿越能力。

这种能力在其它科技巨头身上也有,比如亚马逊的长期主义、微软坚定不移的投资OpenAI,相较下来靠为大模型提供弹药从而股价暴涨的英伟达多少有些躺赚的意思了。

而百度这种能力的的具象表现,可以用其改变和引领的四层技术栈变革举例:芯片层、框架层、模型层和应用层,百度针对每一层都都有领先业界的关键自研技术。

在芯片层有昆仑芯、在框架层有飞桨、在模型层是文心大模型、在应用层是搜索等等。

并且这些产品或技术仍在不断迭代进化,以文心一言为例,根据官方数据,自3月发布以来,文心一言熟练掌握的创作体裁超过200个,内容丰富度是发布初期的1.6倍,思维链长度是初期的2.1倍,知识点覆盖达到初期的8.3倍。

其他方面,飞桨深度学习平台已凝聚800万开发者,服务22万家企事业单位;“飞桨AI Studio”(星河社区)已囊括609万开发项目,成中国最大的AI社区;并且百度还推出了降低开发门槛的插件开发工具集(ERNIE Bot SDK),可支持信息服务类、工具类、基于大语言模型创新类等多种类型的插件开发,这些都是百度交出的实打实的成绩单。

远方:真正的“飞轮”

关于文心一言向公众开放,其实背后的产业逻辑仍旧是时间成本问题。大模型与大模型之间的差异,如果去除设备、数据等不同因素,最主要的差异就在训练的时间成本不同。

而在向公众开放这件事上也是如此,大语言模型LLM特点是Generative pre-training(生成性预训练),其目标是根据现有数据提高模型生成新且准确信息的能力。

这种方法包括两个主要步骤:预训练和微调。预训练阶段使用大量未标注数据训练模型的生成能力,通常采用自监督学习技术,模型尝试预测数据中的缺失信息或关系;微调阶段则针对特定任务或数据集进行调整。

而越早开放,意味着大模型能够学习更多,产品进步迭代也会更快。例如,从GPT-3.5到GPT-4的迭代时间只用了三个月。

但大模型真正的“飞轮”严格意义上来说并不是其本身,而是围绕大模型即将诞生的“AI时代操作系统”,也可以理解为黄仁勋口中的“iPhone时刻”。

我们可以将其视作围绕AI展开的操作系统或底层平台,类比移动互联网时代诞生的操作系统iOS及安卓。不同之处在于,大模型并不是依靠硬件终端变化来实现代际变革,而是依靠人工智能技术为用户提供的实际便利场景去完成用户习惯的迁移。

具体来说,上述代际变革的实现依靠的是IT技术栈中的应用层。而在大模型平台化的逻辑下,有两类厂商值得关注:

1 有一定技术实力能够独立开发大模型的科技巨头,比如谷歌、百度、Meta、华为、阿里等,这类公司一般技术积累相对雄厚,应用场景也更加直观。其通用人工智能领域的想象空间不会止于SaaS软件服务,内容消费、社交娱乐等巨头更擅长的领域会迅速接棒;

2 有能力快速接入大模型生态,将自身应用插件化/原生化的厂商:用户基础大、有实际应用场景的公司会尽快接入,先发优势下,这类厂商的估值将直接受益于大模型的波浪式创新。

而在可预见的未来,会有更多的外部成熟应用将向AI平台迁移,开启“手转AI”浪潮。

随着外部成熟应用的交互圈层扩大,大模型与用户日常生活将结合得更加紧密,参考移动互联网时代的端转手趋势,主流应用即将展开向AI平台的迁移,即探索AI 加持下自身应用的新场景。

今年的中关村论坛,李彦宏其实已经提到过,大模型会催生AI原生应用。百度也的确在这方面走的比较超前,正在用AI原生思维重构所有的产品、服务和工作流程。百度要做第一个把全部产品重做一遍的公司,不是整合,不是接入,是重做,重构。

这是整个业界都非常期待的,特别是其中一点,“不是整合,不是接入,是重做,重构”。从这点来看,百度应该是有过思考的,这个思路和AI原生所表达的一样。

以往的AI产品更多的是整合或接入,即用AI来改造现有系统,期待现有系统有一定的智能水平。但AI原生不是这样,是需要在产品设计中就考虑每一个组件都直接或间接来使用AI,来实现数据和知识的驱动。如果没有重做或重构,是无法实现的。

比如OpenAI正考虑为AI软件创建一个应用商店,以及估值超2亿美元的DoNotPay这样的应用已经展现出繁荣的趋势。好消息是,百度将在Baidu World 2023上发布多款AI原生应用,并分享如何通过AI原生思维与产业界实现共赢。

而且,为加速实现大模型在产业端的应用落地,挖掘国内AI原生的产品,百度也已经宣布将举办大模型领域首个创业大赛,将以百度全栈式技术优势加持,同时设立基金规模10亿元的文心投资基金,致力于推动大模型赋能千行百业。

尾声

正如巴里施瓦茨在《选择的悖论》中提到:“我们要面对的选择不断增加,需要评估的信息也在相应增长,我们发现自己越来越依赖那些二手资料,而不是一手的个人经验”。

生成式AI正在扮演这样一个角色。

今天往后,所有人都可以通过文心一言获取最符合自己的搜索答案,未来也可以在百度网盘、百度文库、小度等更多产品中使用到AI能力。

但这只是一个开始,AIGC真正的魅力在于生态的成型,更多的外部开发者甚至更多的普通用户,可以借助文心大模型的能力构建属于自己的产品或服务。换言之,AI将真正成为普世化、低门槛、高效率的生产力工具。

从这个角度看,文心一言向公众开放或许是一个新时代到来的转折点。

参考资料

[1] 八家互联网大厂大模型,从通用模型到应用落地,零壹智库

[2] ChatGPT对外开放插件,行业格局将迎来重塑,华西证券

[3] OpenAI拟打造AI应用商店,智能助理生态初现雏形,国盛证券

[4] 百度李彦宏:人工智能时代,IT技术栈发生了根本性变化,每日经济新闻

[5] 海外ChatGPT/GPT-4 如何赋能应用,华泰证券

[6] 李彦宏提及的AI原生应用是什么?知乎@wgwang

编者按:本文转载自微信公众号:解码Decode(ID:kankeji001),作者:解码工作室 

可行性研究报告
解码Decode

本文作者信息

解码Decode(科技自媒体)

关注(60692)赞(1)

邀请演讲

广告、内容合作请点这里:寻求合作

咨询·服务

相关阅读

精彩推荐