临近年底了,AI圈的新闻好像又变得特别多。比如就在前不久, OpenAI的CEO山姆·奥特曼走了又回的消息,那可真叫一个意外接着一个意外。再比如,在之前,马斯克也在重推自己的大模型。总之,过去这一整年里, AI圈的新闻确实不少。年初的时候,我们主要关注这个技术,而到了年底,经过一年的发展之后,我们的关注点已经变成了整个领域的竞争格局。
那么此时此刻,AI在产业中的落地情况到底怎么样?其中又蕴藏着哪些咱们普通人能够得着的新机会?针对这个问题,前段时间咱们国内AI圈的两位关键人物,李彦宏和马化腾,都分别发表过各自的观点。
《商业参考》在前段时间休息期间,OpenAI发布了惊艳世界的大语言模型ChatGPT。这之后,全球各路科技公司纷纷跟进,中国企业也不例外,也掀起了“百模大战”。
AI大模型和它所代表的未来当然是革命性的,但我一开始的想法是,让子弹飞一会儿,等某几家企业出现了明显的优势,我们再来跟进。毕竟,光解释各家大模型的技术差异,那就成科技参考了。商业参考更关注的是大模型玩家们怎么探索商业模式、怎么构建市场格局。
今天的大模型产业还是争夺基建资质的时代,作为普通人去下判断说哪个大哥肯定能吃到肉,还有点早。同时,我还有个偷懒的想法:毕竟这几个月,其他的商业和经济巨变还很多,比如出海啊、银发啊、双十一啊、中美经贸关系啊,商业参考一度有点考不过来,所以AI大模型这事儿,就先往后放了放。
不过OpenAI发生“政变”之后,各位同学对大模型的关注度又高了起来。我正好最近读到百度创始人李彦宏在深圳的西丽湖论坛的一个演讲,我想邀请你从他演讲当中的一个议题开始,启动《商业参考》对大模型和大模型产业的学习。
两个冷思考
你肯定知道,百度也在2023年推出了自己的通用大模型文心一言。按照李彦宏之前的披露,10年来,百度已经在人工智能研发上,投入了1000亿了。
李彦宏演讲中这个有意思的议题,他自己称作对人工智能的两个“冷”思考。
一、“冷”思考,他认为,中国的大模型很多,但是基于大模型开发出来的AI原生应用却非常少。
什么是AI原生应用?就是在大模型智能涌现之后,基于大模型的理解、生成、逻辑和记忆能力而开发出来的新应用,类似于OpenAI在11月初开发者大会上提出的那种人人都可打造的GPTs,还有《商业参考》之前跟你提过的一个学英语的应用Hi Echo。
李彦宏在演讲里说,他见到很多企业,CEO很重视大模型带来的产业革命机会,但对问题的本质理解不深,CEO把任务交给IT负责人,IT负责人和工程师天天被所谓的“震撼发布”“史诗级的更新”“iPhone时刻”“炸裂”这些说法忽悠,都想自己也搞个基础模型,或者按照网上传播的评测方法来挑选一款评分高的大模型,以为这就是拥抱AI时代了。
他说这话确实有数字依据。有报道说,截至10月份,中国国内已经发布了238个大模型,相比4个月前翻了3倍。
同时,中国开始出现AI原生应用了吗?有是有,但是不多。之前热闹过的妙鸭相机基本算一个,我们专栏推荐过的Hi Echo也可以算一个。百度自己也出了一组,像李彦宏自己的演讲PPT就是他用百度的AI文库,根据演讲稿来自动生成的。
相比之下,国外市场除了有几十个基础大模型之外,也有了上千个AI原生应用,比如最近有个好玩的小硬件AI Pin你可以留意一下。我就不再多罗列了。总之,海外的AI原生应用盛况,中国市场还没出现。
这在李彦宏看来不是一个好的行业结构。他认为,人类进入AI时代的标志不是产生很多的大模型,而是产生很多的AI原生应用。这个结构跟PC时代、移动互联网时代的产业结构类似。在PC时代,Windows操作系统一家独大,它属于微软;同时基于Windows系统有各种各样的开发软件,有播放器、输入法工具、PhotoShop,这些软件又属于各种各样的开发者和公司。移动互联网时代,主流操作系统也只有Google的安卓和苹果的iOS两家,而它们生态里的移动应用有800万之多。
同样的逻辑去构想大模型时代,也应该是少数的基础大模型作为类似操作系统的技术底座存在。在底座之上,开发者们再开发出各种各样的AI原生应用,也就类似移动时代的App,和PC时代的软件们。
以终为始来审视当下,整个行业200多个玩家都来重复开发基础大模型,在李彦宏看来,就是对社会资源的极大浪费。
这种“浪费”,他用百度的文心大模型举了一个例子。文心一言大模型在2023年8月31号开放以来,它的API调用量在指数级增长。我查到的数字是,10月底,百度在搜索方面的AI大模型调用量每天超过了3亿次。它这一家的调用量,就比国内200多个大模型的调用量加起来还多。你看他这句话还挺得罪人,还真是勇。
基于这个论据,李彦宏建议,中国的AI产业政策可以更加侧重于鼓励市场去开发AI原生应用。
李彦宏的第二个冷思考是:专业大模型由于没有智能涌现能力,价值非常有限。它的有限之处在于,不能产生“智能涌现”。
现在国内很多行业、企业和城市都在囤显卡、囤芯片、建智算中心,都想要从头训练自己的专用大模型。李彦宏认为,这样炼出来的大模型是没有智能涌现能力的。
这里我们解释一下,所谓的专业大模型,就是一个行业专门用本行业的知识和数据来训练一个垂直模型,希望借此把垂直模型训练成一个AI行业专家,比如医疗专家、旅行顾问。你告诉它说,我有两万块的预算,有7天的时间,我想出国,你给我安排一个行程。它就给你事无巨细地安排出一个行程出来。
而跟专业大模型相对应的,就是GPT、文心一言这种基础大模型或者叫通用大模型。
但是智能要怎么才能涌现呢?只有当一个模型的参数规模足够大,训练数据量足够多,并且能够不断投入、不断迭代,才能够产生智能涌现,所谓智能涌现也就是让大模型产生触类旁通的能力,让它能明白你没教过的东西。但专业大模型其实是把其他知识入口给关闭之后训练出来的“小模型”,“触类旁通”的可能性也就被关闭了。
这样的模型价值有限,其实没法在一个产业里独当一面。所以,李彦宏的意思是,大模型的产业化模式不是各搞各的独立产业大模型,而是基础大模型套专业小模型,专用的小模型拥有专业知识,反应快、成本低,但涉猎有限;同时,底座上的大模型更智能,可以用来扩展和兜底。
产融结合的长跑期
听完李彦宏这两个冷思考,你肯定也能明白,他是在劝从业者们,少跟自家的文心一言竞争,多跟文心一言协同合作。
李彦宏其实在一个月前的百度世界大会上,就已经亲自上阵讲过手把手教你做AI原生应用。他这也是在帮自家的文心大模型开拓商业生态了。但在今天,其他企业和创业者,对开发AI原生应用没有那么热情也很好理解。你想啊,大模型时代刚刚开始,还没有看出哪个大哥最成熟、最可信,未来能挣到的肉最多,现在冒然去跟某一家协作,对方的收益大,而自己的风险高。
不过,刨掉营销属性,李彦宏的两个冷思考,也是国内外AI产业的普遍共识。无论是谁开发基础大模型,都要经受三个要素考验:数据、算法技术和算力,这都是要靠钱堆出来的。GPT-4能够参加生物奥林匹克竞赛超过99%的人类,是因为它一次的训练成本就高达6300万美元,比人类的补习班贵多了。OpenAI在11月初的开发者大会上,宣布要做GPT应用商店,邀请开发者们一起来搞钱分账,也跟它的财务压力不无关系。
那么,谁能够拥有充分的数据、资本优势,还没有当期的变现压力,还能获得市场民众的信任投票呢?我正好前几天跟快刀青衣开玩笑,我说,社保基金最适合投资训练通用大模型。你想,训练完之后,开放给全市场付费使用。普通民众可以凭社保账号登录大模型,屏幕前先弹出一个问题问你,自费还是走社保?你选完之后,再往下沟通。快刀补充说,那这样一来,还可以参照医保集采模式,来向市场集中采购训练大模型用的语料数据。大模型的知识产权问题,也解决了。当然,我们这是开玩笑。
从资源集成的能力来看,当前,在国内,有财力从零开始去烧出一个基础大模型来的,确实也就是华为、百度、阿里、腾讯这个量级的大公司。华为的大模型叫盘古,腾讯的叫混元,百度的文心,阿里的通义。这些大公司也各有各的算力储备和自研的AI芯片储备:腾讯有紫霄,百度有昆仑,阿里有含光,华为有昇腾,自家有自研芯片,就不那么惧怕来自外部的技术封锁。
我们要是再往前翻,马化腾早在5月份也讲过跟李彦宏类似的观点:
对于工业革命来讲,早一个月把电灯泡拿出来,在长的时间跨度上来看是不那么重要的。关键还是要把底层的算法、算力和数据扎扎实实做好。而且更关键的是场景落地。
马化腾这句话翻译一下,两层意思:一,腾讯做基础大模型不求一时的快慢;第二,给大模型找落地场景,比开发基础大模型重要。什么样的落地场景?比如47讲提过的腾讯机器人实验室,研发灵巧手、机械臂和机器狗,就是在给AI找落地场景。腾讯还特意花精力跟北大光华这样的商学院合作开课,布置听课的企业主写作业,在各自的业务场景里找跟AI的结合点。
阿里也在给大模型找场景。比如它最基础的电商业务方向上,阿里国际站也发布了一个AI生意助手,来帮跨境卖家们分析市场、接待客户、做营销方案、根据热点起标题等等。
阿里国际站总裁张阔还下了个定义,说2023年上半年的百模大战是AI产业化的井喷期,下半年,开始进入大模型与产业融合的长跑期。他这句话,我们可以当作接下来观察AI产业的起点。
在这个长跑期,哪个基础大模型团结到的开发者越多、在产业里找到的落地场景越多,显然也就越有胜算。这又回到了前面李彦宏力劝AI从业者们找文心大模型合作的原因。