首页 产业新闻 这一次,周鸿祎点赞李彦宏

这一次,周鸿祎点赞李彦宏

产业新闻 18

    7月10日消息,360创始人周鸿祎今日专门发视频点赞百度李彦宏。他说:李彦宏说不要卷模型要卷应用 我要给他点个赞。

    周鸿祎称,“看了这次上海世界人工智能大会的报道,我发现慢慢国内AI行业大模型产业有很多观点开始趋同。

    2023年是百模大战,我觉得并没有浪费资源,因为要解决中国大模型从无到有、从0到1的问题。在这个竞争中,国产的无论是闭源还是开源的大模型都发展起来,而且明显在缩短和OpenAI的差距,这应该是大家有目共睹的成绩。

    但是到2024年,大家确实开始反思一个问题,大模型做的能力很强,但是如何应用,如何结合场景,变成了比大模型本身更为重要的问题。

    所以这次在世界人工智能大会上,很高兴的看到很多人都有类似的观点。比如说院士王坚就提到基础模型做的还可以,我们应用做的还不够好。特别要给李彦宏点个赞,百度的当家人李彦宏就讲说大家不要卷模型了,要去卷应用。”

    在7月4日下午的2024世界人工智能大会暨人工智能全球治理高级别会议产业发展主论坛上,百度董事长兼首席执行官李彦宏发表主题演讲。他在演讲中谈到:我看到我们的媒体仍然是把主要的关注点放在了基础模型身上,一天到晚到处去跑分刷榜。今天这个震撼发布,明天史诗级更新。但是我要问应用在哪里?谁从中获益了?

    对此,周鸿祎称:“我仔细看李彦宏的讲话,我觉得和我的观点越来越一致了。就是说百度也开始强调在模型的能力基础之上,要开始寻找应用的突破点。”

    在周鸿祎看来,这边有2个观点,一个就是模型,原来说模型即产品,现在看来大家也都认同模型不是产品,模型只是能力,能力要和场景结合才能发挥作用。第二个李彦宏举了一些例子,也提到了百度实际上也在基础大模型的基础之上开发专用大模型。

    李彦宏在7月4日的演讲中的举例如下:

    “比如在小说创作领域,一开始也用开源模型做出过一些效果,后来改用文心轻量级模型,经过10轮上万组数据的SFT和post pretrain,结果有了明显的提升,最近又转到文心4.0版本,仅用了数百条数据,4.0就在情节和逻辑方面展现出了非凡的优势,生成的内容无论是可用率还是优质率都大大超过了轻量级模型,网文作者们如虎添翼!

    其实更通用的领域,比如说代码生成,文心快码这样的软件,在各个领域,也在逐步的渗透,在百度内部,我们有30%左右的代码,已经用AI生成的,代码的采用率超过了44%。”

    周鸿祎表示,“这个也验证了我的一个观点,就是未来专用模型在不同的应用领域会大行其道。肯定要放弃一个通用大模型试图解决全世界所有问题的幻想,而是在通用大模型基础之上,训练出各种各样的专业大模型、场景大模型或者应用大模型。”

    “所以我觉得大模型不是操作系统,不会全世界只有3套到4套会垄断。大模型更像一个电动机一样,可大可小,可强可弱,可高可低。可以大到工厂里的流水线驱动,中到给一个汽车加四个轮子当驱动,也可以变成风扇、刮胡刀、吹风机,反正它会变成数字化系统里的标准组件。所以我给大模型派生出来的各种垂直模型会无处不在,甚至藏在很多应用场景的后面。我们用这个应用场景新的功能的时候,就觉得很方便,但是你会感觉不到大模型的存在,大模型后台默默的发挥作用。”周鸿祎称。

    因此,周鸿祎总结道:“所以对于很多公司和创业者而言,2024年我觉得关键是要找到明星场景。寻找明星场景,就这个场景一定是用户有痛点,有刚需。你如果能改变他,能解决他这个问题,它能带来十倍的成本降低,或者十倍的效益提升,或者十倍的体验提高。所以找到关键性的场景就是找到了问题的关键。”

    对于李彦宏的观点,周鸿祎此前也有不认同的,比如在大模型开源和闭源问题上。

    李彦宏是坚定看好闭源大模型的。

    早在4月16日Create2024 百度AI开发者大会上,李彦宏就旗帜鲜明的指出:“开源模型会越来越落后”。他认为闭源模型在能力上会持续地领先,而不是一时地领先。模型开源并不是一个众人拾柴火焰高的情况,这与传统的软件开源,比如Linux、安卓等有很大的不同。他强调,闭源模型有真正的商业模式,能够盈利,从而聚集算力和人才。此外,从成本角度看,闭源模型在同等能力下,其推理成本更低,响应速度更快。

    在7月4日的演讲中,李彦宏再次详细阐述了他看好闭源大模型的原因:

    “所谓模型开源,是拿到的只是一大堆参数,你还是要去做SFT,还是要去做安全对齐,你不知道这些参数是怎么来的,你是无法做到众人拾柴火焰高的。即使你拿到对应的源代码,你也不知道他用了多少数据,用了什么比例的数据去训练这些参数。所以拿到这些东西,并不能够让你站在巨人的肩膀上去迭代和开发。

    所以,同样参数规模之下,闭源模型的能力就比开源模型要更好,而如果开源要想能力追平闭源,那么它就需要有更大的参数,这就意味着推理成本会更高,反应速度会更慢。

    很多人拿开源模型来改款,以为这样可以更好的服务自己的个性化应用,殊不知,这样你就创造了一个孤本模型,既无法从基础模型持续升级当中获益,也没办法跟别人去共享算力。”

    李彦宏认为,开源模型只在一些学术研究,或者在教学领域,大家想要研究大模型的工作机制,形成理论,这个时候可能是有价值的。

    而周鸿祎则是坚定的开源派,看好开源大模型。周鸿祎的观点还被认为是“攻击李厂长”。

    以至于在今年4月20日、21日,周鸿祎还连发长文、视频表示:“这两天有人挑事儿,说我攻击李厂长。我一直是开源的信徒,但是我说开源好,是13 号在哈佛讲的,李厂长说闭源好,是 16号在北京讲的。所以我不是针对李厂长,我还是从产业发展的角度来看开源和闭源。”

    在周鸿祎看来,Meta 新发布的开源模型 Llama3 是证明“开源一定会超过闭源”的最答案。

    不过,周鸿祎在今天发布的这则点赞李彦宏的视频中,没有谈论大模型开源闭源的问题。