首页 产业新闻 大佬说AI|李彦宏谈大模型开源 亚马逊CEO股东信谈AI 吴恩达因AI成亚马逊董事会成员

大佬说AI|李彦宏谈大模型开源 亚马逊CEO股东信谈AI 吴恩达因AI成亚马逊董事会成员

产业新闻 19

    4月15日消息,过去一周,国内外AI圈子又有众多话题涌现。

    国内,媒体披露了百度董事长兼首席执行官李彦宏的一份内部讲话。在讲话中,李彦宏首次谈及文心大模型为什么不开源,并对大模型开源与闭源的路线选择以及应用等业界焦点话题发表看法。

    在上周五,亚马逊CEO安迪•贾西(Andy Jassy)发布了给股东的公开信。在信中,安迪•贾西多次谈到了生成式AI。

    而在上周早些时间,亚马逊宣布任命吴恩达为董事会成员,亚马逊董事会认为吴恩达“将帮助董事会了解 AI 带来的机遇和挑战以及其变革性的社会和商业潜力。”

    吴恩达是机器学习、AI 和在线教育领域的知名商业科技领袖。吴恩达曾是在线教育公司 Coursera 的联合创始人,目前是 AI Fund 风险投资基金的执行普通合伙人、教育科技公司 DeepLearning.AI 的创始人、计算机视觉初创公司 Landing AI 的创始人兼首席执行官、斯坦福大学兼职教授,曾任谷歌 Brain 深度学习项目负责人、百度首席科学家。

    至此,吴恩达因为AI,成为曾经和百度、现在和亚马逊都有关系的人。

    另外,科技圈话题中心大佬马斯克最近也很忙。一方面,尽管就在今天马斯克刚刚发布全员邮件,特斯拉即将在全球范围内裁员 10%。但是,在AI领域,马斯克还在加大投资。

    上周,马斯克的大模型创企xAI推出了其首款多模态大模型Grok-1.5V。除了文本功能外,Grok现在还可以处理各种各样的视觉信息,包括文档、图表、图表、屏幕截图、照片,并能进行多学科推理。从披露的基准测试跑分来看,与GPT-4V、Claude 3 Sonnet、Claude 3 Opus、Gemini Pro 1.5相比,Grok-1.5V的表现不相上下,在一些基准测试中略胜一筹。

    与此同时,xAI还贴出招聘链接,邀请更多设计师、工程师、产品、数据、Infra、AI导师加入。

    李彦宏:文心大模型为什么不开源

    4月11日,媒体报道李彦宏的内部讲话流出。在这份内部讲话中,李彦宏首次谈及文心大模型为什么不开源。

    他透露,一年前文心大模型刚刚发布的时候,百度内部曾有过非常激烈的讨论,最后大家决定不开源。

    “为什么不开源?当时的判断是,市场上一定会有开源的模型,而且是不止一家会开源。在这种情况下,多百度一家开源不多,少百度一家开源也不少。”李彦宏说。

    “我们今天看主流的开源模型,比如像Llama,Mistral其实都是有相当影响力的,国内的智源、百川、阿里的通义也都是开源的,这个市场上不缺我们这一家开源的模型,“我们要开源还得自己去维护一套开源的版本,这是不划算的”。

    另外,在李彦宏看来,模型开源也不是一个众人拾柴火焰高的情况,这跟传统的软件开源一比如Linux、安卓等很不一样,由于是模型带来的开源,我们也不知道参数为什么变成了那个样子,这种情况下很难实现众人拾柴火焰高。

    此外,李彦宏还认为,大模型闭源具备成本、效率等多方面优势。

    李彦宏表示,大家以为开源是免费的,在成本上有优势,实际上我们认为闭源在成本上反而是有优势的,只要是同等能力,闭源模型的推理成本一定是更低的,响应速度一定是更快的,反过来,同等参数的情况下,闭源模型的能力也是更强的。

    “今天不管是在中国也好、在美国也好,最强的基础模型都是闭源的,而各种各样的小模型、最好的小模型,都是通过大模型蒸馏来的。通过大模型降维做出来的模型就是更好的,这样也会导致闭源在成本上、在效率上也会有优势。” 李彦宏表示。

    李彦宏认为,闭源模型在能力上会持续地领先,而不是一时地领先,大模型开源意义不大,闭源才能走通商业模式,闭源是能够赚到钱的,能够赚到钱才能聚集算力、聚集人才。

    亚马逊CEO:生成式AI可能是自互联网以来最大的技术变革

    近日,亚马逊CEO安迪•贾西(Andy Jassy)发布了给股东的公开信。在信中,安迪•贾西也多次谈到了生成式AI。

    “有时,人们会问我们‘你的下一个支柱是什么?你有Marketplace、Prime和AWS,下一个是什么?’当然,这是一个发人深省的问题。然而,人们从来没有问过一个问题,而且可能更有趣的是,你正在构建的下一组能够实现突破性客户体验的基础设施是什么?如果你今天问我,我会用生成式人工智能(“GenAI”)来领导。”

    随着2022年ChatGPT的显著推出,早期公众的注意力大多集中在GenAI应用上。但是,按照我们“原始”的思维方式,GenAI堆栈中有三个不同的层,每个层都是巨大的,我们正在深入投资。

    安迪•贾西所指出的”三个不同的层”,也就是AWS打造的端到端应用生成式AI三层架构:由下至上在底层提供用于训练基础模型和在生产中运行这些模型的基础设施;中间层提供调用和访问基础模型的最便捷的工具,让没有AI经验的构建者,直接获得应用生成式人工智能所需的所有工具,来构建自己的应用;顶层是利用基础模型构建的开箱即用的应用程序,让没有技术基础的业务用户,也能在具体场景中直接使用生成式AI。

    安迪•贾西在信中谈到:生成式人工智能(Generative AI)可能是自云(其本身仍处于早期阶段)以来,甚至可能是自互联网以来最大的技术变革。与将内部部署基础设施大规模现代化到云(需要迁移工作)不同,这场GenAI革命将从一开始就建立在云之上。从这些可能的解决方案中获得的社会和商业利益将使我们所有人都感到震惊。

广告

文章目录

    标签列表