李开复最近很忙,不断飞往全国各地,频频往复于深港之间。用他自己的话来讲:忙着见许多“超大客户”。
他在61岁这年兴办的AI大模型公司零一万物,前不久阅历了严峻的战略调整,成为“AI六小虎”中榜首家宣告抛弃超大参数模型预练习的公司,在国内商场聚集轻量化模型落地,全力转向ToB(企业端)运用。
DeepSeek在新年期间的异军突起也加快了零一万物的转型。“当你花大笔的钱(去训超大模型)得不到报答,跟DeepSeek也不能对标,为什么要做这件作业?这是一个好的CEO有必要要问自己的问题。”李开复说。
DeepSeek的爆火为大模型ToB事务完成了一次透彻的商场教育。他看到的时机是,企业主意识到或许是时分搭上大模型的快车,但对半途的途径和终究的目的地仍然认知含糊。
这样的布景之下,零一万物发布了一款名为“万智”的企业大模型一站式渠道,其时最大卖点是可供给企业级DeepSeek布置定制处理方案。它被寄予添补企业与DeepSeek之间技能沟壑的期望。
不过,这些看起来务实的做法,也在职业中引来了许多质疑。有人批判李开复容易就退出了AGI比赛。
关于这些谈论,李开复以安静心态来看待。“我觉得它代表了咱们看懂咱们做的战略转型,我没有任何的定见。”他明晰表态不会过度反思从前的过错决议计划,但假如说大模型创业阅历留下了什么阅历,那便是应该更早看清楚开源的必定性。
尽管暂时抛弃了超大参数根底模型比赛,但李开复仍然在亲近调查这一范畴。他预言,我国AI基座大模型终究会大概率会剩三家:DeepSeek,阿里通义,字节跳动。在中美大模型比赛话题上,他以为以OpenAI o1和DeepSeek-R1为基准,中美间隔或已缩短至3个月。
别的,他企图重申关于AGI的界说,不是“什么作业都可以超越一切人类”,而是“在人做的90%作业上,比90%的人做得要好”。以这个界说为规范,咱们间隔AGI或许还有5年。
在人生终究一次创业项目上,尽管作出了务实挑选,但李开复坚称这并不等同于彻底抛弃了AGI。在他看来,打造一个商业底座,用赢利捡起AGI的愿望,这也是或许的。
“咱们终究仍是想成为一个巨大的AI 2.0公司,让大模型赋能千行百业。”李开复说。
以下为界面新闻对李开复的专访实录,略作修改:
界面新闻:你最近如同一直在出差,就连“万智”发布会当天都在赶飞机,为什么?
李开复:我最近行程组织得很满,也见了许多客户。比方说我今日去深圳便是见了一个超大客户,我在香港也见了许多超大客户。
比较要点参加招投标,不吝赔本拿单的To B打法,咱们的不同便是会寻觅那些头部的大B客户,运用曩昔堆集的大模型研制中台才干来深度参加,以比较轻可是精准的方法进行企业定制,当然对这些客户的收费也会更高。有的公司一年上百个客户,每个拿小几百万,咱们的诉求是少于10个首要客户,每个都是千万等级收入。
咱们的开展会首要看几个目标:榜首是这个公司是否期望把AI放进中心事务里。第二是找那些数字化转型现已做得比较好的公司。第三是期望公司从CEO开端活跃拥抱AI,这样两边协作起来才会疏通,并且老板决定的经费会更多。
还有一个特点是,我究竟年岁、阅历、人脉都摆在这儿,我国的大老板们,我能敲开门的时机会比其他友商多得多。
界面新闻:所以你并不避忌要自己亲身跑出来给公司做出售?
李开复:咱们要做To B的公司,公司最大的出售必定是CEO。这一点或许许多公司老板不乐意做,但这是我乐意做的。
咱们公司今日出售团队还十分小,但不到10人的团队能拿到这么多订单,就是由于咱们从灯塔客户开端打,然后我亲身出马。
咱们的转换率或许很低,比方我见10个CEO朋友有1个单子就现已很好了。可是比起AI 1.0年代彼此竞标、做一单赔一单的形式,现在咱们的商业形式更健康,更可持续。一次不成不要紧,适宜的客户在那里,咱们仅仅需求时刻来发掘。
界面新闻:发布“万智”这个产品对零一万物意味着什么?算是找到了阶段性的出路吗?
李开复:今日跟曩昔有一个很大的不同是,企业客户都觉醒了。由于DeepSeek的呈现教育了商场,我国阅历了自己的“DeepSeek Moment”。新年之前DeepSeek发布,接着便是新年期间的传达,老板们回来今后都说咱们要对接DeepSeek,然后IT部分开端布置起来。
这些老板们或许首要想到的是,假如我能把公司一切财政信息、比赛对手信息输入进去,我能不能问它本年的战略方向?我的比赛对手最大的软肋在什么当地?以及公司在哪里有糟蹋?法律合同是否有违规危险?
这或许是榜首步,DeepSeek或许可以做到一部分,可是假如他们只把模型接入,是不能彻底处理这些问题的。许多企业CEO出于数据安全等原因,不期望直接接入API,所以需求本地布置。别的在运用实践方面,许多公司需求DeepResearch等功能,也需求用RAG技能链接企业数据库。此外还有企业期望可以在基座模型根底上开发运用、打造企业专属智能体。乃至还有许多企业需求根据DeepSeek模型进行模型微调。
这些都是万智的时机。咱们是供给了一个“大模型研制中台”,让客户可以接入包含DeepSeek在内的大模型,然后根据自身需求进行微谐和建立运用。当然咱们的Yi模型还在里边,也包含阿里千问的模型,可是大部分用户要的是DeepSeek。
界面新闻:外界现在有质疑声说,你们的产品会过于依托其他开源模型。你们内部会有焦虑吗?
李开复:DeepSeek作业对全国际最大的一个撼动便是,开源模型赢了。由于哪怕是强如Open AI的公司,花了70亿美元一年的经费,也只能比DeepSeek略好一点点,并且DeepSeek仍是免费的。我觉得“花70亿美元比他人好一点点”是一个不可持续的商业形式。
未来越来越多的基座模型会开源。咱们也看到有一些大厂开端有更多开源的动作,美国或许也是这样。下一个阶段的比赛,便是谁能做最好的开源模型。
所以,我觉得全国际每一家大模型公司,现在只会焦虑自己是否过度依托闭源模型。特别是资金实力不可雄厚的公司,只依托自己的才干,能不能打败全国际的开源社区?这个才是焦虑。相反,现在自动拥抱DeepSeek等开源模型,尽早做出差异化的打法,可以每天睡得很好,很安稳。
界面新闻:零一万物算是六小虎里比较早退出超大基座大模型比赛的公司,但现在确实还有许多公司还执着于预练习这件作业,你想对他们说什么?
李开复:每家公司有自己运营的一些考量跟规矩,在不了解每家公司基本面情况下我不会以为我有资历去给他们做建议。我觉得在大模型范畴可以竟敢去做的都是英勇的创业者,所以我会祝他们好运。
但就咱们自己来说,曩昔这半年,由于不做超大模型练习,咱们的GPU本钱大大下降,让咱们有预算在商业部分里衡量决议计划,在什么当地添加人数、有多快能得到相应报答。就算要花钱,也可以在一段时刻后看到这个钱发生报答,而不是预练习一个或许是血本无归的巨大模型。
就算你只花3000万美元练习了一个国际前十的模型,它的生命周期或许便是3-6个月。那就代表你每个月要有500万到1000万美元净赢利才干够打平,这个账显着是算不过来的。
所以短期来说,当你花大笔的钱得不到报答,跟DeepSeek也不能有用对标,为什么要做这件作业?这是一个负责任的CEO有必要要问自己的问题。
界面新闻:现在让你从头定位零一万物,你会把它叫作一家什么公司?
李开复:最懂大模型的运用公司。
界面新闻:你们在转型之后再去融资有更被认可吗?
李开复:出资人对咱们的转型是十分认可的。别的我之前在Bloomberg的采访上也说了,今日的VC对出资一个烧超大模型的创业型公司是零爱好。
当然假如把DeepSeek算在里边,它是破例。它现在要一个十分高的估值也是可以要得到的。
界面新闻:我能不能理解为零一万物现在所做的一切尽力或许转型,终究仍是为了给出资人告知,或许说要服务于上市?
李开复:当然不是,咱们终究仍是想成为一个巨大的软件公司。
比方说当年谁是做出最早的微型机操作系统的,是一个今日或许都没有听过的公司叫做Digital Research。微软是参阅了他人的操作系统,优化立异后建立成了一个真实的用户可用的操作系统。以及当年谁是做database(数据库)最牛的公司,肯定是IBM,可是谁做了一套可用的database,那便是Oracle、SAP还有SalesForce。
今日没有谁会去诟病Oracle、SAP、SalesForce没有做出最巨大的database research(数据库研讨),也没有人会诟病微软当年没有最强的操作系统技能,也没有人会说当年的它们做作业便是为了上市。它们之所以能成功,便是由于它们的愿景是做一个巨大的软件公司。
我也不是说就永久抛弃了AGI的愿望,可是有了一个商业底座,成为一个很成功的软件公司,运用赢利再捡起AGI的愿望,这也是或许的。
界面新闻:你有预见到零一万物会开展成现在这个姿态吗?复盘曩昔会不会反思有哪些决议计划可以做得更好?
李开复:我觉得其时应该更拥抱开源的。现在咱们是从运用层拥抱开源,其时或许从模型层拥抱开源,会是一个更好的挑选。
其时咱们看到有三种公司,一种是坚决闭源的,第二种是开源次好的模型,闭源最好的模型,第三种是彻底开源的。咱们归于第二种,其时假如做得更完好的话会更好。
界面新闻:更拥抱开源的中心含义是什么?
李开复:开源可以创造生态,然后得到认可。可是我也不会去过度推测,假如其时做了,咱们是不是有时机成为DeepSeek。可是假如说我学到了什么阅历的话,那便是应该更看清楚开源的必定性。
界面新闻:你在年头看到DeepSeek全球爆火的直观感触是什么?会复盘为什么零一无法做到吗?由于你对技能的判别都没有错,从day 1开端就注重AI infra,很早以为贱价的推理极其重要。
李开复:DeepSeek做了若干件很正确的作业,这是一切六小虎值得学习的当地。
一个是它很注重Infra,咱们做得也不错,但仍是差它一个身位,这个有必要供认。第二是它在模型练习上做得很好,这个咱们本质上倒没有差许多。第三它Reasoning(推理)做得很好。从理论根底上来说,DeepSeek-R1 Zero应该是最冷艳的一个科研奉献,它或许在历史上都会留名的。终究一点是他们执着挑选开源。
前两个作业咱们还可以争辩一下,你不错,我也不错,但R1-Zero是一骑绝尘的作业,咱们是心服口服的。
界面新闻:你对梁文锋这个人了解吗?你会怎样点评他?
李开复:我跟他知道,但不算很熟,我只能看他的行为来点评。我觉得他是一个十分值得尊重的、很朴实酷爱技能的人。他彻底有商业化的才干,但没有为商业化和本钱折腰,这表明他是一个有抱负的人。他挑选专心技能,有自傲自己能把模型做得十分的强,乐意彻底投入。我觉得这是让我很敬服的作业。
界面新闻:在你人生中终究一次创业里,遇到了梁文锋这样的对手,有什么感触?
李开复:我是很惊喜,一起作为我国人也很骄傲。
我之前有说过,如ChatGPT不对我国敞开,而我国人没有自己的ChatGPT,会是新质生产力开展的一个阻止。终究无论是谁做出来,只需做出来,咱们最忧虑的妨碍就处理了。
现在回头看,也只要梁文锋这样一个人,既有理想,又有做量化所堆集的AI Infrastructure团队和技能布景,再加上他敢用年轻人的挑选,每一点都让我很敬服。
界面新闻:你以为我国AI大模型会收拢到三家,DeepSeek,阿里通义,字节跳动,是根据哪些维度判别的?
李开复:万亿参数以上的超大模型仍是需求有人来做的,仅仅这样的公司,它要有十分强的资金才干和工程才干,能不要过度的烧钱,然后融到满足的钱,我以为DeepSeek是可以做到的。
另一个或许的途径是,要有十分大的商业体积和用户量,才干合理去烧超大模型,这是阿里和字节。它们有十分大的用户量,烧超大模型或许花了许多钱,可是分摊到每个用户身上就还好。所以淘宝和抖音的用户,假如都能从超大模型得到价值,并为公司发生价值,加起来就值得。
阿里还有一点值得注意的是它们的模型现在做得真的很好,不差劲于DeepSeek。字节跳动今日在学术界、模型界以及开源界,并没有像DeepSeek跟阿里那么闻名。可是咱们可以看到他们有资金也有决计,也能吸引到好的人才,有满足多的用户和场景让这个投入在商业上得到报答。字节应该很快就可以做出很好的模型。
界面新闻:能问一下腾讯为什么被摘出去了吗?
李开复:腾讯是一家运用驱动的科技公司,产品方面护城河很深,有国际级的比赛力,但在基座模型投入上跟前面三家比投入还不是一个量级。我觉得腾讯彻底可以是第四个。可是今日从模型的视点,开源模型也好,模型体现也好,国内的榜首队伍并没有见到腾讯的身影。它现在挑选是微信、元宝等运用全面拥抱DeepSeek,与自研模型共存,这也是一个十分正确的做法。
界面新闻:在你了解中,美国有哪些公司真实含义上把DeepSeek直接视为了比赛对手?这种正视体现在什么当地?
李开复:应该每一家都会吧(笑)。最显着的肯定是Meta,由于它在开源的抢先地位一下就被震慑了。并且我刚刚讲的那几个优势,Meta除了开源之外,没一个可以跟DeepSeek比赛的,所以这是一个Meta内部需求严峻反思的问题。
OpenAI和Anthropic,你看他们的言行,就可以知道他们的情绪。他们开端跟美国政府诉苦,想要用政治手法来对待DeepSeek或许是对待我国,让我国更买不到芯片,让DeepSeek被美国制裁等等,并且许多话都没有事实根据。
所以让咱们看到的便是,他们急了,他们睡不着觉了。
由于他们之前的价值建议现已坍塌了,便是你每年多给我几倍的资金和资源,我就会榜首个烧出AGI,当我有了AGI,他人就做不出来了。这个价值建议多方面地坍塌了,榜首,如同不是只要你做得出来;第二,人家如同不必这么多钱就做出来了;第三,人家仍是开源免费的。
当然这些公司的人仍是很牛的,技能也是抢先的,可是作为每年烧这么多钱的公司,整个公司可以作业便是由于能讲这个故事,让它能持续循环推进,但现在良性循环变成恶性循环。
界面新闻:美国对我国的算力约束真的能卡住我国大模型的技能开展吗?
李开复:未来这一两年我国已有的英伟达芯片仍是满足的,再加上我国Infra的优势,DeepSeek练习一个相同作用的模型,或许只需求Open AI十分之一的本钱,这也是一种Scaling Law。
并且不是说堆更多GPU,而是说更有用去做预练习,所以我觉得未来更有用的预练习加上已有的GPU,应该仍是可以再做必定提高,不会说掉队。
再往下走的话,那就要靠国产芯片了。再给个一两年时刻,国产芯片应该也可以去运用,所以我觉得不会由于芯片问题有一个不可战胜的应战。
当然应战仍是有的,由于你用国产芯片就没有CUDA,那就得自己更辛苦,用更多的时刻往来不断交换成果。但这个事也是可以做的,由于DeepSeek前面一次宣布也可以看到它许多底层作业都是自己做的,所以我国工程师的勤勉吃苦可以战胜这些问题。
把这几件作业对接起来,我是比较达观的。
界面新闻:咱们现在确实可以说中美之间AI大模型间隔变小了对吗?它或许缩短到了几个月了?
李开复:最好的衡量方法便是美国做出一个簇新的技能,比方说o1,然后我国在多久之后做出了一个跟它相同好的技能,并且还有技能亮点。
之前咱们落后了6个月也好,9个月也好,但现在你从o1的发布日到R1的发布日,可以算一下应该差不多三个月,并且这次不是一个复现或蒸馏,而是有自己的新技能亮点,有值得尊重的论文的宣布。
从这几点来说的话,至少三个月是一个合理的间隔,并且在有些方面做得比Open AI还要好。
比方说在本钱和Infra方面,你其实可以倒过来说,Open AI什么时分才干够在Infra方面赶上DeepSeek?我很确认三个月是做不到的。
界面新闻:在GPT-4.5之后,咱们对预练习阶段的Scaling Law还能等待些什么?
李开复:预练习出来的超大模型自身,即使它还有前进,速度也会放缓,并且它运用起来会很贵很慢。GPT-4.5比DeepSeek-V3要贵差不多500倍,绝大多数运用是用不起它的。
当然我觉得超大模型在一些巨大的科学或许金融决议计划上仍是可以运用的,但这不是它首要的运用方法,由于太贵了。
但新的曙光现已呈现了。一方面,Scaling Law 正从预练习阶段转向推理阶段,也便是慢考虑形式。现在看来,慢考虑形式下,模型功能的生长速度十分快,并且还有很大的增加空间。
另一方面,我以为超大模型的一个重要价值在于作为“教师模型”,可以去教小的模型,说直白点用它做蒸馏、标示,还有组成数据的发生。今后较小的模型或许练习的语料也是超大模型组成的,这样可以更有用去紧缩它必定的练习量。
AI凭借慢考虑获得了反思的才干,可以自我迭代、自我前进,未来或许不再单单依托人来创造新算法、创造模型架构,而是“AI教AI”,AI会进入到自我演进范式。
咱们会惊喜地发现,全体来看,模型功能的提高其实在加快,而不是在放缓。从GPT-2到 GPT-3、从GPT-3到GPT-4.5,每一次晋级都花了大约两年的时刻。而无论是从OpenAI o1到o3,仍是从DeepSeek-R1到或许很快会发布的R2,模型迭代的速度缩短到了三个月左右。
界面新闻:那在现有情况下,你以为咱们还要多久能完成AGI?
李开复:我觉得AGI的原始界说是含糊的,乃至或许是不可及的。“什么作业都可以超越一切人类”,首要难度就很高,衡量规范也不明晰,并且会给人一种恐惧感,便是那咱们人类今后干什么?
AGI更合理的界说或许是,在人做的90%作业上,比90%的人做得要好。依照这个界说,我觉得5年之内肯定会完成的。
界面新闻:你会怎样看待Manus的走红?进入AI运用年代,做得更早还有先发优势吗?
李开复:我不谈某一个运用。但我可以说,我之前也说过2025年是运用迸发年,便是由于底层模型才干快速提高,并且推理本钱快速下降,各行各业每个运用都会被重做一次,还有许多曩昔不或许的运用,让人眼睛一亮的运用,都会在2025年开端发生。
界面新闻:你们有在憋这种类似于可以刷屏产品的大招吗?
李开复:我肯定是有爱好,由于当我看到这种商机却什么都不做,那肯定是不可的。但你要说憋了什么大招,究竟多大,我现在无可奉告。
界面新闻:终究一个问题,面临这么卷的职业,你个人坚持下去的动力是什么?
李开复:我觉得我这一生就在等AI年代的降临,它降临了,便是给我最大的动力。实际上做什么,我觉得每一个人便是量力而为,去自己可以发生最大价值的当地,我觉得是一个务实的做法。