更新时间: 浏览次数: 865
新浪科技讯4月25日晚间消息,永辉超市公布了2024年年度及2025年第一季度财务报告。报告显示,公司2024年全年实现营业收入675.74亿元,归母净利润-14.65亿元。
永辉表示,公司正处于战略转型的深水区,胖东来模式调改、门店优化与供应链革新纵深推进,2025年第一季度调改门店在销售与利润端整体达成预期目标。
2025年第一季度,已完成调改的“稳态门店”,即开业满3个月的门店,成功实现稳定盈利。截至3月底,41家开业满3个月的“稳态调改店”累计实现净利润1470万元。
至财报发布日,永辉超市共完成了61家门店的胖东来模式调改,预计至2025年6月底,永辉超市全国调改门店将突破124家,2026年农历春节前目标锁定300家。(罗宁)
文丨新浪科技周文猛
4月25日,于樱花之都武汉市举办的Create2025百度AI开发者大会上,百度创始人、董事长兼CEO李彦宏发表了他2025年的首场个人演讲。
长达一个小时的分享中,“应用才是王者”“DeepSeek不是万能的”“成本下降”“智能体协同”“MCP”等词汇高频出现,串联起了他对于AI应用以及模型发展的思考以及洞见,同时也巧妙地给自家产品进行了带货。
以下,新浪科技梳理了本场大会李彦宏重点提及的6大核心观点,供读者参考。
“模型会有很多,但应用才是王者”
过去一年,伴随模型降价以及DeepSeek横空出世并开源,越来越多人加入开发者队伍。但是,模型的快速迭代,也正让开发者们变得焦虑,担心自己的模型选型出错导致开发的应用很快过时,进而失去价值。
对此,李彦宏深表认同。不过他也进一步指出,“这么多日益强大的模型能力,其实也为开发者提供了更多的选择,打开了更多的可能性,你只要找对场景,选对基础模型,会调模型,做出来的应用就不会过时。”
在李彦宏看来,应用才是真正创造价值的,没有应用,芯片、模型都没有价值。“模型会有很多,但未来真正统治这个世界的是应用,应用才是王者。”
在他看来,随着模型能力的增强,大模型与应用场景结合的机会将越来越多,好的AI应用不但不会被模型能力所覆盖,反倒能够渗透到更多的场景,从而价值变得更高。
“这种能够带来实在价值的应用,是属于开发者的真机会,这样的机会,在千行百业里比比皆是,遍地是黄金。”李彦宏表示。
“DeepSeek不是万能的,价格优势也不在了”
DeepSeek发布以后,百度第一时间在百度智能云的千帆平台上做了部署,向开发者提供免费的调用机会。百度的各个业务线也都积极拥抱DeepSeek,文小言、百度搜索、百度地图等先后接入DeepSeek满血版,在很多内外部应用场景都取得了不错的效果。
不过在李彦宏看来,“DeepSeek也不是万能的”。他提出了DeepSeek的三个不足之处:一,它只能处理文本,不能理解和生成图片、音频、视频等多媒体内容;二,幻觉率较高,在很多场合不能放心使用;第三,慢和贵,中国市场上绝大多数的大模型API调用价格,都比DeepSeek满血版要低、速度要更快。
谈及DeepSeek的同时,李彦宏顺带还发布了百度主打多模态、强推理、低成本的文心大模型4.5Turbo和X1Turbo。在性能比肩甚至超越DeepSeek相关模型的同时,4.5Turbo价格仅为DeepSeek-V3的40%,X1Turbo价格仅为DeepSeek-R1的25%。
在李彦宏看来,创新的本质往往就是成本下降,成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低成本地部署大模型,最终推动各行各业应用的爆发。
“多模态模型的市场,会越来越大”
发布主打多模态能力的4.5Turbo和X1Turbo之外,大会上,李彦宏还花了相当精力,重点介绍了百度最新推出的高说服力数字人,自由画布,沧州OS系统,AI笔记等多款旗下产品。
其中,这几款产品一个共同的特性就是——具备多模态内容生成能力。
例如,高说服力数字人的“剧本生成”能力不仅可实现口播脚本与数字人表情、语气、动作的高度融合,同时具备顺畅的情绪转折和动作切换,同时还具备“AI大脑”,能根据直播间实时热度和转化情况,灵活调度助播、场控、运营等角色共同促进转化,真正实现了一个人就是一个营销团队。
又如,百度文库和网盘共同打造的自由画布,可以处理几乎所有的常见模态和文件类型,可以从网盘中拖入各种格式的素材,有Word、PDF、图片、音频、视频等。
此外,李彦宏还发布了百度首个内容领域操作系统—沧舟OS,该系统能对多模态内容进行解析和向量化处理,同时构建了公域知识库、私域知识库、记忆库“三库”,以及阅读器、编辑器、播放器“三器”,供给大模型调用。
在李彦宏看来,“多模态是未来基础模型的标配,纯文本模型的市场会越变越小,多模态模型及其应用的市场,会越来越大。”
“智能体,已经成为AI应用的代名词”
谈及智能体,李彦宏直言,“大概一年前,别人问我最看好的AI应用方向是什么,我说是智能体。那时,这还是个非共识的认知。仅仅一年不到,智能体就已经成为AI应用的代名词。”
在他看来,代码智能体,是AI应用进展最快、最火的赛道。未来每个公司都需要依赖代码智能体来完成任务,如果还像原来那样一行一行地写代码,是没有赢的可能性的。
据他介绍,目前百度的工程师普遍使用文心快码Comate辅助代码生成,非技术人员也正在使用秒哒进行无代码编程。
“全球只有不到3000万程序员,有80亿人,当技术的门槛逐渐消失,每个人都可以具备程序员的能力,无论你是大学生、农民还是手艺人,只要有想法,秒哒就能让你梦想成真!”李彦宏表示。
此外,他还进一步指出,多智能体协作是一个非常有价值的AI应用方向。在他看来,未来的AI应用,不只可以回答问题,还要能完成任务。而任何一个复杂任务的交付,都需要多智能体协作来解析需求、分拆任务、调度资源、规划执行,最终交付结果。
大会现场,百度也发布了全新的多智能体协作应用——心响,开始在这一方面展开布局。
“MCP,给AI装上了‘万能插座’”
随着MCP生态的日益繁荣,无论是国外的Anthropic,OpenAI,Google,还是国内的阿里、字节、腾讯,都在积极拥抱MCP。为给开发者提供最全的开发工具,大会上,李彦宏宣布百度自家产品接入MCP并将对外提供调用,百度搜索还将全面索引市场上的各类MCPServer,将其提供给开发者。
在他看来,AI应用大爆发的时代,开发者们普遍遇到了一系列难题:比如,使用工具缺少统一规范,开发效率不高;需要反复适配各类平台,耗时耗力;开源社区的工具和组件良莠不齐,整合维护难度大。
而MCP的出现提供了全新的解决思路,它给AI装上了“万能插座”,开发者不再需要为每个工具编写定制化的代码,只要按照MCP标准,编写一次接口就好,极大降低了开发的负担。
据他介绍,百度优化了文心基础大模型,提升了模型在使用MCPserver时的任务规划和调度能力;同时,百度智能云的千帆平台也率先全面兼容了MCP,不仅提供大量的第三方server,也支持开发者创建和发布自己的MCPserver;百度搜索还构建了MCPserver的发现平台,可以索引全网市场上优质的server;百度的商品检索、商品交易、商品详情、商品参数对比、商品排行榜能力等也已经通过百度电商的MCPserver对外提供。
最重要的是,文心大模型使用的联网搜索工具也变身为百度搜索MCPserver供开发者调用。在李彦宏看来,“依托百度25年的技术积累,这是目前世界上最好的搜索MCP”。
“繁荣大模型生态,李彦宏下血本了”
一直以来,为了繁荣AI大模型生态,百度一直为开发者提供模型、开发工具,以及资金资源等多方面的支持。两年前,百度启动了“文心杯”创业大赛,希望推动大模型生态繁荣,帮助创业者、开发者开发各种AI应用。
据李彦宏介绍,过去两届“文心杯”创业大赛,百度收到了来自全球2500余支创业团队的报名,为优胜的队伍提供了超过2亿元的资金支持,并在技术、团队和资源上持续给予全方位扶持。
本届大会,李彦宏在宣布第三届“文心杯”创业大赛正式启动时!也进一步加大了对创业者的支持力度,宣布单一项目的获奖金额将翻倍,特别大奖的投资额最高可达7000万元!
与此同时,在5年前百度提出培养500万AI人才计划超标完成的背景下,李彦宏再次宣布,未来5年将加大力度再为社会培养1000万AI人才,帮助他们发挥创造力和生产力,一起推动智能经济的发展。
分享对于人工智能行业发展的思考和预判时,李彦宏也穿插介绍了文心大模型4.5Turbo、X1Turbo等模型,发布了高说服力数字人、沧舟OS系统、代码智能体秒哒以及多智能体协作APP心响最新进展,同时也抛出了7000万元的赛事激励奖金,以亲身实践印证着自己的AI思考。
而所有这些发布,均是为了让开发者们可以不用担心模型能力、不用担心模型成本、更不用担心开发工具和平台,可以踏踏实实地做应用,做出真正好的应用!
2025年的首场个人演讲,李彦宏向外界分享了自己对于AI思考的深度以及广度,不过略有一丝丝遗憾的是,武汉作为百度“萝卜快跑”投放运营最多的城市之一,李彦宏却没有花费太多的时间介绍“萝卜快跑”的最新进展。
特朗普的政府正对欧洲施压,试图逼迫其放弃围绕透明度、风险缓释和版权规定而针对先进人工智能开发商制订的更严苛标准。
美国政府驻欧盟使团已接洽欧盟委员会,提出了对AI行为守则的反对。知情人士称,信函反对相关规定采用当前形式并发送给了几个欧洲国家的政府。欧盟委员会发言人ThomasRegnier在回答彭博提问时证实已收到这封信。
这项仍有待最终敲定的守则是旨在为科技企业遵守欧盟《人工智能法》的框架性自愿措施。违反该法者将被处以最高相当于年营收7%的罚款,但批评者表示守则超出了上述法律的字面意涵并产生了新的繁琐规定。
美国驻欧盟使团和白宫暂未回复置评请求。
新闻结尾 雷电将军挤乳液给巴巴托斯吃-带你走进直播新风尚!的相关文章