【来源:虎嗅网】
本文来自微信公众号:APPSO (ID:appsolution),作者:发现明日产品的,原文标题:《刚刚,Windows 首次支持 AI 时代的 C 口!微软拉来 AI 圈三巨头,重新定义操作系统》
「全球首个XX Agent」快成为现在AI产品发布的标配了,几乎每天一睁眼都能看到。
奥特曼在最近的演讲提到,2025年将是AI Agent的突破年。
这股Agent热,也席卷到了正在举行的微软Build 2025开发者大会。
整场发布会下来,出现频率最高的关键词,不是AI,也不是去年主角Copilot,而是——Agent、Agent、还是Agent。
但对微软来说,这场大会显然不只是一次例行的开发者聚会。
Copilot正在从一个单一产品,进化为操作系统级别的能力中枢。并且,微软CEO萨蒂亚·纳德拉更是明确表态:「今天,我们又迈出了重要一步,致力于让Windows成为最适合AI的平台。」
微软给Windows加上了「AI应用的USB-C端口」
本次发布会上,微软推出了多项关键更新,其中备受关注的当属MCP。
所谓MCP,即「模型上下文协议」(Model Context Protocol),最初由AI公司Anthropic于去年开源推出。
你可以将之简单理解为「AI应用的USB-C端口」,就像USB-C统一了不同设备的物理连接一样,MCP则可以统一AI模型获取信息和使用工具的「数字连接」。
这就能让各种不同的AI应用或智能Agent,更方便地接入Windows生态,从而调用系统资源、访问文件、高效通信。
现在,Windows 11更是原生支持模型上下文协议(MCP)。
MCP与Windows的集成将为AI智能体连接原生Windows应用提供标准化框架,使应用能够无缝参与智能体交互。未来几个月内,这项功能将向部分合作伙伴开放,以收集反馈。
Windows上的MCP架构
据介绍,为了加快生态建设,微软已与OpenAI、Anthropic、Perplexity、Figma等开发者展开合作,将MCP能力逐步集成进更多应用程序中。
过去,要让一个AI模型访问Windows的文件系统或控制系统设置,需要大量定制开发;而在引入MCP后,开发者可以将这些能力封装为「服务端点」(MCP服务器),并通过Windows的MCP注册表让Agent发现并调用。
微软强调,这不仅能让AI Agent「看见」操作系统中的更多资源,更将解锁它们与应用协作的新可能。
举例来说,AI搜索引擎Perplexity可通过MCP自动定位并调用Windows文件系统中的相关文档,无需用户手动选择目录。
用户只需一句自然语言请求,如「找出我假期相关的所有文件」,AI即可自动执行搜索。未来,在Excel中调用网络数据、在系统中定位设置参数,这类操作都可被AI自动完成。
Windows负责人Pavan Davuluri在接受The Verge采访时表示:「我们希望Windows作为一个平台,能够不断进化,最终让智能体融入到操作系统的日常运行中,成为用户持续与应用和设备交互的重要方式。」
GitHub Copilot大升级,Bug修复、代码优化都能自动搞定
除了Windows层面的更新,微软还在软件开发领域加码「Agent化」。
新版GitHub Copilot将帮助开发者执行日常任务,如重构代码、提升测试覆盖率、修复漏洞甚至实现新功能。目前,该功能已推出预览版。
深夜被运维电话吵醒的开发者,有机会睡好觉了。
现在,GitHub Copilot可在夜间自动发现内存泄漏问题,生成诊断报告,并将修复任务分派给Copilot。最终,Copilot会完成代码修复、提交PR,让你睡个踏实觉。
为了强调AI真能干活,纳德拉也现场上手演示了一番。
比方说,当想使用Copilot为社区页面添加筛选器,它不仅能够准确理解指令,还会主动提出优化建议,比如增加小、中、大的筛选项,或按照类别进行分组分类。
纳德拉只需将任务交付给Copilot,它便能自动接手,生成拉取请求,最终成功开发该功能。
而对于那些传统上维护成本高、升级周期长的企业级应用系统,尤其是基于Java和.NET的架构,微软也提供了相应的现代化工具包。
开发者可以借助AI Agent自动生成升级计划、分析依赖关系、执行迁移流程,将原本需要耗费数周乃至数月的工作大幅压缩至几小时内完成。
尽管外界一度猜测微软与OpenAI渐行渐远,但纳德拉还是和OpenAI CEO Sam Altman展开了一场远程视频对话。
两人围绕AI工具如何改变软件工程展开讨论。Altman回忆说,OpenAI很早就在探索智能编码的体验。
如今,AI Agent已成为开发团队中的「虚拟成员」,可以独立工作、批量执行任务。「你甚至可以将Bug修复任务直接分派给它,几分钟后它就能给你一个PR(拉取请求)。」
谈及模型未来的发展时,Altman表示,下一阶段的模型将更可靠、更自动化、更易用,不再需要开发者手动选择模型,而是实现真正的「自动决策+即插即用」。
纳德拉则强调,当下最大的挑战是技术变化速度。开发者若能及早深度参与新技术,将收获巨大优势。
微软这个新服务,让每家公司都能造自己的Copilot
大会上,微软还展示了Copilot的五大功能入口:Chat、Search、Agents、Notebooks和Create。
当你把需求抛给Copilot后,它会向你展示思考过程,也就是CoT长思维链的推理过程。
在现场演示中,Copilot Studio可调用GPT-4等模型,或诸如Docusign等第三方服务器,自动处理工作流中的代办事项。
针对企业用户,微软这次推出了「Copilot Tuning」服务。
借助Microsoft 365 Copilot Tuning,企业客户可以利用自有数据微调模型,打造更符合内部需求的AI助理。并且,为确保数据安全,这些经过微调的模型仅限企业内部访问,底层权限受到系统控制。
在此基础上,开发者可借助Microsoft 365 Copilot的Agent Builder工具构建专属Agent。
比如,一家律师事务所可构建一个法律文书助手,生成符合其业务风格与专业术语的合规文档;又如,一家涉足航空等受监管行业的咨询公司,可基于公司积累的法规文档构建问答型代理,用于为顾问提供更准确的法规响应。
最后,微软还推出了一个叫「Agent Store」的聚合式平台。
顾名思义,这个新平台可以理解为Agent的「App Store」,展示了微软、合作伙伴和客户们构建的各类智能体。
你可以在里头一站式探索、试用、分享这些智能体,也能把合适的智能体分发给同事一起用,全面提高协作效率。
目前Agent Store已经正式上线,不妨直接上手试试。
黄仁勋马斯克奥特曼齐亮相,微软拉来了半个AI圈
微软的一站式企业级AI开发平台Azure AI Foundry,也推出了多项重磅更新。
首先让人眼前一亮的,是xAI的旗舰模型Grok 3空降Azure AI Foundry,为微软在财务预测、医疗诊断支持、法律文件分析和科学研究协助等方面的企业服务提供有力支持。
即日起,Grok 3在Azure AI Foundry中可免费试用两周,后续6月开始,则按全球范围内输出15美元每百万Tokens,数据区内输出16.5美元每百万Tokens收费。
另外,与在Azure AI Foundry上使用OpenAI、Hugging Face的模型类似,Grok 3即将也支持PTU(预配吞吐量)这种更经济高效的部署方式。
此次Build大会前,xAI创始人兼CEO马斯克接受了纳德拉的远程采访,他透露即将发布的Grok 3.5模型,其研发核心紧扣第一性原理。
他分享道:「重点是找到物理学的基础知识,在推理的过程中应用物理工具,并以最小的错误成本追求真理。」
纳德拉进一步举例道,就好比现实生活中汽车总要安全地、正确地行驶,同理机器人也需要执行人类下派的任务,这些都遵守着世间的物理定律。
而谈及AI安全问题时,马斯克千言万语汇成一句话「诚实是最好的策略」。
目前,超1900个AI模型已集成到Azure AI Foundry中,包括各种响应模型、推理模型、特定任务模型、多模态模型等,可供开发者们自由取用。
Foundry Models的成员公司除了大家所熟悉的OpenAI和xAI,现在还迎来了Mistral AI、Meta、Black Forest Labs,以及中国国产明星选手DeepSeek的加入。
或许,这也从侧面印证了早前传闻并非空穴来风。据外媒报道,微软正在测试Anthropic、DeepSeek、Meta、xAI等多家公司的AI模型,考察它们在支持Copilot方面的表现。
值得一提的是,这届Build大会上的3大重量级嘉宾,最后压轴出场的,是刚刚完成自家Computex展演讲的英伟达老黄。
在与微软CEO萨提亚·纳德拉的对话中,老黄甩出了一个惊人的数字:技术每两年会进步40倍。这也意味着,要跟上AI的演进速度,靠每几年更新一次硬件已经远远不够,必须「一年一小更」,才能不掉队。
而在纳德拉看来,英伟达对CUDA生态的长期投入和对架构兼容性的坚持,让开发者的努力可以跨代复用,哪怕是几年前的产品,也能从最新的软件算法中吃到红利。
老黄也接着补了一句:从Hopper到Blackwell,英伟达再次实现了40倍的性能跃迁,而这离不开算法的升级,比如对Transformer架构的优化以及对预测解码的迭代等。
背后撑起这一切的,正是一个庞大且不断扩张的CUDA生态。全球开发者对这个生态的投入,每一点优化和改进,都会像水波一样扩散开来,影响成千上万的用户和企业。
Windows未来是人类的,更是Agent的
单说把AI Agent深度嵌入工作流的每一环,也许有点抽象,那不妨来看看微软产品创新高级经理John Link的一段现场演示。
现在,你的实验室小跟班Science agent就坐在你身旁,捧着电脑。而你需要完成一项课题,其中涉及到知识推理、生成假设和运行实验3大环节。
第一部分的知识推理,Science agent先是帮你喊来了「ChemistryAgent」,再叫上了「Knowledge BaseAgent」,在海量信息中检索、筛选、整合出课题所需信息。最后,Science agent以左边摘要,右边综合报告的形式呈现工作结果,并提供了Agent工作时所引用的链接。
第二部分的生成假设,Science agent派活给「ChemistryAgent」,后者处理了你提出的假设,中途实时同步更新了你提出的新想法和新要求。然后,由「GenChemAgent」生成了一份基于假设的实验设计方案。
下一步,你便可以拿着数据和方案,去验证实验结果了。
而若要Agent真正代替人类完成「最后一公里」的行动——买票、订酒店、做实验等等,CTO Kevin Scott称还需要一些类似协议的东西来提供约束和支持,因此有了前文所说的Microsoft MCP Support。
对于Agent的最终形态,Scott脑海中还描绘着更多蓝图。
Scott认为,人们真正想要的Agent,是一个有着丰富内存资源,可以回溯、可以高精度定位记忆碎片的Agent。
同时,未来Agent也不仅仅是一个开放的「Agentic」网络,还可以是一个AI App。
Kevin Scott提到,随着AI技术的进步,Agent将能够执行更加复杂的任务,并通过开放的协议与各类服务和内容进行互动,承担起跨任务、跨平台的协同工作。
他解释道:「我希望通过某种开放协议,让所有Agent之间实现真正的互操作性,让所有拥有服务或内容的人都能通过某种方式访问Agent,还可以说——嘿,我在这里。并且,无论是谁构建的Agent,都能连接到这些内容和服务。」
而要想支撑这类的Agent的运行,离不开一个足够灵活、强大且易于集成的系统平台。
换句话说,这届Build大会传递出的信号也足够清晰:Windows未来将不再只是一个为人类准备的操作系统,也将成为一个专为AI Agent而设的平台。
我们正在招募伙伴
简历投递邮箱hr@ifanr.com
✉️邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)