AWS全球技术总经理Shaown Nandi:Agentic AI 的爆发前夜(aws总部)

AWS全球技术总经理Shaown Nandi:Agentic AI 的爆发前夜(aws总部)

作者 | 由仪

编辑 | 阿文

我们正站在一个新的拐点:从“工具型应用”向“代理型(Agentic AI)应用”的范式转变。

Gartner 将“Agentic AI”列为年度十大战略性技术趋势,并做出了一个令人深思的预测:到 2028 年,15% 的日常工作决策将由 Agentic AI 自主完成,而这一比例在 2024 年几乎为零。这不仅仅是技术的迭代,更是软件应用本质的重新定义。

AI Agent就像一个具有完整"大脑"的智能体。这个"大脑"由大语言模型(LLM)提供支持,使其具备了类似人类的思考能力。但仅有思考能力是不够的,一个完整的AI Agent还需要"记忆"系统来储存和处理信息。这个记忆系统分为短期记忆和长期记忆,使Agent能够在处理当前任务时参考过去的经验和学习成果。

除了"大脑"和"记忆",还配备了丰富的工具访问能力,可以连接各种API和系统,就像人类使用各种工具完成工作一样。更有趣的是,每个AI Agent都被赋予了特定的"人格",这决定了它的行为方式和专业领域,使其能够在特定场景中发挥最大效能。

在实际运作中,AI Agent展现出了独特的工作机制。它们能够进行自我反思和批评,不断优化自己的输出结果。通过清晰的角色定义和指令,每个Agent都明确知道自己的职责和界限。在处理问题时,Agent运用思维链推理,逐步分解和解决复杂问题。通过数据和API的访问能力,它们能够获取所需的信息和资源,保证决策的准确性。

AI Agent还可以像人类团队一样协同工作。在一个Agent团队中,有专注于特定领域的"专才",也有能够处理各类任务的"通才"。这种协作模式使得AI Agent能够处理更为复杂的任务,远超单个Agent的能力范围。例如,在处理一个复杂的业务分析项目时,可能会有专门负责数据收集的Agent,负责数据分析的Agent,以及负责报告撰写的Agent,它们协同工作,共同完成任务。

AWS全球技术总经理Shaown Nandi如何看待Agentic AI,以下为对话实录,经编辑:

Q:看待这种AI智能体在MCP这样的这种大模型能力落地的方式?您认为这种方式的前景如何?

Shaown:其实现在这个方面发展得非常的快,有很多很多的变化。在MCP方面,我认为对于AI agent来说,它是一个非常强大的解锁器和解码器。如果各位不是很了解MCP的话,它就把它想成一个通用的USB-C,它是一个通用的连接器,任何的一项服务,还有数据,还有我们伙伴的这种能力,它都可以用MCP来帮助我们的这个agent更方便地介入和访问它们,利用到它们。

所以对于AI agent来说,它就相当于给它提供了一个更好的方式来接触到数据,还有很多的服务,并帮助用户按其需要来执行一些任务等等。也就是说它可以真正地让AI agent变得更加自主化和智能化、自动化。MCP就让agent可以非常便捷地实现这一点,可以更好地、更快捷地让agent来获取服务、数据等等。它的前景我觉得非常非常的美好和广阔,其实我们很多的客户现在已经开始使用MCP的这个服务了,包括我们自己也采用很多MCP的这个服务,更好地利用我们自己的agent。

Q:在帮助客户将AI agent落地到具体的应用场景的时候,相比其他的竞争对手,亚马逊云科技有哪些自己独特的优势?

Shaown:有很多很多的优势,首先就是我们坚信我们可以提供更多的这种选择,在我们的客户在选择建立自己的agent的时候,首先他需要考虑选用哪一种模型,其实很多的模型在我们的Amazon Bedrock上都可以供我们的客户选择,另外我们还可以帮助我们的客户解决很多所谓的无差异化的体力活。

在建立模型的时候,比如说你使用了我们的Amazon Bedrock,有很多这种非常基础设施方面的一些内容,比如说安全性、升级性等等这些东西,其实我们在Amazon Bedrock上已经可以完全帮你解决了。另外我们可以给客户提供更多的构建agent时的更多的选择。

在你找了一个模型开始构建agent的时候,有的时候你肯定要进行很多的调整、修订和变化,那有一些如果你要进行这种变化的话,通常情况下你需要进行很多这种工程的这种任务,但是如果和我们合作的话,我们可以帮助我们的客户更快地进行这种变化,让他们就自己知道,即使我选择了一个模型,在进行开发agent的时候,如果我要进行调整、要换的话,也是很快很便捷的。

另外就是我刚才已经谈到过的,就是我们非常具有韧性的基础设施的这种能力,比如说我们可以提供非常低的时延,我们有更高的可用性等等等等。基于我们在这个行业深厚的背景,还有一些经历。另外我刚才也谈到了我们在过去的一段时间里面,我们的网络覆盖是不是提高了80%,还有我们的计算能力等等,还有跟我们客户合作一起打造的一些计算能力,所有这些,我刚才谈到的这些都是我们的竞争优势,还有包括亚马逊云科技的自研芯片,如用于AI训练的芯片Trainium。总而言之就是可以帮我们的客户获得更加灵活、更加可靠,也是更加成本有效的解决方案。

Q:像MCP这种开源的协议,包括开源的大模型,开源对于未来大模型市场,包括用户侧的影响会有多大?

Shaown:其实我们亚马逊云科技一直是公开地支持开放源的,那包括我们推出的Strands Agents这个产品,它也是支持这种开源的工具。其实我们看到现在就是很多模型,它既有专有模型,也有开源的模型,我觉得这是非常好的一件事,它给我们的用户客户提供了更多的选择。那现在我们的客户就可以,比如说他们有更多的模型可供选择,有更多开发商广泛的价格点,还有更多的运行方式,还有就是更具有针对性、广泛的用户案例可供我们的客户来进行选择。

另外它还是一个很好的方式,让世界上所有的开发人员可以更好地回馈社会,让我们共同地发展。也就是说现在我们客户可以觉得所有的这些世界上有聪明才智的工程师,他们都可以为我们所用,通过他们的开源软件,他们的能力都可以为我所用,所以我觉得这是一个非常振奋的运动。

Q:直接接入Claude API和从Amazon Bedrock上接入的话,对于开发者来说,实际使用体验和开发效果上会有多大的区别?

Shaown:通常会有这样的差别。有些用户会直接访问Anthropic他们自己的模型,构建自己的应用;也有一些用户通过亚马逊云科技的Amazon Bedrock,利用这些能力构建应用。对于开发者或企业来说,通过Amazon Bedrock来构建agent,无论最初使用哪个模型,我们都能提供更多模型选择和切换的空间。

比如你构建了一个应用,采用了Amazon Bedrock的Guardrails,它可以帮助你屏蔽一些你不希望模型输出的信息。如果一个月后你想更换模型,通常情况下要重建应用,涉及大量工程调整。但如果你一开始用了Guardrails,其实不需要做任何修改,你只需要直接在Amazon Bedrock中提出更换,无论是换成另一个模型版本,还是另一个模型家族,都可以快速实现。

除了灵活切换模型外,成本考量也非常关键。我在演讲中提到过,在运行Generative AI或Agentic AI应用时,我们通过像模型蒸馏、提示词路由等机制来优化成本。如果你构建的是一个会长期运行、需要随着行业变化持续调整和重构的应用,使用我们的架构会是更好的选择。

再补充一点技术背景:每个模型通常都有自己独立的API接口。但Amazon Bedrock提供的是统一API入口,支持所有模型。这意味着即使将来你更换了模型,只要你最初用的是Amazon Bedrock的API,调用方式也不需要变。同时,你可以在平台上选择任意可用模型进行接入。

Q:亚马逊云科技怎么去考量实现在AI基础设施投入和短期盈利之间的平衡?

Shaown:分享一下我们亚马逊文化中的一个核心价值观,就是长期主义。我们始终致力于帮助客户实现他们长远的目标,无论是长期投资、技术选择还是提供解决方案,都是为了帮助用户解决他们长期存在的痛点。

顺便说一句,我还要提醒大家一点。就在几周前的主题演讲中,我提到我们大幅降低了GPU的价格,GPU是我们最受欢迎的AI推理和训练方式。大家可以看看那份公告。所以,我们会持续关注如何尽可能地为客户降低成本。

Q:我来问两个问题。第一个问题想问一下,在过去一年或者两年时间,亚马逊云科技这边能够从agent的发展中看到多少增长?这部分的增长情况是怎么样?

Shaown:其实我没有办法给你提供一个细分的具体数据,但是我们确实可以看到,客户在越来越多地使用agent、建立agent的过程中,会回馈生成更多的数据,这些数据需要存储。我们也不断地展示,其实将数据存储在云上是一个更好的选择,客户也需要访问更多的数据,以获得更有效的决策和更好的结果。

所以客户对此也感到非常振奋,他们可以看到我们提供了更好的方式,让他们更快、更方便地把数据迁移到云上。随着agent越来越流行、应用规模不断扩大,也被更多人接受,我们可以提供更好的技术方案,帮助企业更高效地运行agent系统、优化运营、降低成本。正如我之前所说的,我们提供模型蒸馏的方法、新的计算能力等,都可以帮助客户更好地利用云资源。可以说,随着agent的发展,与云相关的使用活动也在相应增长。

在美国有一句话,“我们总是在第一天Day1”。我在主旨演讲中也提到了两个数字和信息:现在在财富500强的大企业中,有75%的工作负载仍然运行在本地。这意味着未来他们有大规模的迁移任务。亚马逊云科技提供了Amazon Transform这样的工具,可以很好地帮助这些客户实现迁移。

另外,我在主旨演讲中还介绍了很多非常有意思的案例,但这些案例目前都还处在实施的早期阶段。当客户看到这些案例之后,他们肯定会更多地采用、升级他们的agent。我相信,agent在未来会有非常快速的发展和广阔的前景。

Q:斯坦福的一份报告指出,过去两年的推理成本下降了大概280倍。想请问,从亚马逊云科技角度来看,这种推理成本的下降主要来自新芯片厂商在算力上的改进,还是云计算厂商在优化层面的努力?你们在这方面发挥了哪些作用?

Shaown:其实你刚才提到的这些方面都做出了贡献,都帮助推理成本得以降低。包括芯片厂商推出的新版本芯片、通用GPU、专用GPU,还有我们自己开发的专用芯片。我刚才在Keynote中也提到了,我们有自己的自研芯片,比如说Trainium 2相较于Trainium 1就有很大提升,推理成本也有显著下降。

另外在技术层面,比如像DeepSeek这样的模型一经推出就极大提升了推理效率。对很多用户来说,这是非常令人振奋的事情,同时也促使很多模型提供商开始想尽办法优化自己的成本和运行效率。所以推理成本的降低,既包括芯片性能的改进,也包括模型本身在结构和功能上的提升。

我还提到了两个具体技术:第一个是模型蒸馏(model distillation),它可以让一个模型“缩水”,更聚焦于核心业务领域,从而显著降低推理成本,有的情况下降幅可达500%。第二个是自动提示语路由(automated prompt routing)。早期的generative AI系统通常只能调用一个模型处理所有任务,而现在通过提示路由,系统可以根据任务复杂程度,自动选择不同模型进行推理和计算。

在Amazon Bedrock中,这项功能已经支持一方面自动推荐合适模型,另一方面也允许用户手动指定使用哪些模型处理不同任务。随着agent的发展,未来我们还可能看到“调度型agent”(orchestration agents),它们不只是按性能调用模型,还能根据成本或价格动态选择模型,从而进一步降低整体推理成本。

另外再补充一个信息。大约六个月前,在上一次的re:Invent大会上,我们的CEO Matt也提到,我们非常关注如何减少产品在运行过程中对电能和燃料的消耗,同时还能提升系统的可靠性。大家知道GPU本身是耗电大户,我们也在持续努力,通过改进设计来尽量降低GPU的能耗,同时提升可靠性。

Q:亚马逊云科技是否也观察到用户在使用你们云上服务时,整体来看,大模型本身的支出成本也在变得可忽略?另一个相关的问题是,在这轮人工智能变革中,云计算厂商、硬件厂商、模型厂商、应用厂商,你认为谁会拿走最大的一部分成长空间或利润?

Shaown:不然我先回答您第二个问题。我觉得您刚才提到的所有这些角色,无论是云服务提供商、硬件提供商,还是应用提供商,其实都有从中获得利润和发展的机会。归根到底,大家都是在共同努力帮助客户。就像我之前说的,其实我们目前仍处在这轮AI革命的早期阶段,未来的发展空间是非常庞大的。

那关于第一个问题,我也想谈一下。您刚才可能说的是客户购买了专有服务器进行部署,对吧?这里面涉及到很多固定成本。我之前在其他公司工作时,也接触过不少私有云和超大规模公有云的运营。所有这些云在运营时,都需要大量基础设施投入,无论是建设还是托管,都会带来高昂成本。

我也在之前讲过,这就是为什么几个月前在re:Invent大会上,我们的CEO Matt特别强调要降低电力消耗。电本身就是成本中非常大的一部分。如果要做这种大模型部署,必须依赖规模经济,才有可能摊薄成本。否则,如果你用单位算力或单位应用来计算,成本是非常高昂的。

在亚马逊云科技,我们通过高度自动化,在建设和部署agent基础设施方面,都可以帮助客户大幅降低成本。前两个礼拜我们刚刚进行了一轮价格调整下调。你可以想象,要实现这样的价格变化,我们需要在效率上提升了多少。

所以,我不太认同您刚才提到“大模型成本几乎可以忽略不计”的这个说法。因为模型是非常多样化的。有一些非常专业化、有针对性的复杂大模型,它们的价格依然非常高昂,这不仅来自它本身的训练和维护成本,也来自它能为客户创造的巨大价值。这类模型收取的费用也非常高。

当然,也有一些开源的大模型是免费提供的,那可能确实成本可以忽略。但整体来看,情况是高度不一致的,绝对不能简单地说“模型的成本可以忽略”。我们确实看到一些案例中,模型本身的使用成本甚至超过了基础设施成本。

我再补充两点。第一点就是关于模型选择这一块,我在演讲中也提到,长期来看,降低成本一定是一个趋势,这是一个明确的发展方向。同时我们也看到,不同的模型有不同的价格点,适用于不同的用例,客户也有很多选择。比如说DeepSeek是一个方面,我们在同一页PPT上也展示了Amazon Nova模型,它的价格确实非常低,可以说在某些场景下几乎可以忽略。

而且每个星期模型的价格都会发生变化,因为新模型不断推出,也会影响价格结构。有一些模型的价格确实在快速下探,这也是行业常态。我们发布的Amazon Nova系列七个模型,并不是说它们就是最好的,也不是客户的唯一选择。我们只是为一些特定用例提供更适配、更具性价比的选项。我们的客户在选择时,也确实有不少使用了Nova模型,因为它的价格性价比很优越,特别适合某些场景。通过提示语路由等机制,系统可以自动引导任务走向Nova模型,以最大化利用它在成本效益方面的优势。

Q:亚马逊云科技或者你们在Amazon Bedrock上观察到,客户在调用模型时,是更集中在少数几个模型上,还是调用量越来越分散?

Shaown:模型多样化的趋势确实非常明显。我们看到,模型种类越来越多。我在去年的re:Invent、以及今年2月和3月的公开会议上都展示过同一张PPT,这张PPT上的文字越来越少,而模型清单越来越长,说明现在的模型选择是越来越丰富。

我们也看到很多非常专业、用途非常明确、能力非常强的模型在不断出现。几乎每周都会有新模型发布。以我们的一些用户为例,在Amazon Bedrock刚推出时,开发者通常会集中选择一两个他们熟悉的模型,特别是那些他们之前用于开发或测试过的。但随着使用深入和特定用例出现,他们开始采用一些更专业的模型。

例如,现在我们平台上出现了专门用于视频编辑和生成的模型,还有模型专门用于在视频中识别特定图像的内容,还有合作伙伴推出的模型是用于业务规范和合规监管的。这些都是针对非常窄的细分市场。

因此我们可以看到,应用场景越来越多,模型选择也越来越多样化。我们认为这是非常积极的趋势,更多的选择能为用户带来更大便利,我们确实看到了用户在模型选择上的持续多元化。

Q:亚马逊云科技自己会开发什么类型的agent?又会把什么样的agent交给合作伙伴去做?

Shaown:所有类型的agent,其实都可以由我们的合作伙伴或生态系统一起参与开发。我们自己开发的一些专有agent,通常会聚焦在以下几个方面。首先是我们自身具备深厚专长的领域,比如Amazon Transform,它专注于迁移任务;还有Amazon Q Developer,它结合了我们已有的服务能力,包括存储、计算等。另外,有时候客户也会给我们带来一些启发,比如他们在市场上发现某个空白,希望我们来尝试填补,我们也会考虑这些方向。

总的来说,我们的目标是让市场上拥有更多agent和模型的选择。我们非常重视与合作伙伴的协同,希望能为他们提供底层技术能力,包括Amazon Bedrock、基础设施服务、数据库能力、数据处理能力和计算能力,帮助他们更高效地开发符合自身需求的应用,从而推动整个市场更快、更有效地发展。

Q:企业级市场和C端市场差异很大。现在有一个观点认为,在AI agent领域,工程化的重要性往往被低估了。想请您结合与客户交流的情况或行业趋势谈谈您的看法。

Shaown:这个问题非常好。我花了很多时间和一些大型企业沟通,他们的需求通常也非常具有挑战性。在亚马逊云科技,我们在提供服务,比如通过Amazon Bedrock帮助客户构建应用时,首先考虑的就是几个核心点。

对于企业级应用,安全性和韧性必须在设计初期就被纳入考量,在此之后我们才去考虑功能的实现。但如果是面向C端的应用或产品,开发初期通常更关注是否能打造出让用户眼前一亮、使用愉悦的功能,然后才逐步去补充对风险的考虑。这是两者之间非常本质的区别。

企业客户之所以愿意使用我们的服务,也正是因为他们知道,我们在产品设计初期就已经考虑了合规、监管以及未来扩展和升级的成本。他们在部署时可以非常放心。而C端产品通常不是这样,比如说某些消费者级应用先在企业内部小范围使用,结果暴露出安全或隐私风险,这时他们才会回过头来参考类似功能的企业级产品是如何做的。

其实在云计算刚兴起时,我们也经历过类似阶段,很多客户都是在经历问题后逐步总结经验、形成规范。所以我们现在的企业客户尤其重视我们的服务韧性、安全性和可控性。

在企业使用生成式AI时,数据的使用与存储尤其关键。甚至你提的每一个问题,比如“这家公司的估值是多少”,这个问题本身就可能包含专有信息。不仅是公司名字,连你提问的方式也可能暴露商业机密。因此我们在产品设计中已经做了大量控制,确保这些信息不会被亚马逊云科技用于任何其他目的,也不会被我们保存或分享。

Q:亚马逊云科技平台上的AI agent现在的落地情况怎么样?在哪些场景落地比较快?哪些领域可能比较慢?有没有正在加速进入爆发期的方向?

Shaown:现在已经有太多太多非常好的用户案例和适用场景了。我可以分享一些我自己比较喜欢的,但如果你去问我们亚马逊云科技的其他同事,他们可能会给出完全不一样的答案,每个人关注的点不一样。

现在看来,agentic AI最常见的一个应用场景是客户体验方面。客户体验有很多种形式。比如说我们合作过的一家旅行公司,在疫情期间流失了大量有经验的员工,有些退休了,新招的人则缺乏航空系统、航空公司产品等方面的经验。

他们部署了一个agentic解决方案。现在无论是聊天、电话还是邮件,尤其是邮件场景,以前人工坐席在处理这些客户问题时,常常要问很多问题才能搞清楚,有时候第一次给出的答案还不对,客户就很沮丧。

于是我们设计了一个评估指标,就是看是否可以减少坐席把问题上报主管的次数。我们用agentic AI为一线坐席提供建议答案的提示,帮助他们更快理解客户问题,并做出更准确的回应。我们在很多客户体验的案例中看到这种做法非常有效,能大大提升人工坐席的反应速度和准确率。

我们还加入了情绪分析的能力,可以在客户情绪变得焦虑或生气时发出预警,提醒坐席注意对话状态。另外还有实时翻译功能,当有客户从其他国家或地区拨打电话时,如果使用的是你不熟悉的语言,系统可以实时提供翻译,帮助坐席应对跨语言服务场景。

另一个应用增长很快的领域就是软件工程。我在Keynote里也讲到了一些相关内容。我们自己开发了agent,也看到很多初创公司在Amazon Bedrock上构建了非常有效的agentic agent,用于软件工程方面的应用,这也是一个非常令人兴奋的使用场景。

特别声明:[AWS全球技术总经理Shaown Nandi:Agentic AI 的爆发前夜(aws总部)] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

垫丰武高速隧道施工不服“暑”(垫丰武高速隧道长度)

7月31日,垫丰武高速智慧钢筋加工车间,技术工人正在加紧生产。 垫丰武高速建成后,将形成连接渝东北、渝东南城镇群的高速公路主通道。垫丰武高速隧道是全线的重难点工程之一,采用“建筑信息模型+智慧工地”管理…

垫丰武高速隧道施工不服“暑”(垫丰武高速隧道长度)

通宇通讯亮相INAMARINE 2025 卫星通信领域拓展提速(通宇通讯产品)

据悉,通宇通讯(002792)携“星-船-端”海上智能通信全栈方案及四大核心产品在此次展会上亮相。 通宇通讯自2017年收购西安星恒通公司以来,在卫星通信领域积累了丰富的技术经验,并逐步构建起卫星通信产品的研…

通宇通讯亮相INAMARINE 2025 卫星通信领域拓展提速(通宇通讯产品)

深度科普:人类或许永远也找不到外星人,真实原因超乎想象!(人觉百科)

又或者,当人类文明走向衰落甚至灭绝之后,某个外星文明才刚刚兴起,他们在探索宇宙时,也会像人类现在一样,对宇宙中是否存在其他文明充满好奇,却因为时间的交错而永远无法找到答案。人类由于技术的限制,根本无法探测到这…

深度科普:人类或许永远也找不到外星人,真实原因超乎想象!(人觉百科)

赵今麦夏日大片刷屏!蓝白配+黑长直=少女感天花板(赵今麦视频)

昨日,新生代演员赵今麦在社交平台晒出夏日时尚大片,瞬间引爆网络。阳光穿过树叶缝隙,在她发梢跳跃出细碎光斑,整个人被柔光包裹,少女气息扑面而来。蓝白条纹YYDS,少女感直接溢出屏幕了!”**蓝白条纹的清爽,黑长…

赵今麦夏日大片刷屏!蓝白配+黑长直=少女感天花板(赵今麦视频)

南派三叔一口气官宣三部新剧,看来明年又是悬疑冒险剧的天下啊!(南派三叔org)

最后一部是《吴邪私家笔记》,这部剧由《重启之极海听雷》的导演潘安子执导,主演有吴镇宇、曹磊、徐振轩、程相、李沐宸、孙葛川野等,聚焦《盗墓笔记》经典篇章中的七星鲁王宫与西沙海底墓,讲述了吴邪寻找战国帛书秘密,…

南派三叔一口气官宣三部新剧,看来明年又是悬疑冒险剧的天下啊!(南派三叔org)