亚马逊云推出AI代理功能,让AI成为助理而不仅是聊天

转载
467 天前
5436
智能派

文章转载来源:智能派

来源:澎湃新闻

记者 邵文

·Amazon Bedrock的Agents(代理)功能将使公司能够构建可以自动执行特定任务的AI应用程序,例如预订餐厅,而不仅仅是得到去哪里吃饭的建议。

·“很多人都如此聚焦于这些模型和模型的大小,但我认为真正重要的是如何利用它们构建应用,这也是今天发布代理(Agents)功能的一个重要原因。”

当地时间7月26日,亚马逊云科技数据库、数据分析和机器学习全球副总裁斯瓦米·西瓦苏布拉马尼安在纽约峰会上讲话。

在亚马逊云科技(AWS)年度峰会之一的纽约峰会上,多项发布都紧紧围绕生成式人工智能。“这项技术已经达到了临界点。” 亚马逊云科技数据库、数据分析和机器学习全球副总裁斯瓦米·西瓦苏布拉马尼安(Swami Sivasubramanian)说。

美东时间7月26日,在纽约峰会上,AWS推出生成式AI服务Amazon Bedrock的Agents(代理)功能,助力基础模型完成复杂任务。“这将使公司能够构建可以自动执行特定任务的AI应用程序,例如预订餐厅,而不仅仅是得到去哪里吃饭的建议。”西瓦苏布拉马尼安表示。

除此之外,AWS还推出了新的人工智能工具,包括编程助手Amazon CodeWhisperer正式可用、用于在患者就诊后生成临床记录的智慧医疗新服务Amazon HealthScribe以及分析服务Amazon Entity Resolution等。同时其宣布,加速生成式AI和高性能计算应用Amazon EC2 P5实例正式可用。

亚马逊云科技生成式AI全球副总裁瓦西·菲罗明(Vasi Philomin)对澎湃科技记者(www.thepaper.cn)分享道,在所有的发布中,他最关注和引以为傲的就是代理(Agents)功能。“很多人都如此聚焦于这些模型和模型的大小,但我认为真正重要的是如何利用它们构建应用,这也是今天发布代理(Agents)功能的一个重要原因。”


人工智能代理竞赛


像OpenAI的GPT-4或Meta的Llama 2等生成式AI模型功能强大,但在没有额外帮助(例如插件)的情况下,实际上其无法为用户自动执行某些任务。

Amazon Bedrock提供了一种通过初创公司以及亚马逊云科技本身的预训练模型来构建生成式AI应用程序的方法,而无需投资服务器。Amazon Bedrock的代理(Agents)功能让公司可以使用自己的数据来教授基础模型,然后构建其他应用程序来完成任务。开发人员可以选择使用哪个基础模型,提供一些说明,并选择模型读取哪些数据。

这类似于OpenAI最近为GPT-4和ChatGPT推出的插件系统,该系统通过让模型利用第三方API和数据库来扩展模型的功能。事实上,最近出现了一种“个性化”生成模型的趋势,Contextual AI等初创公司构建了工具来利用企业数据增强模型。

举个例子,如旅游公司可以使用生成式人工智能来提供旅行建议,然后构建另一个代理(Agents)来接收用户的旅行历史和兴趣,再利用一个代理来查找航班时刻表,最后构建一个代理来预订所选航班。

对代理(Agents)有热情的不止AWS。4月,Meta首席执行官马克·扎克伯格 (Mark Zuckerberg) 也告诉投资者,他们有机会将人工智能代理(Agents)“以有用且有意义的方式带给数十亿人”。7月,OpenAI首席执行官山姆·奥特曼(Sam Altman)在接受《大西洋月刊》采访时深入探讨了人工智能代理以及如何最好地实现。

路透社在7月报道称,“自主”人工智能代理(Agents)的竞赛席卷了硅谷。其以一家初创公司为例,Inflection AI在6月底筹集了13亿美元资金。据其创始人在播客中透露,该公司正在开发一款私人助理,据称可以充当导师或处理诸如在旅行延误后获得航班积分和酒店等任务。

7月26日,西瓦苏布拉马尼安在接受媒体采访时表示,索尼 ( SONY )、瑞安航空 (Ryanair)、永明(Sun Life)等客户都已经试用了Amazon Bedrock。西瓦苏布拉马尼安表示,Amazon Bedrock将“很快”向所有客户开放。他拒绝透露具体时间,并补充说公司的目标是首先解决成本分配和企业控制方面的问题。

Amazon Bedrock服务于四月份推出,当时Amazon Bedrock提供Amazon Titan(AWS自己的基础模型)以及由stable.ai、AI21Labs 和Anthropic创建的模型。

此次在纽约峰会上,AWS宣布新增Cohere作为基础模型供应商,加入Anthropic和Stability AI的最新基础模型聊天机器人。Cohere的命令文本生成模型经过训练可以遵循用户提示并返回摘要、副本和对话,该工具还可以提取信息并回答问题。


AWS平台可调用英伟达H100芯片


在纽约峰会上,AWS也推出由英伟达H100芯片提供支持的Amazon EC2 P5实例。某种程度上,这是AWS与英伟达十多年合作的一个重要里程碑。

H100 GPU的显着特点之一是对Transformer的优化,这是大型语言模型所采用的一项关键技术。Amazon EC2 P5实例提供8个英伟达H100 GPU,具有640 GB高带宽GPU内存,同时提供第三代AMD EPYC处理器、2TB系统内存和30 TB本地NVMe存储,用于加速生成式AI和高性能计算应用。

Amazon EC2 P5与上一代基于GPU的实例相比,训练时间最多可缩短6倍(从几天缩短到几小时)。据AWS介绍,与上一代相比,这一性能提升将降低40%的训练成本。

实际上,从2013年推出首颗Amazon Nitro芯片至今,AWS是最先涉足自研芯片的云厂商,已拥有网络芯片、服务器芯片、人工智能机器学习自研芯片3条产品线。2023年初,专为人工智能打造的Amazon Inferentia 2(可通过芯片之间的直接超高速连接支持分布式推理)发布,最多可支持1750亿个参数,这使其成为大规模模型推理的有力竞争者。

对于是否担心提供英伟达H100芯片会降低AWS自研芯片的吸引力,菲罗明对澎湃科技(www.thepaper.cn)回应道,“我们对竞争持欢迎态度。硬件每隔几年都会变得更好,这是一种常态。目前一个重要问题是生成式AI的成本相当高,这就是为什么没有人真正将其投入到生产工作负载中,每个人都还在试验阶段。一旦将其真正投入生产工作负载中,他们会意识到90%的成本都是由其产生。最好的情况是,每次调用都不会亏钱,而是真正赚钱。为了实现这一点,我认为我们需要竞争。”