最近,《财富》和德勤联合进行的一项调查发现,全球有超过一半的CEO正在尝试使用人工智能来生成文本、图像和其他形式的数据。
与此同时,根据麦肯锡的一份报告,有三分之一的组织“经常”在至少一个业务功能中使用生成AI。
鉴于庞大(而且显然在增长)的可寻址市场,谷歌云正全力以赴,非常努力地保持同步。
在年度云Next大会上,谷歌宣布了对Vertex AI的更新,这是其基于云的平台,为构建、训练和部署机器学习模型提供了工作流。
Vertex AI现在提供了用于文本、图像和代码生成的更新的AI模型,还新增了来自初创公司Anthropic和Meta的新第三方模型,以及可以让开发人员整合公司数据并代表用户采取行动的扩展。
谷歌云AI和行业解决方案副总裁June Yang在一次新闻发布会上表示:通过Vertex,我们采用了非常开放的生态系统方法,与广泛的生态系统合作伙伴合作,为我们的客户提供选择和灵活性。
我们构建了一个以企业就绪性为核心的生成AI方法,着重关注数据治理、负责任的AI安全等方面。”
在模型方面,谷歌声称已经“显著”升级了其Codey代码生成模型,在“主要支持的语言”中实现了25%的质量提升。(不幸的是,在提供给记者的资料中,谷歌没有详细说明这个模糊的度量标准。)
它还对其图像生成模型Imagen进行了更新,以提高生成图像的质量,并支持样式调整,这使得客户可以使用至少10张参考图像来创建“符合其品牌”的图像。
此外,谷歌的PaLM 2语言模型能够理解新语言(38种常见语言和100多种预览语言),并且具有扩展到32,000标记上下文窗口的能力。
上下文窗口,以标记(即文本的原始位)为单位,指的是模型在生成任何附加文本之前考虑的文本(32000个标记相当于约25000个单词,或大约80页的文本,双倍行距)。
PaLM 2的上下文窗口并不是最大的。Anthropic的Claude 2拥有100,000个标记的上下文窗口,比原始PaLM 2和GPT-4的大小还要大三倍多。
但是,Vertex AI的产品负责人Nenshad Bardoliwalla表示,选择32,000个标记是考虑了“灵活性”和“成本”。
“我们的客户正在努力在大型模型中平衡建模的灵活性和他们能够生成的场景,以及推论的成本 - 以及微调的能力,”Bardoliwalla在发布会上表示。
“每一项都有一定的计算成本,以及根据您在其中投资的程度而产生的人力成本。因此,我们认为在这个时候,鉴于市场的发展,根据我们所做的评估,32000个标记的结果相当令人印象深刻。我们认为这在新能力和在市场上提供有竞争力的价格性能比之间达到了合适的平衡。”
并不是每个客户都会同意这一点。但为了两全其美,谷歌已经将第三方模型添加到了Vertex AI的模型库中,其中包括Claude 2,这是一个预构建的模型和工具集合,可以根据企业的需求进行定制。
加入模型库的其他模型包括Meta最近发布的Llama 2以及Technology Innovation Institute的开源Falcon LLM。
这些新模型的增加是对亚马逊Bedrock的一种挑战,这是亚马逊最近推出的AWS产品,可以通过初创公司的预训练模型构建生成AI应用,包括AI21 Labs、Anthropic和Stability AI。
考虑到Bedrock的推出并不顺利,谷歌或许看到了在托管模型服务的新兴市场中建立立足点的机会,
为此,谷歌还将Extensions和数据连接器引入了Vertex AI - 这实际上是对OpenAI和Microsoft的AI模型插件的看法。
Extensions是一套工具,允许开发人员将模型连接到实时数据、专有数据或第三方应用程序,比如客户关系管理系统或电子邮件账户(例如Datastax、MongoDB或Redis),甚至可以代表用户采取行动。
与此同时,数据连接器可以从一系列平台(如Salesforce、Confluence和Jira)中获取企业和第三方数据的只读访问权限。
在某种相关的新闻中,Vertex AI现在支持Ray,这是一个用于扩展用Python编写的AI和工作负载的开源计算框架。这加入了Vertex AI中已经支持的框架,包括谷歌自己的TensorFlow。
我发现谷歌再次回避了与所有形式的生成AI相关的伦理和法律挑战中的许多问题,也许主要是版权问题。
像PaLM 2和Imagen这样的AI模型通过“训练”现有数据来“学习”生成文本和图像,这些数据通常来自于在网上搜索公共的、受版权保护的来源而收集的数据集。
Bardoliwalla此前告诉TechCrunch,谷歌进行广泛的“数据治理审查”,以“查看模型内的源数据”,以确保它们“不受版权索赔的限制”。
但是,即使慷慨地假设谷歌的所有AI训练数据都没有版权材料,谷歌和许多竞争对手一样,也没有提供退出机制,允许任何数据的所有者(除了Vertex AI的客户)排除其用于模型训练。
更大的未解决问题是,Vertex AI的客户是否真正拥有他们使用AI生成的内容。至少在美国,AI生成的艺术是否可以受版权保护尚不清楚。
谷歌对这个问题没有答案 - 至少没有准备好的答案。
Vertex AI搜索和对话
针对AI聊天机器人和搜索的流行趋势,谷歌在Vertex中提供了两个产品,旨在摆脱创建生成搜索和聊天应用程序的复杂性:Vertex AI搜索(之前是生成AI应用构建器上的企业搜索)和Vertex AI对话(之前是生成AI应用构建器上的对话AI)。
从今天开始,这两个产品都已经可以使用了。
通过Vertex AI搜索和Vertex AI对话,开发人员可以摄取数据并进行定制,构建搜索引擎、聊天机器人或“语音机器人”,这些机器人可以与客户互动,并回答基于公司数据的问题。
谷歌设想这些工具可用于构建食品订购、银行协助和半自动客户服务等用例的应用程序。
在跳转到GA(一般可用)后,Vertex AI搜索和Vertex AI对话中的新功能是多轮搜索,这样可以在不从头开始的情况下提问后续问题。还有新的对话和搜索摘要,可以对搜索结果和聊天对话进行总结。
在Vertex AI对话中推出预览版的Playbook可以让用户以自然语言定义他们希望语音和聊天机器人执行的响应和交易,类似于如何指示人类处理任务。
他们可以添加一个人物(“您是一个知识渊博且友好的自行车专家,适用于电子商务网站”)、目标(“帮助客户完成付款”)、步骤(“要求输入信用卡号码,然后是送货地址”)以及示例,展示如何以理想的方式完成目标。
Vertex AI模型扩展和数据连接器可以与Vertex AI搜索和Vertex AI对话一起使用。
还可以在Vertex中使用的另一个新功能是基础,它可以将模型的输出根据公司的数据进行概述,例如通过让模型明确引用其对问题的回答。
谷歌表示,Vertex AI搜索很快将支持企业访问控制,以“确保信息只对适当的用户可见”,并为结果提供相关性评分,以“鼓励对结果的信任”并使其“更有用”。
考虑到生成AI模型的倾向性制造事实,我持怀疑态度。恶意行为者试图通过提示注入攻击让模型偏离正轨是始终存在的风险。
在那种情况下,无论是生成文本还是生成图像,模型都可能产生有毒物质 - 这是在用于训练它们的数据中存在偏见的一个症状。
Bardoliwalla坚称,即使基于权威源的全面基础性能工具不能永远解决生成模型的所谓幻觉和有毒问题,它们也是朝着正确方向迈出的一步。
他说:“我们相信,全面的基于权威源的基础性能工具是我们提供控制幻觉问题并使其更值得信赖的一种方式。”
在一次以前的采访中,Bardoliwalla声称,对Vertex托管的生成模型的每个API调用都会进行“安全属性”评估,包括有毒性、暴力性和淫秽性。
谷歌根据这些属性对模型进行评分,并且对于某些类别,会阻止响应或者给客户选择如何继续的权利。
随着生成AI模型变得越来越复杂和难以解释,我想知道这是否是可持续的。我们 - 以及谷歌云的客户 - 将会见到结果。
发布者:5840,转转请注明出处:https://www.5840.cn/lives/1005.html
评论列表(0条)