微软希望公司建立自己的人工智能“副驾驶”——当然是使用 Azure 上的工具和来自其密切合作伙伴 OpenAI 的机器学习模型。
今天在其年度 Build 大会上,微软推出了 Azure AI Studio,这是Azure OpenAI 服务中的一项新功能,可让客户将 OpenAI 的GPT或 GPT-4 等模型与他们自己的数据(无论是文本还是图像)结合起来,并构建一个聊天助手或另一种“推理”私人数据的应用程序。(回想一下,Azure OpenAI 服务是 Microsoft 完全托管的、以企业为中心的产品,旨在让企业访问 AI 实验室 OpenAI 的技术并增加治理功能。)
微软将“copilot”定义为使用 AI(通常是文本生成或图像生成 AI)的聊天机器人应用程序,以协助完成诸如撰写销售宣传或为演示文稿生成图像等任务。该公司已经创建了多个此类应用程序,例如Bing Chat。但它的人工智能副驾驶不一定能利用公司的专有数据来执行任务——这与通过 Azure AI Studio 创建的副驾驶不同。
“在我们的 Azure AI Studio 中,我们使开发人员可以轻松地将 Azure OpenAI 服务模型建立在他们的数据上……并且安全地执行此操作,而无需查看该数据或不必在数据上训练模型。” 微软 AI 平台 CVP John Montgomery 通过电子邮件告诉 TechCrunch。“对于我们的客户来说,能够构建自己的副驾驶是一个巨大的促进剂。”
在 Azure AI Studio 中,副驾驶构建过程从选择 GPT-4 等生成式 AI 模型开始。下一步是给副驾驶一个“元提示”,或者对副驾驶的角色及其应该如何发挥作用的基本描述。
可以将基于云的存储添加到使用 Azure AI Studio 创建的 AI copilots,以跟踪与用户的对话并以适当的上下文和意识进行响应。插件扩展副驾驶,使他们能够访问第三方数据和其他服务。
微软认为 Azure AI Studio 的价值主张是允许客户在他们自己的数据上利用 OpenAI 的模型,符合他们的组织政策和访问权限,并且不会影响安全性、数据政策或文档排名等。客户可以选择集成其组织拥有或有权访问的内部或外部数据,包括结构化、非结构化或半结构化数据。
借助 Azure AI Studio,微软正在推动使用其云托管工具构建的定制模型。随着 Azure OpenAI 服务的持续增长,这是一条潜在的有利可图的收入线——微软表示,它目前为超过 4,500 家公司提供服务,包括 Coursera、Grammarly、沃尔沃和宜家。
升级到 Azure OpenAI 服务
为了进一步激励 Azure OpenAI 服务的采用,微软推出旨在提高大批量客户容量的更新。
一项称为预配置吞吐量 SKU 的新功能允许 Azure OpenAI 服务客户按月或按年预留和部署模型处理能力。客户可以购买“预配吞吐量单位”或 PTU 来部署 OpenAI,模型包括 GPT-3.5-Turbo 或 GPT-4,并在承诺期内保留处理能力。
OpenAI 之前通过其 API为 GPT 提供了专用容量。但是 Provisioned Throughput SKU 极大地扩展了这一点——并且倾向于企业。
微软发言人通过电子邮件告诉 TechCrunch:“通过预留处理能力,客户可以期望具有一致特征(例如提示大小、完成大小和并发 API 请求数量)的工作负载具有一致的延迟和吞吐量。”