Vertex AI 插件提供多个 AI 服务的接口:
- Google 生成式 AI 模型:
- Gemini 文本生成
- Imagen2 图片生成
- 文本嵌入生成
- 通过 Vertex AI Rapid Evaluation API 获取的部分评估指标:
- 向量搜索
安装
npm i --save @genkit-ai/vertexai
如果您想在本地运行使用此插件的流程,还需要安装 Google Cloud CLI 工具。
配置
如需使用此插件,请在初始化 Genkit 时指定该插件:
import { genkit } from 'genkit';
import { vertexAI } from '@genkit-ai/vertexai';
const ai = genkit({
plugins: [
vertexAI({ location: 'us-central1' }),
],
});
该插件要求您指定 Google Cloud 项目 ID、要向其发出 Vertex API 请求的区域,以及 Google Cloud 项目凭据。
- 您可以通过在
vertexAI()
配置中设置projectId
或设置GCLOUD_PROJECT
环境变量来指定 Google Cloud 项目 ID。如果您要从 Google Cloud 环境(Cloud Functions、Cloud Run 等)运行 flow,系统会自动将GCLOUD_PROJECT
设置为该环境的项目 ID。 - 您可以通过在
vertexAI()
配置中设置location
或设置GCLOUD_LOCATION
环境变量来指定 API 位置。 如需提供 API 凭据,您需要设置 Google Cloud 应用默认凭据。
用法
生成式 AI 模型
此插件会静态导出对其支持的生成式 AI 模型的引用:
import { gemini15Flash, gemini15Pro, imagen3 } from '@genkit-ai/vertexai';
您可以使用这些引用指定 ai.generate()
使用的模型:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const llmResponse = await ai.generate({
model: gemini15Flash,
prompt: 'What should I do when I visit Melbourne?',
});
此插件还支持使用 Google 搜索或您自己的数据为 Gemini 文本回答进行“接地”。
示例:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
await ai.generate({
model: gemini15Flash,
prompt: '...',
config: {
googleSearchRetrieval: {
disableAttribution: true,
}
vertexRetrieval: {
datastore: {
projectId: 'your-cloud-project',
location: 'us-central1',
collection: 'your-collection',
},
disableAttribution: true,
}
}
})
此插件还会静态导出对 Gecko 文本嵌入模型的引用:
import { textEmbedding004 } from '@genkit-ai/vertexai';
您可以使用此引用指定索引编制工具或检索工具使用的嵌入程序。例如,如果您使用 Chroma DB,请执行以下操作:
const ai = genkit({
plugins: [
chroma([
{
embedder: textEmbedding004,
collectionName: 'my-collection',
},
]),
],
});
或者,您也可以直接生成嵌入:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const embedding = await ai.embed({
embedder: textEmbedding004,
content: 'How many widgets do you have in stock?',
});
Imagen3 模型支持根据用户提示生成图片:
import { imagen3 } from '@genkit-ai/vertexai';
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const response = await ai.generate({
model: imagen3,
output: { format: 'media' },
prompt: 'a banana riding a bicycle',
});
return response.media();
甚至可以对现有图片进行高级编辑:
const ai = genkit({
plugins: [vertexAI({ location: 'us-central1' })],
});
const baseImg = fs.readFileSync('base.png', { encoding: 'base64' });
const maskImg = fs.readFileSync('mask.png', { encoding: 'base64' });
const response = await ai.generate({
model: imagen3,
output: { format: 'media' },
prompt: [
{ media: { url: `data:image/png;base64,${baseImg}` }},
{
media: { url: `data:image/png;base64,${maskImg}` },
metadata: { type: 'mask' },
},
{ text: 'replace the background with foo bar baz' },
],
config: {
editConfig: {
editMode: 'outpainting',
},
},
});
return response.media();
如需了解更详细的选项,请参阅 Imagen 模型文档。
Vertex AI Model Garden 上的 Anthropic Claude 3
如果您有权访问 Vertex AI Model Garden 中的 Claude 3 模型(俳句、颂诗或歌曲),则可以将其与 Genkit 搭配使用。
以下是用于启用 Vertex AI Model Garden 模型的配置示例:
import { genkit } from 'genkit';
import {
claude3Haiku,
claude3Sonnet,
claude3Opus,
vertexAIModelGarden,
} from '@genkit-ai/vertexai/modelgarden';
const ai = genkit({
plugins: [
vertexAIModelGarden({
location: 'us-central1',
models: [claude3Haiku, claude3Sonnet, claude3Opus],
}),
],
});
然后将其用作常规模型:
const llmResponse = await ai.generate({
model: claude3Sonnet,
prompt: 'What should I do when I visit Melbourne?',
});
Vertex AI Model Garden 中的 Llama 3.1 405b
首先,您需要在 Vertex AI Model Garden 中启用 Llama 3.1 API 服务。
以下是 Vertex AI 插件中 Llama 3.1 405b 的配置示例:
import { genkit } from 'genkit';
import { llama31, vertexAIModelGarden } from '@genkit-ai/vertexai/modelgarden';
const ai = genkit({
plugins: [
vertexAIModelGarden({
location: 'us-central1',
models: [llama31],
}),
],
});
然后像使用常规模型一样使用它:
const llmResponse = await ai.generate({
model: llama31,
prompt: 'Write a function that adds two numbers together',
});
评估程序
如需使用 Vertex AI 快速评估中的评估器,请将 evaluation
块添加到 vertexAI
插件配置中。
import { genkit } from 'genkit';
import {
vertexAIEvaluation,
VertexAIEvaluationMetricType,
} from '@genkit-ai/vertexai/evaluation';
const ai = genkit({
plugins: [
vertexAIEvaluation({
location: 'us-central1',
metrics: [
VertexAIEvaluationMetricType.SAFETY,
{
type: VertexAIEvaluationMetricType.ROUGE,
metricSpec: {
rougeType: 'rougeLsum',
},
},
],
}),
],
});
上述配置为 Safety
和 ROUGE
指标添加了评估器。该示例展示了两种方法:Safety
指标使用默认规范,而 ROUGE
指标提供自定义规范,将 rouge 类型设置为 rougeLsum
。
您可以使用 genkit eval:run
命令搭配兼容的数据集(即包含 output
和 reference
字段的数据集)运行这两种评估器。Safety
评估器还可以使用 genkit eval:flow -e vertexai/safety
命令运行,因为它只需要 output
。
索引器和检索器
Genkit Vertex AI 插件包含由 Vertex AI Vector Search 服务支持的索引器和检索器实现。
(如需了解如何在 RAG 实现中使用索引器和检索器,请参阅检索增强生成页面。)
Vertex AI Vector Search 服务是一个文档索引,可与您选择的文档存储区搭配使用:文档存储区包含文档内容,而 Vertex AI Vector Search 索引则包含每个文档的向量嵌入和对文档存储区中文档的引用。在 Vertex AI Vector Search 服务为文档编入索引后,它便可以响应搜索查询,并在文档存储区中生成索引列表。
Vertex AI 插件提供的索引编制器和检索器实现会使用 Cloud Firestore 或 BigQuery 作为文档存储区。该插件还包含您可以实现的接口,以支持其他文档存储空间。
如需使用 Vertex AI Vector Search,请执行以下操作:
- 选择嵌入模型。此模型负责根据文本创建向量嵌入。高级用户可以使用针对其特定数据集进行了优化的嵌入模型,但对于大多数用户而言,Vertex AI 的
text-embedding-004
模型适合英语文本,text-multilingual-embedding-002
模型适合多语言文本。 在 Google Cloud 控制台中的 Vector Search 部分,创建一个新索引。最重要的设置包括:
- 维度:指定所选嵌入模型生成的矢量的维度。
text-embedding-004
和text-multilingual-embedding-002
模型会生成 768 维的向量。 - 更新方法:选择流式更新。
创建索引后,将其部署到标准(公共)端点。
- 维度:指定所选嵌入模型生成的矢量的维度。
获取要使用的文档存储空间的文档索引器和检索器:
Cloud Firestore
import { getFirestoreDocumentIndexer, getFirestoreDocumentRetriever } from '@genkit-ai/vertexai/vectorsearch'; import { initializeApp } from 'firebase-admin/app'; import { getFirestore } from 'firebase-admin/firestore'; initializeApp({ projectId: PROJECT_ID }); const db = getFirestore(); const firestoreDocumentRetriever = getFirestoreDocumentRetriever(db, FIRESTORE_COLLECTION); const firestoreDocumentIndexer = getFirestoreDocumentIndexer(db, FIRESTORE_COLLECTION);
BigQuery
import { getBigQueryDocumentIndexer, getBigQueryDocumentRetriever } from '@genkit-ai/vertexai/vectorsearch'; import { BigQuery } from '@google-cloud/bigquery'; const bq = new BigQuery({ projectId: PROJECT_ID }); const bigQueryDocumentRetriever = getBigQueryDocumentRetriever(bq, BIGQUERY_TABLE, BIGQUERY_DATASET); const bigQueryDocumentIndexer = getBigQueryDocumentIndexer(bq, BIGQUERY_TABLE, BIGQUERY_DATASET);
其他
如需支持其他文档存储区,您可以提供自己的
DocumentRetriever
和DocumentIndexer
实现:const myDocumentRetriever = async (neighbors) => { // Return the documents referenced by `neighbors`. // ... } const myDocumentIndexer = async (documents) => { // Add `documents` to storage. // ... }
如需查看示例,请参阅包含本地文件的 Vertex AI 插件 Retriever 和 Indexer 示例。
将
vectorSearchOptions
块添加到vertexAI
插件配置中:import { genkit } from 'genkit'; import { textEmbedding004 } from '@genkit-ai/vertexai'; import { vertexAIVectorSearch } from '@genkit-ai/vertexai/vectorsearch'; const ai = genkit({ plugins: [ vertexAIVectorSearch({ projectId: PROJECT_ID, location: LOCATION, vectorSearchOptions: [ { indexId: VECTOR_SEARCH_INDEX_ID, indexEndpointId: VECTOR_SEARCH_INDEX_ENDPOINT_ID, deployedIndexId: VECTOR_SEARCH_DEPLOYED_INDEX_ID, publicDomainName: VECTOR_SEARCH_PUBLIC_DOMAIN_NAME, documentRetriever: firestoreDocumentRetriever, documentIndexer: firestoreDocumentIndexer, embedder: textEmbedding004, }, ], }), ], });
提供您在第一步中选择的嵌入程序,以及您在上一步中创建的文档索引编制程序和检索程序。
若要将该插件配置为使用您之前创建的 Vector Search 索引,您需要提供多个值,这些值可在 Google Cloud 控制台中的“Vector Search”部分找到:
现在,所有配置都已完成,您可以在 Genkit 应用中使用索引编制器和检索器:
import { vertexAiIndexerRef, vertexAiRetrieverRef, } from '@genkit-ai/vertexai/vectorsearch'; // ... inside your flow function: await ai.index({ indexer: vertexAiIndexerRef({ indexId: VECTOR_SEARCH_INDEX_ID, }), documents, }); const res = await ai.retrieve({ retriever: vertexAiRetrieverRef({ indexId: VECTOR_SEARCH_INDEX_ID, }), query: queryDocument, });
请参阅以下代码示例: