Ollama 플러그인은 Ollama에서 지원되는 모든 로컬 LLM에 대한 인터페이스를 제공합니다.
설치
npm i --save genkitx-ollama
구성
이 플러그인을 사용하려면 먼저 Ollama 서버를 설치하고 실행해야 합니다. https://ollama.com/download의 안내를 따르세요.
Ollama CLI를 사용하여 관심 있는 모델을 다운로드할 수 있습니다. 예를 들면 다음과 같습니다.
ollama pull gemma
이 플러그인을 사용하려면 Genkit를 초기화할 때 지정합니다.
import { genkit } from 'genkit';
import { ollama } from 'genkitx-ollama';
const ai = genkit({
plugins: [
ollama({
models: [
{
name: 'gemma',
type: 'generate', // type: 'chat' | 'generate' | undefined
},
],
serverAddress: 'http://127.0.0.1:11434', // default local address
}),
],
});
인증
맞춤 헤더 (API 키와 같은 정적 헤더 또는 인증 헤더와 같은 동적 헤더)가 필요한 Ollama의 원격 배포에 액세스하려면 Ollama 구성 플러그인에서 이러한 헤더를 지정하면 됩니다.
정적 헤더:
ollama({
models: [{ name: 'gemma'}],
requestHeaders: {
'api-key': 'API Key goes here'
},
serverAddress: 'https://my-deployment',
}),
요청별로 헤더를 동적으로 설정할 수도 있습니다. 다음은 Google 인증 라이브러리를 사용하여 ID 토큰을 설정하는 방법의 예입니다.
import { GoogleAuth } from 'google-auth-library';
import { ollama } from 'genkitx-ollama';
import { genkit } from 'genkit';
const ollamaCommon = { models: [{ name: 'gemma:2b' }] };
const ollamaDev = {
...ollamaCommon,
serverAddress: 'http://127.0.0.1:11434',
};
const ollamaProd = {
...ollamaCommon,
serverAddress: 'https://my-deployment',
requestHeaders: async (params) => {
const headers = await fetchWithAuthHeader(params.serverAddress);
return { Authorization: headers['Authorization'] };
},
};
const ai = genkit({
plugins: [
ollama(isDevEnv() ? ollamaDev : ollamaProd),
],
});
// Function to lazily load GoogleAuth client
let auth: GoogleAuth;
function getAuthClient() {
if (!auth) {
auth = new GoogleAuth();
}
return auth;
}
// Function to fetch headers, reusing tokens when possible
async function fetchWithAuthHeader(url: string) {
const client = await getIdTokenClient(url);
const headers = await client.getRequestHeaders(url); // Auto-manages token refresh
return headers;
}
async function getIdTokenClient(url: string) {
const auth = getAuthClient();
const client = await auth.getIdTokenClient(url);
return client;
}
용도
이 플러그인은 모델 참조를 정적으로 내보내지 않습니다. 문자열 식별자를 사용하여 구성한 모델 중 하나를 지정합니다.
const llmResponse = await ai.generate({
model: 'ollama/gemma',
prompt: 'Tell me a joke.',
});
삽입기
Ollama 플러그인은 유사성 검색 및 기타 NLP 작업에 사용할 수 있는 임베딩을 지원합니다.
const ai = genkit({
plugins: [
ollama({
serverAddress: 'http://localhost:11434',
embedders: [{ name: 'nomic-embed-text', dimensions: 768 }],
}),
],
});
async function getEmbedding() {
const embedding = await ai.embed({
embedder: 'ollama/nomic-embed-text',
content: 'Some text to embed!',
})
return embedding;
}
getEmbedding().then((e) => console.log(e))