Wtyczka Ollama

Wtyczka Ollama udostępnia interfejsy do wszystkich lokalnych interfejsów LLM obsługiwanych przez Ollama.

Instalacja

npm i --save genkitx-ollama

Konfiguracja

Aby zainstalować tę wtyczkę, musisz najpierw zainstalować i uruchomić serwer Ollama. Możesz postępować zgodnie z instrukcjami na stronie https://ollama.com/download.

Aby pobrać interesujący Cię model, możesz użyć interfejsu wiersza poleceń Ollama. Przykład:

ollama pull gemma

Aby użyć tej wtyczki, określ ją podczas inicjowania Genkit:

import { genkit } from 'genkit';
import { ollama } from 'genkitx-ollama';

const ai = genkit({
  plugins: [
    ollama({
      models: [
        {
          name: 'gemma',
          type: 'generate', // type: 'chat' | 'generate' | undefined
        },
      ],
      serverAddress: 'http://127.0.0.1:11434', // default local address
    }),
  ],
});

Uwierzytelnianie

Jeśli chcesz uzyskać dostęp do zdalnych wdrożeń Ollama, które wymagają nagłówków niestandardowych (statycznych, takich jak klucze interfejsu API, lub dynamicznych, takich jak nagłówki autoryzacji), możesz je określić w pluginie konfiguracji Ollama:

Nagłówki statyczne:

ollama({
  models: [{ name: 'gemma'}],
  requestHeaders: {
    'api-key': 'API Key goes here'
  },
  serverAddress: 'https://my-deployment',
}),

Możesz też dynamicznie ustawiać nagłówki na potrzeby poszczególnych żądań. Oto przykład ustawienia tokena identyfikacyjnego za pomocą biblioteki Google Auth:

import { GoogleAuth } from 'google-auth-library';
import { ollama } from 'genkitx-ollama';
import { genkit } from 'genkit';

const ollamaCommon = { models: [{ name: 'gemma:2b' }] };

const ollamaDev = {
  ...ollamaCommon,
  serverAddress: 'http://127.0.0.1:11434',
};

const ollamaProd = {
  ...ollamaCommon,
  serverAddress: 'https://my-deployment',
  requestHeaders: async (params) => {
    const headers = await fetchWithAuthHeader(params.serverAddress);
    return { Authorization: headers['Authorization'] };
  },
};

const ai = genkit({
  plugins: [
    ollama(isDevEnv() ? ollamaDev : ollamaProd),
  ],
});

// Function to lazily load GoogleAuth client
let auth: GoogleAuth;
function getAuthClient() {
  if (!auth) {
    auth = new GoogleAuth();
  }
  return auth;
}

// Function to fetch headers, reusing tokens when possible
async function fetchWithAuthHeader(url: string) {
  const client = await getIdTokenClient(url);
  const headers = await client.getRequestHeaders(url); // Auto-manages token refresh
  return headers;
}

async function getIdTokenClient(url: string) {
  const auth = getAuthClient();
  const client = await auth.getIdTokenClient(url);
  return client;
}

Wykorzystanie

Ta wtyczka nie eksportuje statycznie odwołań do modelu. Określ jeden z skonfigurowanych modeli za pomocą identyfikatora ciągu znaków:

const llmResponse = await ai.generate({
  model: 'ollama/gemma',
  prompt: 'Tell me a joke.',
});

Umieszczacze

Wtyczka Ollama obsługuje embeddingi, które można wykorzystać do wyszukiwania podobieństw i innych zadań związanych z NLP.

const ai = genkit({
  plugins: [
    ollama({
      serverAddress: 'http://localhost:11434',
      embedders: [{ name: 'nomic-embed-text', dimensions: 768 }],
    }),
  ],
});

async function getEmbedding() {
  const embedding = await ai.embed({
      embedder: 'ollama/nomic-embed-text',
      content: 'Some text to embed!',
  })

  return embedding;
}

getEmbedding().then((e) => console.log(e))