Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O Ollama permite executar modelos de software livre localmente e usá-los com o Agent Framework. Isso é ideal para desenvolvimento, teste e cenários em que você precisa manter dados locais.
O exemplo a seguir mostra como criar um agente usando o Ollama:
using System;
using Microsoft.Agents.AI;
using Microsoft.Extensions.AI;
// Create an Ollama agent using Microsoft.Extensions.AI.Ollama
// Requires: dotnet add package Microsoft.Extensions.AI.Ollama --prerelease
var chatClient = new OllamaChatClient(
new Uri("http://localhost:11434"),
modelId: "llama3.2");
AIAgent agent = chatClient.AsAIAgent(
instructions: "You are a helpful assistant running locally via Ollama.");
Console.WriteLine(await agent.RunAsync("What is the largest city in France?"));
Pré-requisitos
Verifique se o Ollama está instalado e em execução localmente com um modelo baixado antes de executar qualquer exemplo:
ollama pull llama3.2
Observação
Nem todos os modelos dão suporte à chamada de função. Para uso de ferramentas, tente llama3.2 ou qwen3:4b.
Installation
pip install agent-framework-ollama --pre
Configuração
OLLAMA_MODEL="llama3.2"
O cliente nativo se conecta por http://localhost:11434 padrão. Você pode substituir isso passando host para o cliente.
Criar agentes Ollama
OllamaChatClient fornece integração nativa do Ollama com suporte total para ferramentas de funções e streaming.
import asyncio
from agent_framework.ollama import OllamaChatClient
async def main():
agent = OllamaChatClient().as_agent(
name="HelpfulAssistant",
instructions="You are a helpful assistant running locally via Ollama.",
)
result = await agent.run("What is the largest city in France?")
print(result)
asyncio.run(main())
Ferramentas de Funções
import asyncio
from datetime import datetime
from agent_framework.ollama import OllamaChatClient
def get_time(location: str) -> str:
"""Get the current time."""
return f"The current time in {location} is {datetime.now().strftime('%I:%M %p')}."
async def main():
agent = OllamaChatClient().as_agent(
name="TimeAgent",
instructions="You are a helpful time agent.",
tools=get_time,
)
result = await agent.run("What time is it in Seattle?")
print(result)
asyncio.run(main())
Transmissão ao vivo
async def streaming_example():
agent = OllamaChatClient().as_agent(
instructions="You are a helpful assistant.",
)
print("Agent: ", end="", flush=True)
async for chunk in agent.run("Tell me about Python.", stream=True):
if chunk.text:
print(chunk.text, end="", flush=True)
print()