Ollama – nền tảng giúp tự host LLM trên máy của người dùng hiện đã tương thích với Anthropic Messages API, điều này có nghĩa là giờ đây chúng ta đã có thể dùng Claude Code với các mô hình mã nguồn mở.

Vây là giờ đây, chúng ta giờ đã có thể chạy 1 bộ các dịch vụ của Claude khép kín, bao gồm:

Các vòng lặp agent (agentic loops)

Khả năng dùng công cụ (tool use)

Quy trình làm việc lập trình (coding workflows)

Tất cả đều được vận hành bởi LLM chạy trực tiếp trên chính máy của chúng ta.

Bài giới thiệu chính thức trên Ollama:
https://ollama.com/blog/claude
https://docs.ollama.com/integrations/claude-code