ToepassingenGemiddeld

Ollama

Ollama is een tool waarmee je open source AI-modellen lokaal op je eigen computer kunt draaien.

Uitleg

Ollama is een open source tool die het eenvoudig maakt om grote taalmodellen lokaal op je eigen computer te draaien. In plaats van een API van OpenAI of Anthropic te gebruiken (en daarvoor te betalen), download je een model en draai je het volledig offline op je eigen hardware.

Ollama ondersteunt tientallen open source modellen, waaronder LLaMA, Mistral, Gemma, Phi en CodeLlama. De installatie is eenvoudig: je installeert Ollama, kiest een model en begint te chatten. Alles draait lokaal, wat betekent dat je data nooit je computer verlaat.

Lokaal draaien heeft voordelen: volledige privacy, geen API-kosten, en het werkt ook zonder internet. Het nadeel is dat je krachtige hardware nodig hebt (veel RAM en bij voorkeur een GPU) en dat lokale modellen over het algemeen minder krachtig zijn dan de nieuwste gesloten modellen van OpenAI of Anthropic.

Voorbeelden

  • Met ollama run llama3 start je een gesprek met LLaMA 3 direct in je terminal
  • Ontwikkelaars gebruiken Ollama om AI te testen zonder API-kosten te maken
  • Een bedrijf draait Ollama op een interne server zodat gevoelige bedrijfsdata niet naar externe servers gaat

Trefwoorden

lokaalopen sourceprivacygratisterminal

Gerelateerde termen

Gerelateerde begrippen

Inferentie, Llama, Open Source AI, LLaMA, Quantisatie

Over deze term

Wat is Ollama?

Ollama is een tool waarmee je open source AI-modellen lokaal op je eigen computer kunt draaien.