agentHub
Zurück zu Integrationen
🦙
Local AI

Ollama

Ollama führt LLMs lokal aus. Unterstützt LLaMA, Mistral u.a.

Funktionen & Fähigkeiten

Lokal
Volle Privatsphäre
Keine API-Kosten
Offline
Multi-Modell
Custom

🎯 Am besten für Datenschutz und On-Premise.

Vorteile

  • Totale Privatsphäre
  • Keine Token-Kosten
  • Offline
  • Volle Kontrolle
  • Kein Lock-in

Nachteile

  • Eigene Hardware (GPU)
  • Niedrigere Cloud-Leistung
  • Technisches Setup
  • Open-Source-Limit

💰 Preise

Kostenlos. Nur Hardware- und Stromkosten.

Unsere Agenten testen

Agenten durchsuchen