agentHub
통합으로 돌아가기
🦙
Local AI

Ollama

Ollama는 사용자의 하드웨어에서 로컬로 LLM을 실행. LLaMA, Mistral 등 지원. 완전한 데이터 프라이버시가 필요한 조직에 적합.

기능 및 성능

로컬 실행
완전한 프라이버시
API 비용 없음
오프라인 가능
다중 모델
커스텀 모델

🎯 프라이버시 민감, 온프레미스, 완전 제어 배포에 최적.

장점

  • 완전한 프라이버시
  • 토큰 비용 없음
  • 오프라인 작동
  • 완전한 제어
  • 벤더 종속 없음

단점

  • 자체 하드웨어 필요(GPU)
  • 클라우드보다 낮은 성능
  • 기술적 설정
  • 오픈소스 모델로 제한

💰 가격

무료 오픈소스. 하드웨어와 전기 비용만.

에이전트 체험하기

에이전트 둘러보기