agentHub
กลับไปที่การเชื่อมต่อ
🦙
Local AI

Ollama

Ollama รัน LLM ในเครื่องบนฮาร์ดแวร์ของคุณ รองรับ LLaMA, Mistral และอื่น ๆ เหมาะสำหรับองค์กรที่ต้องการความเป็นส่วนตัวของข้อมูลอย่างสมบูรณ์

คุณสมบัติและความสามารถ

รันในเครื่อง
ความเป็นส่วนตัวเต็มที่
ไม่มีค่า API
ออฟไลน์ได้
หลายโมเดล
โมเดลกำหนดเอง

🎯 เหมาะสำหรับการปรับใช้ที่คำนึงถึงความเป็นส่วนตัว, On-premise และการควบคุมเต็มที่

ข้อดี

  • ความเป็นส่วนตัวเต็มที่
  • ไม่มีค่า Token
  • ทำงานออฟไลน์
  • ควบคุมเต็มที่
  • ไม่ผูกขาดผู้ขาย

ข้อเสีย

  • ต้องมีฮาร์ดแวร์เอง (GPU)
  • ประสิทธิภาพต่ำกว่าคลาวด์
  • ตั้งค่าเชิงเทคนิค
  • จำกัดเฉพาะโมเดลโอเพนซอร์ส

💰 ราคา

ฟรีและโอเพนซอร์ส เฉพาะค่าฮาร์ดแวร์และค่าไฟ

Agent ที่เข้ากันได้

ลองใช้ Agent ของเรา

ดู Agent ทั้งหมด