ChatLocalAI
Last updated
Last updated
, yerel çıkarım için OpenAI API spesifikasyonlarıyla uyumlu bir yedek REST API'sidir. LLM'leri (yalnızca değil) yerel olarak veya şirket içinde tüketici sınıfı donanımla çalıştırmanıza olanak tanır ve ggml formatıyla uyumlu birden fazla model ailesini destekler.
ChatLocalAI'yi AIFINEX Flow içinde kullanmak için aşağıdaki adımları izleyin:
Mesela:
modellerden birini indirin
/models
klasöründe, indirilen modeli orada görebilmeniz gerekir:
Artık API'ye localhost:8080 adresinden erişilebilir
Yeni bir ChatLocalAI bileşenini canvas'a sürükleyip bırakın:
Aşağıdaki alanları doldurun:
Model Adı: Kullanmak istediğiniz model. LocalAI dizininin klasörünün içinde olması gerektiğini unutmayın. Örneğin: /modelsggml-gpt4all-j.bin
Flow'da LocalAI'yi nasıl kullanabileceğinizi izleyin.
YOUTUBE VDEOSU!!!!
Desteklenen modellerin listesi için bakın.
Temel Yol: LocalAI'den alınan temel url örneğin
Docker'da hem Flow hem de LocalAI çalıştırıyorsanız temel yolu olarak değiştirmeniz gerekebilir. Linux tabanlı sistemler için, host.docker.internal kullanılamadığından varsayılan docker ağ geçidi kullanılmalıdır:
Bu kadar! Daha fazla bilgi için LocalAI bakın.