ChatOllama
Ön Koşul
Örneğin, llama3 ile bir Docker örneği başlatmak için aşağıdaki komutu kullanabilirsiniz
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama docker exec -it ollama ollama run llama3
Kurulum
Chat Models > ChatOllama düğümünü sürükle

Ollama üzerinde çalışan modeli girin. Örneğin:
llama2. Ek parametreler de kullanabilirsiniz:

Voila 🎉, artık AIFINEX Flow'da ChatOllama düğümünü kullanabilirsiniz.

Ek Olarak
Docker'da hem Flow hem de Ollama'yı çalıştırıyorsanız, ChatOllama için Temel URL'yi değiştirmeniz gerekecek.
Windows ve MacOS İşletim Sistemleri için http://host.docker.internal:8000 belirtin. Linux tabanlı sistemler için, host.docker.internal kullanılamadığından varsayılan docker ağ geçidi kullanılmalıdır: http://172.17.0.1:8000

Kaynaklar
Last updated