ChatOllama
Last updated
Last updated
indirin veya çalıştırın.
Örneğin, llama3 ile bir Docker örneği başlatmak için aşağıdaki komutu kullanabilirsiniz
Chat Models > ChatOllama düğümünü sürükle
Ollama üzerinde çalışan modeli girin. Örneğin: llama2
. Ek parametreler de kullanabilirsiniz:
Docker'da hem Flow hem de Ollama'yı çalıştırıyorsanız, ChatOllama için Temel URL'yi değiştirmeniz gerekecek.
Voila , artık AIFINEX Flow'da ChatOllama düğümünü kullanabilirsiniz.
Windows ve MacOS İşletim Sistemleri için belirtin. Linux tabanlı sistemler için, host.docker.internal kullanılamadığından varsayılan docker ağ geçidi kullanılmalıdır: