LiteLLM Proxy
AIFINEX Flow'un LiteLLM Proxy ile nasıl entegre olduğunu öğrenin
Flow ile LiteLLM Proxy kullanmak için:
Yük dengesi Azure OpenAI/LLM uç noktaları
OpenAI Formatında 100'den Fazla LLM Çağırın
Bütçeleri, ücret sınırlarını belirlemek ve kullanımı takip etmek için Sanal Anahtarları kullanın
Flow ile LiteLLM Proxy Nasıl Kullanılır
Adım 1: LiteLLM config.yaml dosyasında LLM Modellerinizi tanımlayın
LiteLLM Tüm modellerinizin tanımlandığı bir yapılandırma gerektirir - bu dosyayı litellm_config.yaml olarak adlandıracağız
litellm yapılandırmasının nasıl kurulacağına ilişkin ayrıntılı dokümanlar - burada
model_list:
- model_name: gpt-4
litellm_params:
model: azure/chatgpt-v-2
api_base: https://openai-gpt-4-test-v-1.openai.azure.com/
api_version: "2023-05-15"
api_key:
- model_name: gpt-4
litellm_params:
model: azure/gpt-4
api_key:
api_base: https://openai-gpt-4-test-v-2.openai.azure.com/
- model_name: gpt-4
litellm_params:
model: azure/gpt-4
api_key:
api_base: https://openai-gpt-4-test-v-2.openai.azure.com/Adım 2: Litellm Proxy'yi Başlatın
Başarılı olduğunda, proxy http://localhost:4000/ adresinde çalışmaya başlayacaktır.
Adım 3: Flow'da LiteLLM Proxy'sini Kullanın
Flow'da standart OpenAI düğümlerini belirtin (Azure OpenAI düğümlerini değil) - bu chat models, embeddings, llms - her şey için geçerlidir
BasePath'i LiteLLM Proxy URL'sine ayarlayın (yerel olarak çalıştırırkenhttp://localhost:4000)Aşağıdaki başlıkları ayarlayın
Authorization: Bearer <your-litellm-master-key>
Last updated