Ana içeriğe geç
Sürüm: 1.0.0

FlowiseAI RAG sohbeti

FlowiseAI, geliştiricilerin özelleştirilmiş LLM orkestrasyon akışları ve AI ajanları oluşturmaları için düşük kodlu bir araçtır. FlowiseAI aracını Gaia düğümlerini LLM hizmet sağlayıcıları olarak kullanacak şekilde yapılandırabilirsiniz.

Ön Koşullar

Genel bir URL aracılığıyla LLM hizmetleri sağlamaya hazır bir Gaia düğümüne ihtiyacınız olacak. Yapabilirsin

Bu eğitimde, Continue eklentisine güç sağlamak için genel düğümleri kullanacağız.

Model tipiAPI temel URL'siModel adı
Sohbethttps://llama.us.gaianet.network/v1lama
Yerleştirmehttps://llama.us.gaianet.network/v1nomik

Bir FlowiseAI sunucusu başlatın

Flowise yerel olarak kurmak için FlowiseAI kılavuzunu izleyin

npm install -g flowise
npx flowise başlangıcı

Başarıyla çalıştırdıktan sonra, Flowise AI aracını kontrol etmek için http://localhost:3000 adresini açabilirsiniz.

Belgeleri sorgulayan bir sohbet robotu oluşturun

FlowiseAI, bir yapay zeka aracısı için tüm iş akışı bileşenlerini görsel olarak ayarlamanıza olanak tanır. FlowiseAI'de yeniyseniz, hızlı başlangıç için bir şablon kullanmanız önerilir. Aslında, Flowise pazarında OpenAI ile ilgili çok sayıda şablon var. Tek yapmamız gereken ChatOpenAI bileşenini ChatLocalAI bileşeni ile değiştirmek.

Örnek olarak Flowise Docs QnA' yı ele alalım. Belgelerinize dayalı bir QnA sohbet robotu oluşturabilirsiniz. Bu örnekte, bir GitHub deposundaki bir dizi belge ile sohbet etmek istiyoruz. Varsayılan şablon OpenAI ile oluşturuldu ve şimdi bunu bir Gaia düğümünde açık kaynaklı bir LLM kullanmak için değiştireceğiz.

Flowise Docs Soru-Cevapşablonunu edinin

Tüm şablonlara göz atmak için sol sekmedeki Marketplaces'a tıklayın. Kullanacağımız şablon Flowise Docs QnA ilk şablon.

Ardından, görsel düzenleyiciyi açmak için sol üst köşedeki Bu şablonu kullan düğmesine tıklayın.

Sohbet modeli API'sini bağlayın

ChatOpenAI bileşenini silmeniz ve ChatLocalAI'yi aramak için + düğmesine tıklamanız ve ardından ChatLocalAI'yi ekrana sürüklemeniz gerekecektir.

Ardından, şunları girmeniz gerekecektir

  • Gaia düğüm tabanı URL'si https://llama.us.gaianet.network/v1
  • model adı lama

Ardından, ChatLocalAI bileşenini şu alana bağlayın Sohbet modeli içinde Diyaloğa Dayalı Geri Alma QA Zinciri bileşen.

Yerleştirme modeli API'sini bağlayın

Varsayılan şablon, belgeleriniz için katıştırmalar oluşturmak için OpenAI Embeddings bileşenini kullanır. OpenAI Embeddings bileşenini LocalAI Embeddings bileşeni ile değiştirmemiz gerekiyor.

  • Gaia düğüm tabanı URL'sini kullanın https://llama.us.gaianet.network/v1 Temel Yol alanına girin.
  • Model adını girin nomic-embed-text-v1.5.f16 Model Adı alanına girin.

Sonra, bağlayın Yerel Yapay Zeka Yerleştirmeleri alanı ile bileşen gömme içinde Bellek İçi Vektör Deposu bileşen.

Belgelerinizi ayarlayın

Ardından, sohbet uygulamasını GitHub'daki belgelerimize bağlamak için GitHub bileşenini inceleyelim. Dokümanlarınızın GitHub bağlantısını Repo Bağlantısı alan. Örneğin, GaiaNet'in dokümanlar bağlantısını koyabilirsiniz: https://github.com/GaiaNet-AI/docs/tree/main/docs.

Bir deneyin

Mevcut sohbet akışını kaydettikten sonra "GaiaNet düğümü nasıl kurulur" gibi bir soru gönderebilirsiniz.

Cevabı daha doğru olan GaiaNet dokümanlarına dayanarak alacaksınız.

Daha fazla örnek

Flowise pazarında çok sayıda örnek var. GaiaNet tabanlı bir Flowise aracısı oluşturmak için, Chat OpenAI ve OpenAI Embeddings bileşenini GaiaNet temel URL'si ile değiştirmeniz yeterlidir.