Войти
  • 13858Просмотров
  • 1 год назадОпубликованоAI Experience Exchange

Локальный RAG (Retrieval-Augmented Generation) и Агенты

🚀 Запускаем полностью локального помощника по технологии RAG с агентской схемой. Используем: ✨ Ollama. ✨ llama3.2:3b-instruct-fp16. ✨ LangChain и LangGraph ✨Embeddings: модель intfloat/multilingual-e5-large с HuggingFace. ✨Tavily: Поисковая систему для Web поиска, оптимизированная для LLM и RAG. 🚀 Исходники см. здесь: ✨ Что еще изучить и посмотреть: · AI Agents: · LlamaIndex: · OpenAI API (API ChatGPT): · RAG (Retrieval-Augmented Generation): · Ollama: · Flowise: · LM Studio: · TextGen WebUI: ✨Внимание: 1.Если вы испытываете проблемы с просмотром ранее опубликованного видео в связи с замедлением Youtube, пишите в кометы под нужным постом в Телеграм - и я залью туда это видео. 2.Приглашаю в Телеграм общаться по этой теме: 3.Чат находится здесь: