У нас вы можете посмотреть бесплатно RAGDrive.com using Groq and Local AI Inference with Llama 3.1 8B with RAG или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
In this demo, we see RAGDrive.com app on Mac in action. We create a project, initiate a new chat, choose Groq as our AI provider and select Meta Llama 3.1 8B as our AI model and upload a document, in our case - "Attention is all you need" research paper PDF. We ask questions first with Groq, then seamlessly switch to a local AI model which just so happens to be Llama 3.1 8B again. On both occasions, the RAG context is carried over brilliantly across providers This project is open source thanks to collaboration between HaiVE and Nidum.AI @GroqInc @meta Get it now at https://RAGDrive.com Psssst...a little birdie told me, Nidum.AI's decentralized AI Cloud will be added as third provider within a month