Как стать автором
Обновить

Комментарии 7

как-то в конце скомкано. "дорисуем остаток совы".

в какой момент модель понимает, что нужно черпать ответы из набора ПДФок?

если в момент подсовывания RAG модели, то какие затраты ресурсов в этот момент? хватит ли ЦПУ или обязательно видюху?

как мне потом задать этому комбайну вопрос, ответ на который точно чодержится в предоставленных ПДФках и получить ответ?

А как сделать локальную версию без интернета?

В том-то и фишка langchain, что многие его компоненты легко заменяются)
Вот документация по запуску локальной llm, а вот список всех llm интеграций

К всезнающему "ИИ" есть у меня общий вопрос. Возможна ли на современном уровне техники машинная энциклопедизация знаний? Хотя бы отраслевая, для начала. А также вменяемый патентный поиск.

И один частный вопрос. Лежит на сервере 1 миллион страниц пдф технической документации. Или миллион страниц научных работ. Возможно ли обучить LLM до такого уровня "чата", чтобы эта нежить давала мало-мальски вменяемые ответы по темам статей? Хотя бы на уровне студента-троечника с хорошей памятью?

Здравствуйте! У меня есть датасет из 268 маленьких txt файлов, общий вес не доходит до 90 мб. Я тоже использую FAISS, но embedding OpenAI слишком медленный. Когда я тестировал с embedding-ими OpenAI показал лучший результат, в то время как другие даже близко не нашли. Как можно ускорить, или же посоветуйте другой хороший embedding?

rubert-tiny

Используйте NVIDIA chat with RTX - работает хорошо и быстро.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий