Pull to refresh

Comments 8

Всё доступно)) Я получил доступ пол года назад. Для этого просто напиши в поддержку и всё заработает

интересно, Илья обучил свою модель с помощью LoRa, Это значит, что рядом с моделью были созданы новые слои. А тут получается LoRa поверх LoRa. Как так может быть? какая в итоге архитектура будет?

Не совсем.

Подготовим ноутбук для предобработки и обучения модели

Для начала загружаем модель LLama2 и адаптер LoRa (обязательно ставим параметр  is_trainable = True)

Параметр is_trainable = True подразумевает, что мы загружаем обученные слои для дообучения.

Т.е. мы пе(до)реобучаем обученные Ильей слои LoRa? Т.е. корректируем существующие слои Lora?

Да, всё верно. Это было сделано для того, чтобы не удалять полностью обучение русским диалогам и тд. А для того чтобы вывод был в нужном формате и логичность вывода сохранилась.

понял. спасибо. Работал, кстати, в Инлайне у Дрожжина несколько лет назад )
я обучил предложенную Вами модель, а потом IlyaGusev/saiga_mistral_7b_lora. Так вот вторая дала субъективно лучше результаты.

Sign up to leave a comment.

Articles