Как стать автором
Обновить
4
0

Пользователь

Отправить сообщение

Интересно, а как они будут доказывать что именно на их книгах и именно пиратских, тренировались сети?
Разве тут нет презумпции невиновности? Или Meta и OpenAI настолько открытые что сами написали что они тренировали свои сети на этих незаконных источниках?

Или тут как в #MeToo достаточно просто сказать что "так было", а Meta и OpenAI пусть теперь доказывают обратное?

Спасибо большое.
Никто не пробовал использовать LangChain совместно с https://github.com/xtekky/gpt4free ?

Как устанавливал:

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make
mkdir /models/30B
cd /models/30B
wget https://huggingface.co/Pi3141/alpaca-lora-30B-ggml/resolve/main/ggml-model-q4_1.bin 

запускаю командой

./main -m ./models/30B/ggml-model-q4_1.bin  -n 128

В консоле просто:

./main -m ./models/30B/ggml-model-q4_1.bin -n 128
main: seed = 1680597228
llama_model_load: loading model from './models/30B/ggml-model-q4_1.bin' - please                                                                                                                                                                                                 wait ...
llama_model_load: n_vocab = 32000
llama_model_load: n_ctx   = 512
llama_model_load: n_embd  = 6656
llama_model_load: n_mult  = 256
llama_model_load: n_head  = 52
llama_model_load: n_layer = 60
llama_model_load: n_rot   = 128
llama_model_load: f16     = 3
llama_model_load: n_ff    = 17920
llama_model_load: n_parts = 4
llama_model_load: type    = 3
llama_model_load: ggml map size = 23269.46 MB
llama_model_load: ggml ctx size = 151.25 KB
llama_model_load: mem required  = 25573.60 MB (+ 3124.00 MB per state)
llama_model_load: loading tensors from './models/30B/ggml-model-q4_1.bin'
llama_model_load: model size = 23269.01 MB / num tensors = 543
llama_init_from_file: kv self size  =  780.00 MB

system_info: n_threads = 12 / 12 | AVX = 1 | AVX2 = 1 | AVX512 = 0 | FMA = 1 | N                                                                                                                                                                                                EON = 0 | ARM_FMA = 0 | F16C = 1 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 0 | SSE3                                                                                                                                                                                                 = 1 | VSX = 0 |
sampling: temp = 0.800000, top_k = 40, top_p = 0.950000, repeat_last_n = 64, rep                                                                                                                                                                                                eat_penalty = 1.100000
generate: n_ctx = 512, n_batch = 8, n_predict = 128, n_keep = 0

и все, ничего боле не происходит

возможно не хватает памяти? или какие то другие причины?

Спасибо, интересно конечно.
Возникли пару вопросов:
1. Есть ли API этого проекта что бы можно было попробовать интегрировать с другими проектами?
2. Возможно ли как то тренировать альпаку "скармливая" например книги в pdf формате?
3. "13B model" это максимальная модель для альпаки?
4. я так понимаю лучше использовать https://github.com/ggerganov/llama.cpp ? так как альпака не развиваеться?

И это тоже не факт. Может он королевских кровей :)

Hat.sh можно и у себя запустить, а Cloaker тоже возможно запустить на своем хосте? Спасибо.

Я думаю как вариант тут хорошо все написанно https://stackoverflow.com/questions/73671611/how-to-stream-html-content-with-static-files-using-fastapi/73672334#73672334 по поводу StreamingResponse

Хотя конечно хотелось бы узнать и за это еще - " если я буду раздавать файл 1G, он будет весь в память загружен или частями, нет ничего про насколько это проигрывает или выигрывает, если сравнивать с раздачей файлов через тот же nginx. "

"С 7-го января в России полностью запретят VPN"

Блин, на дворе 8 число, только увидел этот заголовок, подумал что УЖЕ запретили!!!
Решил зайти и почитать в стиле Спидинфо - "интриги, скандалы, расследование"
А в итоге 10500тысячный раз статья по настройке какого то скучного VPN
Испортили выходные :)

Интересно конечно, но если у игры есть какой то аналог "античита" то такой метод работы вашего бота будет скорее всего намного быстрее выявлен.

А дальше уже зависит от политики разработчиков игры, но скорее всего вас забанят.

Вроде как (сам не сравнивал) tabnine еще лучше помогает с этим чем copilot.

Это нативное приложение для М1? Спасибо.

UST и DAI самые надежные. Так как они децентрализованные.

Чужая семья — потёмки!
Поэтому не надо так категорично.

Гнать надо метлой этот Фейсбук! Не нравится мол им.
Не нравится, так удаляйтесь с телефонов Apple (отсылка на их поведение с Вацап).
Аж бесят!

В своё время удалил кошелёк Litecoin с 2100-2200 монетами.
Просто чистил комп :)
Ну было это конечно в 2012 году.

Дум наверно будет сильно Hard‘корно :)))

Как вариант обменять на стейбелкоин USDT Terher и вывести у себя локально в виде налички.
Стейбелкоины сейчас нормально покупают/продают при встрече за наличные.

Возможно было бы интересно увидеть в Сталкере, менеджмент базы/баз. Что бы можно было или свою берлогу обустроить или какой то уголок на базе.
Так же что бы это обустройство влияло не только на вас но и на игру в целом, например к вам на базу бы шло больше добровольцев/однодумцев.


В Метро Эксодус самая шикарная карта это Волга. Какое там раздолье для создания «своей базы». Жаль что там тоже нет ничего такого. Надеюсь в новом Метро, где они будут строить свою «новую жизнь на Байкале» что то такое добавят.

Чип супер конечно, однозначно молодцы. Хорошая встряска CPU рынка, наверно по хайпу как было когда в 90х выпускали первый Пентиум.


Так же, было бы интересно если бы они отдали на откуп пользователям частоты процессора, что бы можно было бы например на НЕ ноутбуках, а например на mini поставить больше частоту, питается он от розетки и охлаждение там не плохое (раз нормально отводило от Интела тепло).

1
23 ...

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность