Pull to refresh
3
0
Send message

Отлично, спасибо.

Я тоже любил рисовать поярче и много элементов. Потом понял что есть простой тест который должен проходить каждый график:

SFW: So f*king what? И чё?

Если через 3 сек непонятно на что обращать внимание и что это значит, визуализация "не очень" )

Да, шифрование тренспорта, как и WiFI
На нашел требований к шифроанию л\п на клиентах УДома, лампочки утюги и холодильники

"Недорогие" умные лампочки и прочие беспроводные датчики часто хранят л/п в открытом виде что бы дешевле и меньше энергии на (де)шифрование. Их часто используют для доступа ко всей сети.

Zigbee это как-то решает?

 Чему все так удивляются "...купил на распродаже без какой-либо гарантии. "

те между чистой комнатой и покупкой могли быть курятники, криптофермы, и мухофермы

Послушай и забудешь

Посмотри и может запомнишь

Сделай и поймешь

Win 7 настолько быстрее что её использование приравнивается к читтерству..

Было бы интересно сравнение с Сферы с другими process mining решениями типа Celonis, Segnavio,...

ИМХО LangChain задает хороший фреймворк подхода к работе с LLM, но реализация часто сложнее и менее прозрачна чем если напрямую с тем же API OpenAI.

вот тут у вас много моделей в т.ч. T5, Bert, FRED разных размеров.
Это были эксперименты по поиску архитектуры или у всех будет продолжение?

"Этот пароль уже занят"

ИИ обучаться на запросах и ответах пользователей

Насколько знаю, LLM как телефонный справочник на чатах не обучаются, только на данных которые через них пропускали при обучении.

Да и в оригинале немного не так написано:

Human reviewers may read the chats, and researchers found that similar AI could reproduce the data it absorbed during training

~"чаты могут просматриваться людьми и AI может выдать данные использовавшиеся для обучения."

Было бы интересно что такое YaGPT  внутри

  • Это одна из opensource архитектур LLaMa, BERT, GPT.. или своя?

  • Веса - полностью обучили с нуля или finetune?

  • Сколько параметров, хотя бы порядок

  • ...т.п.

Это не троллинг а действительно интересно

За статью спасибо

Думал реклама а тут интересно.

И спасибо что показали что ML может быть без трансформеров и GPT.

"OpenAI прикрыл лавочку"

17 мая 2023: OpenAI готовит к выпуску open source модель

"Утекшее" письмо от Google расписывает почему утечка LLaMA выгодна ее создателям. А в условиях когда на ИИ пока никто на зарабатывает (кроме Nvidia и псевдо "промт-коучей") экспериментов тех гигантов с open source будет больше.

сдуру заблокировал хосты мелкомягких еще при установке Windows 

так же хочу, как после установки заблокировать ?

Помогите разобраться пож. На https://huggingface.co/models 192тыс опенсорс моделей (+30тыс чекпоинтов), все вариации трансформеров. У вас и др. уважаемых источников их ~100. Это разница в определении?

спс, а есть какие-то количественные сравнения качества обучения?

Или

"что уменьшает размер матриц обновлений на коэффициент до нескольких тысяч." = "в тыс раз меньше"

open source трансформеры уже пару лет в доступе, поясните пож в чем вселенская значимость мартовской утечки

Information

Rating
Does not participate
Registered
Activity