Pull to refresh
12
0

Data Scientist

Send message

Каталог товаров эйвонов/орифлеймов на 0.5ГБ такой: аче всмысле?

Первые уточки были ардуинками, там какой-то клон Леонардо с совместимой прошивкой. Сейчас в основном это ESP32. Готовые в корпусе есть у китайцев, называется BadUSB, но там низкое качество и ограниченный функционал, чтобы сделать нормальный хранитель паролей, придется взять паяльник.

Rubber Ducky или Digispark как самые популярные. Можно даже взять целый одноплатник, типа малинки zero w.

Свидетели Vim'a: смотрят с осуждением.

Жители мегаполисов настолько деградировали, что уже не в состоянии сообразить себе что-то поесть без посторонней помощи. Ура-ура, доставка, шаверма и прочие макдаки.
Ходить на нормальное расстояние тоже не многие в состоянии - отдышка в следствие ожирения и мышечная атрофия от сидения в офисах и пробках.
Однокнопочный планктон для поддержания свой жизнедеятельности специализируется в своей узкой области, перекладывание бумажек, например. А для решения задач, к которым он не приспособлен, платит другим таким же однокнопочным специалистам.

Широта взглядов, умение вкручивать лампочки и забивать гвозди, классическая музыка, опера и балет с умением считать в столбик как-то не так жизненно важно по сравнению с умением добыть еды и добраться до дома на своих двоих. Как думаете?

SDXL

SDXL
A vibrant yellow banana-shaped couch sits in a cozy living room, its curve cradling a pile of colorful cushions. on the wooden floor, a patterned rug adds a touch of eclectic charm, and a potted plant sits in the corner, reaching towards the sunlight filtering through the window.

Не очень понятны шутеечки комментаторов, резервуарные вычисления вполне рабочая штука.
https://en.wikipedia.org/wiki/Reservoir_computing
Другое дело, что вычислительные модули такого размера давно не используются, скорее пытаются приспособить эффекты на квантовых пленках.

Ждем вариант с голосовым ассистентом, типа Скиппи (HJKE-11 Yukimura), который будет при включении говорить "Здарова, чумба! Постреляем?"

Скайрим бы так никто и не купил, ну кроме спидранеров.

Предположим, что эта статья написана при помощи ChatGPT, тогда все не так уж плохо ;-)

Судя по оригинальной статье сеть на исходных данных не учится напрямую, а вычленяет из них векторное пространство и на основе найденных закономерностей строится уравнение аппроксимирующее некоторый набор функций, эта аппроксимация и служит преобразователем данных. Эффективность выше чем у LSTM, но точность ниже.

Идея очень интересная, но подход пока не очень понятный. Это похоже на резервуарные вычисления, только без резервуаров.

Хотите сказать, что надо для прикладных задач использовать "биологических решателей"?
Прямая проста и лаконична, всегда требует O(1) вычислительных ресурсов, поэтому ее можно пересчитать для новых данных, тогда будет O(n).
Да, всякие эвристические методы могут работать лучше, если вводить дополнительные метрики качества. При повышении размерности линейное разделение остается таким же простым, как и метрики, а вот для линейно неразделимых множеств даже с учетом преобразований естественно искать другие подходы.

Нейросети так не работают. Рекомендую ознакомиться с теорией информации и использованием нейросетевых методов сжатия.

Собственно, нейросеть может создать приближение функции кодирующей изображения из определенного домена, но при добавлении другого домена возникнут искажения. Это можно компенсировать добавлением числа параметров, но после некоторого предела использовать такую функцию становится бессмысленно.
Самый наглядный пример - StableDiffusion. Набор из 75 токенов и сид исходного шума кодирует любое из триллионов изображений, но закодировать любое произвольное изображение невозможно так как функции генерации используют некоторый набор абстракций, полученных из обучающего датасета. И статистическое смещение/искажение этих абстракций не позволяют кодировать произвольное изображение без дообучения.
Самая главная проблема в нейросетевом кодировании - фазовые пространства не гомеоморфны, там есть гомеоморфные кластера для некоторых доменов, но эти кластера разрежены. Чем больше размерность пространства, тем больше кластеров и больше разряжение.

Силами сообщества сравнимые мощности никак не собрать. Даже если наберется достаточно энтузиастов, пока будет вестись разработка и обучение, OpenAI уйдет очень далеко вперед.

Все эти коммунистические/анархические/демократические идеи подразумевают существование людей, которые как муравьи - и швец, и жнец, и на дуде игрец, не хочет жить лучше чем сосед, довольствуется тем что имеет и все свое время в радостном экстазе пользует на процветание и улучшение процветания общества.

Только вот таких людей пока не существует. Менять прошивку которая забивалась миллионы лет довольно самонадеянно, а подстроиться под нее пока осознания не хватает.

Проблема еще глубже.
Нейросетка обучается при помощи вдалбливания силой статистики и малая выборка некоторых классов вообще не позволяет их воспроизводить.
Далее, нет качественного кодирования абстракций. Да, кое-что оседает в трансформерах, но довольно жиденько и не системно. Взять к примеру руки, человек имеет представление о строении конечностей и может довольно достоверно их изобразить, а у сетки нет воображения, на вход даже опорные точки не подаются, в результате получаем лишние пальцы и перетекание одних предметов в другие. А с лицами намного проще, в обучающих данных был избыток мордашек, опорные точки имеют примитивную структуру и получаем очень качественные лица в окружении стремной мазни.

На самом деле проблемы нет. Надо просто понять какой логикой пользовались при создании обучающих данных, открыть промпты, отсортировать по частоте использования и вставлять подходящие к контексту. Чтобы заставить ИИ читать мысли придется использовать другие обучающие данные и прикрутить движок, который будет преобразовывать простую человеческую речь в облако тегов на основе культуры и языка, четкой классификации их в латентном пространстве и еще компенсировать это посредством уточняющих запросов.

Вот перенос стиля работает прекрасно, можно засунуть каляки-маляки, добавить описание и несколько раз прогнав получить хороший результат.
Тут дело в том, что фазовое пространство невообразимо огромное и сети легче опираться на картинку с текстом, чем на текст, который несет гораздо меньше информации.

А какой принцип, уровень детализации мира? Мне на ум ничего кроме клеточных автоматов не приходит, вроде базового слоя термодинамики и немного покрутить первое поколение, с которого начнется эволюция.

Information

Rating
Does not participate
Location
Алма-Атинская обл., Казахстан
Date of birth
Registered
Activity