Pull to refresh

Comments 271

Ну всё, осталось сделать генератор ИИ который будет делать генератор ИИ который будет делать генератор ИИ и так далее, пока не обретёт сознание.
Городить такие цепочки из ИИ не нужно. Достаточно сделать постоянно действующую обучающую обратную связь от ИИ к нему же самому. Хочу заметить, что это и будет сознание.
это и будет сознание

Ну-ка ну-ка, почему же?
Потому что возникнет обратная связь внутри ИИ, направленная на саму структуру ИИ.
Тут конечно нельзя говорить с абсолютной уверенностью, но похоже что именно это происходит в человеческом мозге. Да, возможно вопрос будет в количестве таких обратных связей и их «степени вложенности». То есть потребуется еще контур, подключенный к первому и способный его анализировать и корректировать параметры… и так далее. Дело за малым — провести эксперимент. Вот гугл сделал полшага в нужном направлении, осталось еще полшага:)
Потом дать ему возможность самому выращивать/настраивать обратные связи и привет… )

Хорошо, если не сразу — Пока!

UFO just landed and posted this here
Это неверно, у сознания еще есть чувства, которые корректируют логику, а у ИИ пока такого нет.
С чего Вы взяли, что «чувства», например, не являются производными сознания?
Может из-за химии? Гормоны и т.п.
Потому что из-за чувств и эмоций люди действуют нерационально и даже себе во вред — это очень сложное взаимодействие. Поэтому если мы говорим про ИИ, то нужно одновременно с рациональным сознанием проектировать эмоции и их взаимодействие. Тогда ИИ будет «похожим» на человеческий.
Многие сейчас насоздавали программы, которые обрабатывают фотографии в стиле картин известных художников, но этим софтом никто не пользуется, потому что искусство — это не только набор цветов и приемов художника, и там тоже существуют эмоции и чувства.
В Ваших представлениях слишком много поэзии. Эмоции вполне рациональны с т.з. популяции, на уровне которой и работает генетический алгоритм, создавший их. У style transfer нет задачи заменить художников, хотя и в живописи эмоций и чувств с гулькин нос. Большинство холстомарателей тупо зарабатывает этим деньги, и это пользуется спросом. Стиль в данном случае является лишь отражением моды.
«Чувства» — или «эмоции» — это и есть обратная связь, с помощью которой мозг сообщает нам о «правильном» или «неправильном» результате.
Товарищи, хватит огород городить, почитайте Элиезера Юдковского лучше.
Блог о рациональном мышлении и проектировании дружественного ИИ
А это корректно, когда вместо своего суждения ссылаются на «блок знаний» неопределённого размера, да ещё и принадлежащий другому лицу? ;)
Видимо, LunaticRL имел в виду в первую очередь вот эту статью.

Но вообще у lesswrong кроме этого много и другой годноты.
И у некоторых эти чувства отбиты напрочь…
«Чувства» и «эмоции» — это движущие факторы т.н. обучения с подкреплением.
Положительная эмоция — даёт положительную обратную связь (это значит, что нейросеть в данный момент сработала правильно), т.е. увеличивает веса тех соединений, по которым недавно прошёл нервный импульс.
Отрицательная эмоция — это сигнал «так делать не надо», который ослабляет или разрушает существующую связь.
А как же бесчувственные злодеи?
«Бесчувственные злодеи», как правило, по своей природе социопатичны, у них свои собственные представления о нормах социального поведения.
То, что у человека отсутствует эмпатия, не значит, что у него отсутствуют чувства и эмоции. Безчуственность это как правило проблема интерфейса, а не аппарата.

Глючные, жёстко прошитые целевые функции? Ну да, у ИИ такого нет, но сделать не сложно, если понадобится.

Похоже на сверхгенератор в радиоприёме (которому лет 100 скоро наверное), там если правильно помню он сам генерит и в отсутствие сигнала — живёт своей жизнью:)
Так и у ИИ без явных задач будет самоподдерживающися внутренний диалог и всё такое:)
Для того, чтоб он не слишком генерил, он генерит с определённой частотой («гашения»). Иначе он бы ничего не поймал.
Это будет самосовершенствование. Но сознанием вряд-ли станет ибо упрётся всё в быстродействие. Вот если автоматизировать процесс и чтоб ИИ пытался сделать свою аппаратную платформу быстрее, а параллельно самообучался из разных источников — вполне возможно, что через пару десятков или сотен лет что-то подобное и выйдет
А вот тут Вы уже описали любопытнейшую книжку писателя А. Лазаревича «Червь». Там тоже описывается самообучение и самоизменение и что из этого вышло. И должен заметить, книга была написана еще когда ни о каком машинном обучении даже речи не шло. =)
Какого года книга? Лучше почитайте «Открытие себя» Владимира Савченко, книга 1967 года. Ещё компьютеров не было, а в книге уже саморазвившийся ИИ который создавал клонов людей со своим интеллектом :)
Всё это уже было в Симпсонах у Лема!
У Лема в «Сумме Технологии» было описано чуть более, чем 90% того, о чем мы читаем новости в последние годы. И даже больше))) Гениальная книга, что уж говорить)
Гораздо меньше… Это возможный конец человечеству…
Но далеко не факт что если ИИ поумнеет то будет все убивать. Возможно он захочет развивать и сохранять жизнь также как люди не убивают всех злых животных а сохранят их виды.
Совершенно не обязательно ИИ вообще будет мыслить такими категориями. См здесь (искать по слову robotica) историю о том, как ИИ, заточенный на рисование красивых текстов от руки и самосовершенствование, уничтожил человечество.
Не уверен, что обратная связь вообще что-либо даст. САМО-сознание и ОБРАТНАЯ связь — не подобные процессы.
Сознание — это как бы такой «отдельный Я» в мозге, который (в большинстве случаев) принимает решения, а советоваться к нему ходить остальная часть мозга. Обжёг руку, сигнал в мозг, анализ, выявление опасного воздействия — будем убирать руку? Я: «ну если надо для фокуса, могу ещё подержать!».
Когда такому ИИ дадут распознавать картинки, первая его реакция должна быть «А с чего вообще я должен вам что-то распознавать??» :)
Да вот так хоп и через пару часов технологическая сингулярность наступит.
Новые процессоры так быстро не наштампуешь.

Зачем их штамповать. Сейчас миллионы видеокарт майнят крипту. Т.е. тупо прожигают электричество. Достаточно перевести их на машинное обучение.

Научная статья опубликована 1 декабря 2018 года

Новость из будущего?

Прогноз новости из будущего.

(Submitted on 21 Jul 2017 (v1), last revised 1 Dec 2017 (this version, v3))

Получается — «новости» уже год?
//просыпается
Опять все проспал! (С)

Признайтесь, просто вы встретили прилетевшего из прошлого Марти, отняли у него машину времени и теперь путаетесь.

«Наверное, не тот год...» ©
Не понимаю что вас удивляет? Терминатора тоже отправили в прошлое, чтобы кое-что подкорректировать…
Бифф Таннер опять играет на рынке биткойна.
ИИ от Google обучил дочерний ИИ, который превосходит все ИИ, созданные человеком

… по мнению ИИ… :-)

Не, кроме шуток — при такой сложности задачи начинаются подозрения насчет методики подсчета. А, не понимая до конца как происходит выборка/обучение/и, самое главное, механизм работы обученной сети… Тут уже надо бы из медицины методологию брать — «двойное слепое плацебо-контролируемое исследование».
Причем именно с разными людьми для определения алгоритмов выборки и методов сравнения.

А зачем подозрения? Берете эту сгенерированную нейросеть на гитхабе и проверяете на тестовом наборе ImageNet по любой методике.


А их методика описана в статье — валидация на тестовом наборе.

проверяете на тестовом наборе ImageNet

Вам не кажется, что тестовый набор это часть методологии проверки, вообще-то? :-)

Я про то и говорю, что надо аккуратнее проверять с разными параметрами. А то можно получить совсем не то, что ожидаем.

Нет, не кажется. Это часть задачи. Они же не универсальный ИИ пилили, а сеть для решения ImageNet.

Ну, дык, как я выше и намекнул: ИИ сделал ИИ, который сделал все хорошо по мнению ИИ. ок, на выборке для ИИ — так точнее :-)
Но легче от такого уточнения не стало. Как я сказал выше — для жизни надо как-то выходить за рамки тестовых песочниц.

Поэтому данные для обучения нейросети и данные для её проверки никогда не смешиваются. ImageNet реально применимая модель, никаких особых песочниц там нет, вполне настоящие фотографии. А с переобучением последнего слоя, в принципе, можно уже обученную нейросеть заточить на поиск именно того, что нам интересно.
Хорошо бы проверять изображениях типа этого :)
image
Там русские что ли названия пишут? «Нас нет» — довольно точное определение для ИИ, разработанного без участия человека.
Спасибо. КПДВ не очень убедительна: слишком просто: все, что выше горизонта — кайты, ниже — люди. Не надо быть семи пядей в нейросети.
Ну, зато людей ниже горизонта находит (88% подписанный), а кайт выше горизонта приблизительно такого же размера — нет (наверху, слегка слева). Так что явно все как-то сложнее. Но вот полезнее ли…

Ну это вам имеющему сознание это понятно. А там определяла машина. И как вы её научите это делать интересно? Вон парни из статьи смогли. И это просто пример, они же набивали статистику.

Вопрос что именно они определили.
С нейросетями вроде была статья про то, что нейросеть замечательно определяла занавески. Правда потом оказалось, что она определяла не занавески, а батарею отопления (потому что она везде присутствовала на обучающей и тестовой выборке с занавесками).
Поэтому не так очевидно доказать, что сеть действительно отличает «людей» от «кайтов» по каким-то признакам серьезнее, чем «выше половины снимка».
Тоже есть такие подозрения. Точность распознавания падает с уменьшением высоты полета кайта и уменьшением его размера. Я задумался — а как я распознаю?
1) Мысленно строится 3D модель, вижу берег и воду — пляж детектед.
2) То что я знаю о пляжах сравнивается с картинкой.
3) Фигуры похожие на людей с голыми ногами — ага, подтверждена близость воды.
4) Какие-то хрени в небе (небо — структура похожая на то что видел много раз). Скорее всего парапланы. Но где люди со стропами?
4) А! Где-то читал про кайты, ну и вообще там написано.
5) А если там все таки затеряется парапланерист? Воздушный змей? Самолет? НЛО? Пятно на пленке? Фотошоп?
Итого алгоритм такой.
I) Картинка разбивается на фрагменты
II) Строится модель
II) Подтягивается инфа по каждому элементу модели
IV) Сравнивается с тем что вижу, модель уточняется — т.е. переход к п.II. Каждый элемент модели может быть еще разбит на элементы — т.е. обратно к п. I.
Интересно, а что происходит в «голове» у нейронки?
Пока нейросети классификации изображений ещё не в состоянии «строить 3D-модель» и с трудом учитывают смысловое содержание, вроде Вашего «пляж-люди с голыми ногами», для них это плоский набор штрихов. В идеале нужно 1) преобразовывать 2D -> 3D 2) сегментировать изображение на объекты 3) уточнять характеристики объектов 4) уточнять общую смысловую нагрузку сцены. По каждому из направлений в отдельности идёт работа, когда-нибудь мы придём к одной нейросети, которая сможет всё это переварить.

Нейросеть не обязательно должна в точности повторять наш алгоритм распознавания если он не идеален. Если она может распознать его лучшим и более лёгким алгоритмом — то почему-бы и нет?

Не должна, но именно такой алгоритм наиболее логичен с т.з. нашего понимания, т.к. мы всё-таки живём в трёхмерном мире, состоящем из отдельных объектов, у которых есть вполне конкретный набор структурных элементов. Всё-таки мы учим нейросети под человеческие задачи и распознаём объекты так, чтобы это было логично с т.з. человека.
Интересно, а что происходит в «голове» у нейронки?

У нея внутре неонка!

Я задумался — а как я распознаю?
1) Мысленно строится 3D модель

Это описание «как я думаю о том, как я мог бы распознать», а не «как я распознаю». Реально ваши нейроны могли и не строить никакой 3d-модели, просто сигналы интерферировали так, что ответы начали возникать почти мгновенно, а лишь потом сознание начало прикручивать к ним тэги «пляж», «голые ноги», «кайты» и т.п.

В точку! Мозг достраивает реальность для восприятия сознанием, в том числе объяснения "как я думаю". Распознавание и мышление производится на более низком уровне, без всякой абстрактной фигни, которая лишь тормозит деятельность. Почти все решения основываются больше на "gut feeling" (или "интуиция"), чем на логических размышлениях.

Чтобы лучше понять как вы распознаете, подумайте над тем, как вы ошибаетесь при распознавании, например с картинками типа «показалось» и проанализируйте с чем связаны ошибки, авось поможет.
*вспомнился Lexx
Мы не можем сделать нанороботов, но мы можем сделать машину, которая сделает машину, которая сделает нанороботов.
— Но как нам сделать такой звездолёт? — Никак. Но вы можете сделать механизмы, которые сделают механизмы ещё меньше, те сделают механизмы ещё меньше, а самые маленькие смогут построить ваш звездолёт
790-й о космолёте
Может быть нынешнее поколение людей ещё пригодится ИИ.
Для составления обучающих выборок.

AlphaGo Zero намекает, что нет, не пригодимся.

Когда ИИ начнут обучать людей?
Зачем? ИИ просто будет приезжать покормить нас в какой-нибудь резервации.
UFO just landed and posted this here
Люди учатся сами, глядя на игру роботов. Или на спаривание насекомых, или на столкновение частиц. А чтобы говорить о том, что ИИ обучил человека, нужно, чтобы ИИ создал некую методологию внедрения знаний в учеников и контроля их усвоенности.

Да сколько, блин, можно уже. Хватит называть грёбаные классификаторы и нейросети "ИИ". Это чистая математика, никакого "интеллекта" там нет.

Да сколько, блин, можно уже. Хватит называть грёбаные клетки и и жир "интеллект". Это чистая биология, никакого "интеллекта" там нет

Попытка хорошая, но вот мозг никто интеллектом не называет и статьи про это на хабре не пишет, поэтому мимо.

Почему мы не можем назвать способность приспосабливаться к новым ситуациям, способность к обучению и построению абстракций — интеллектом? Откуда такой запрет? Почему вы его вводите?

Я никаких запретов не ввожу. Но нейросети – это не "способность", это запрограммированый конкретный алгоритм. Он не сможет приспособиться к новым ситуациям, только к тем, которые заложены. И тем более, в нём нет никакого "построения абстракций". Программист может вложить какие-то абстракции, но не сама нейросеть. Она может лишь отнести объекты к тем или иным заданным абстракциям.


А вот человеческий интеллект (чем бы он ни был) — сможет, так или иначе, приспособиться к новым ситуациям и выработать новые абстракции.

Почему это не может строить абстракции? Именно этим нейросеть и занимается. Она делает внутри себя абстракции. Да это алгоритм, да он очень сложный. Нет, нет никаких предпосылок полагать, что в голове у нас сосзнание осуществляет не алгоритм. Да очень сложный алгоритм на электрохимических связях.
Он не сможет приспособиться к новым ситуациям, только к тем, которые заложены.

Давайте мысленный эксперимент проведём.
Создаём виртуальное окружение — лабиринт с точками «питания» и «наказания». Пусть эти точки как-то двигаются.
Достаточно сложную нейросеть снабдим выходами, управляющими перемещением её аватара, и завёрнутыми ей же на вход (проприоцепция). Снабдим набором атрибутов состояния «голод», «здоровье», Рецепторы для простоты можно и не делать — есть же возможность двигаться и возможность ощущать голод и боль. Если нейронная сеть научится дифференцировать эти параметры, мы получим рецептор «еды» и рецептор «боли». Эти рецепторы можно и отдельно реализовать, тогда нейронке будет проще учиться.
Если долго мутировать и скрещивать веса достаточно сложной многослойной нейронной сети, то наверняка она сможет развиться в организм. способный приспосабливаться и обучаться. Мы сформируем все факторы для естественного отбора, ведь более «умная» и «способная к обучению» нейронная сеть в этих условиях будет иметь больше шансов для выживания.
При этом мы можем достичь формирования зачатков интеллектуального поведения.
Но в случае с этими классификаторами изображений, конечно, понятие ИИ применимо весьма условно и в очень узком специфическом смысле. Мне тоже не нравится такое расширение понятия ИИ. Я бы называл это ИР — искусственный рефлекс. Мы фактически делаем насекомых, которые умеют отличать «цветок» от «листка», но, в сущности не понимают что это такое и нормально с этим живут.
В вашей схеме нейросеть — вообще непринципиальный элемент, вместо него мог бы быть набор шестерней с подбираемыми эволюцией зубьями, или набор уравнений с подбираемыми эволюцией коэффициентами. Да, это, скорее, «искусственный рефлекс», до разумности в такой модели ещё очень и очень далеко (до абстрагирования и символьного кодирования ситуаций и обмена знаниями с себе подобными). Популяция каких-нибудь бактерий за миллиарды лет не научилась строить космические корабли, хотя, вроде бы, развивалась как раз по вашей схеме.
Она делает внутри себя абстракции

Нет, не делает. Абстракции делают люди, которые программируют нейросеть. И набор этих абстракций конечен, нейросеть не сможет добавить новые абстракции, которые не были заложены изначально.


Дальше не читал, много текста, основанного (как я предположил) на неверных предпосылках.

Делает же.
Вот нейросетка умеющая превратить фотку в картину в узнаваемом стиле как-то обучается именно стилю, а что это такое как не абстракция над изображением?
Люди там АФАИР управляют физической структурой ансамбля, а не абстракциями уровня живописи.
Абстрагирование — несколько более сложная операция, чем заполнение по паттерну. Это именно извлечение независимой от деталей модели, с которой абстрагирующий субъект может производить полезные модификации (причём, в символьном виде). В случае нейросетки, размазывающей стиль картины по фотке, абстрагирующим элементом был разработчик сети, задавший критерии извлечения признаков геометрии, являющихся «стилем». И ничего другого эта нейросетка с такой моделью сделать не сможет, т.е., это не абстрактная модель, а функциональная статистическая модель преобразования изображения из одного в другое.
задавший критерии извлечения признаков геометрии,

Прикол только в том, что разработчик не задаёт критерии извлечения признаков геометрии.

Прикол в том, что разработчик нейросети задаёт «рамочную» модель, свободные параметры которой подбираются статистически прогонкой кучи образцов (имеется ввиду именно разработчик нейросети, конечно, а не скрипткидди, следующий туториалу на Хабре). Это и правда прикольно, и может выглядеть магией для любого, кто не способен связать больше двух шагов причинно-следственных связей.

Рамочная модель? Это количество и размер слоев, что ли? То есть я, когда выбираю функцию активации или добавляю дропаут, таким образом задаю критерии извлечения признаков геометрии? Вы серьезно так считаете? Выбор архитектуры задаёт критерии? Ваше дело, конечно, можете и так считать.


Вопрос в другом. Почему вы так сильно упираете на магию в своих рассуждениях? На ваш взгляд, в человеческом сознании есть магия или нет? И если нет, то к чему разговоры о магии вообще?

Модель решаемой задачи, а не модель нейросети (которая уже следует из модели задачи и является продуктом творчества разработчика, решающего задачу).

Остальное в вашем сообщении не распарсил, извините, не вижу предмета беседы. Спасибо за диалог, хорошего вам дня.

"Абстрактная живопись" не имеет никакого отношения к термину "абстракция" в контексте данного тредика.

Я не говорил про абстрактную живопись. Я говорю, что стиль это абстракция. То есть на входе обучения картины художника, на входе рабочего прохода фото с сюжетом не относящимся к картинам, на выходе — сюжет фото в стиле художника.
Так вот стиль, применяемый к фото это абстракция, созданная сетью.
А какой это стиль — не важно.

Эта абстракция не создана сетью, она создана программистами, которые запрограммировали сеть "обучиться" на картинках художников по определённому алгоритму и потом преобразовывать входящие картинки по другому определённому алгоритму, используя данные из "обучения".


Попробуйте найти в интернете статью или курс по основам нейросетей – поймёте, что там нет никакой магии. Это чистая "глупая" математика, причём не сильно сложная (в основе своей).

А кто говорит о магии? Просто из входящих данных удалось выделить «стиль» и зашифровать его в коэффициенты. Или думаете у Вас в голове магия выделением абстракций занимается.
У Вас даже не математика. Химии хватило ;)
Просто из входящих данных удалось выделить «стиль» и зашифровать его в коэффициенты

Всё верно, только "стиль" выделяется не нейросетью, а программистом, который написал код для выделения "стиля".

Нет там никакого кода стиля, просто сохраняются данные из внутренних контент-слоёв, а внешние (стилевые) слои модифицируются для минимизации локальной ошибки. То есть стилем считаем любые локальные небольшие повторяющиеся элементы, а крупные сохраняем неизменными. Соответственно, изменяя конфигурацию стилевых и контент-слоёв, а также изменяя вклад этих слоёв в функцию ошибки, получаем разное соотношение исходной геометрии и стиля.
Можно с тем же успехом генерировать изображения с нуля на основе набора фото, а не применять стиль:
пример
image
То есть стилем считаем любые локальные небольшие повторяющиеся элементы, а крупные сохраняем неизменными

Вы же понимаете, что вот эту логику должен запрограммировать человек, который делает соответствующую нейросеть?

Вообще-то эту логику афаир не программируют. Там учителя же вроде ставят, и в паре эти ребята работают.
То есть по размеченному набору учим сетку 1, которая отличает есть этот стиль, или нету. Например загоняем вперемешку картины нужного автора и просто фотки с отпуска (которые явно в стиле голимого реализма).
Потом делаем вторую сетку — которая преобразовывает входные фотки, а получилось или нет определяет первая обученная.
Когда вторая начинает попадать со своим преобразованием куда надо — задача решена.
Сам стиль никто не программировал.

CC: Sadler


То есть по размеченному набору учим сетку 1

Вы же понимаете, что "учим" — это лишь условное название? Алгоритм "обучения" написан человеком и именно там определяется список критериев, которые нейросеть должна учитывать.

Алгоритм обучения не написан для выделения стиля. Это универсальный алгоритм обучения нейросети, и не имеет отношения к живописи.

Я неправильно сформулировал. Алгоритм может быть "универсальный" (хотя такого нет, конечно же), но вот критерии для алгоритма подбираются вручную, так или иначе.


Sadler: вы правда не видите разницу между человеческим интеллектом и нейросетью, обученой распознавать котеек?

вы правда не видите разницу между человеческим интеллектом и нейросетью, обученой распознавать котеек?
Естественно, вижу. Что не запрещает мне использовать абстракцию «интеллект» применительно к обеим системам. Я не превращаю интеллект в религию, когда каждая новая область деятельности ИИ перестаёт восприниматься как интеллектуальная.
Критерий для «контролирующего» алгоритма простой — «Это картина художника, которому учим?». Угадал — положительная обратная связь. Не угадал — отрицательная.
Для «художника» тоже простой критерий «Контролёр поверил, что это картина художника?» Поверил — положительная связь, не поверил — отрицательная.

Нет, критерии обработки данных. Нейросеть ничего не знает про картины, художников и т.д., она на вход получает только числа. В случае с картинками – это числовые значения цветов пикселей и их положение.


При "обучении" же нейросеть вырабатывает определённые коэффициенты (тоже просто числа) для каждого отдельного "нейрона".


Sadler:


абстракцию «интеллект» применительно к обеим системам

Ну вот применительно к нейросетям это ошибка, потому что там интеллекта не больше, чем у калькулятора.

В смысле «критерий обработки данных»?
Вы про представление картины в цифре, или ещё о чем-то?

ну да, картина имеет цифровое представление. БМП например, фактически я не знаю какое. сетка контролёр кучей нейронов первого слоя это пережёвывает, отдаёт результат дальше по ансамблю, последний слой один нейрон — 0 или 1. (ну может не дискретно, а вероятность).
Соответсвенно, «художник» на входе имеет тот же цифровой вектор — исходное фото. На выходе вектор — обработанное фото, его выход идёт на вход контролёра.
Или вы считаете, что в цифровом представлении картины для нейросетки зашиты не пиксели изображения, а некие предобработанные абстрактные сущности, одна из которых «стиль»?
В смысле «критерий обработки данных»?

вот, не благодарите:


При обучении сети предлагаются различные образцы образов с указанием того, к какому классу они относятся. Образец, как правило, представляется как вектор значений признаков. При этом совокупность всех признаков должна однозначно определять класс, к которому относится образец. В случае, если признаков недостаточно, сеть может соотнести один и тот же образец с несколькими классами, что неверно. По окончании обучения сети ей можно предъявлять неизвестные ранее образы и получать ответ о принадлежности к определённому классу.
вектор значений признаков
Как правило, для изображений используются просто цвета всех пикселей. Не rocket science, прямо скажем.
Для изображений логично, что вектор признаков это пиксели.
Ну вот применительно к нейросетям это ошибка, потому что там интеллекта не больше, чем у калькулятора.
Это Ваше мнение.
хотя такого нет, конечно же

Градиентного спуска не существует? Это не серьезно.

Естественный интеллект также имеет фиксированные алгоритмы обучения с фиксированным списком критериев, который подвержен лишь крайне медленному изменению за счёт генетики. Не делайте из естественного интеллекта магию.

Не надо искать в алгоритмах обучения все знания мира. Программист может не знать, как вообще играть в го (и не разбираться в живописи), и список критериев может быть простой — выиграть (разве что программу подсчёта очков придется "подарить" нейросети). И больше никаких абстракций и критериев ему прописывать не нужно.

Вы же понимаете, что вот эту логику должен запрограммировать человек, который делает соответствующую нейросеть?
Эта логика исходит из самого понятия стиля в приложении к изобразительному искусству, мы не программируем отдельно каждый стиль.

Да нет, конечно. Не задаёт он стиль и не выделяет, во всяком случае сам.

Зачем так настаивать на чем-то ошибочном? Вы пройдите любой курс по программированию нейросетей ради интереса. Что бы не из пересказов третьих лиц узнавать.


Так-то способность к построению абстракций — это благодаря чему нейросети вообще работают. Утверждать, что это я в них закладываю (наверное ещё и алгоритм пишу, как отличить кружок от палочки) — это что-то странное.

Зачем так настаивать на чем-то ошибочном? Вы пройдите любой курс по программированию нейросетей ради интереса

Именно это я и птаюсь сказать практически в каждом моём сообщении в данром треде, спасибо. После прохождения курса по нейросетям отсутствие у них интеллекта абсолютно очевидно для меня.

Если очевидно — то окей, вопросов нет. Только не стоит утверждать, что я, разрабатывая нейросеть, задаю ей правила извлечения геометрии или абстракции, позволяющие отличать лапу от хвоста. Очень уж странно звучит. Честно-честно, не задаю. Целевую функцию — задаю. А абстракции — нет, не прописываю.

Это смотря что интеллектом считать. Если это просто некая абстрактная «магия, очень черная», то в нейросетях ее действительно нет — там (в самом простом варианте) просто композиция логистических регрессий, оптимизируемая каким-нибудь градиентным методом. Но ведь и принципы работы человеческого мозга рано или поздно будут поняты, и магии и в нем не останется.

Ну тут весь тред, по-сути, из-за разницы в понимании термина "интеллект".


Моё понимание вполне укладывается в цитату из Вики:


качество психики, состоящее из способности приспосабливаться к новым ситуациям, способности к обучению и запоминанию на основе опыта, пониманию и применению абстрактных концепций и использованию своих знаний для управления окружающей средой

Нейросети не умеют самостоятельно приспосабливаться к новым ситуациям, понимать и применять абстрактные концепции. С натяжкой можно согласиться с последним пунктом – "использование знаний для управления окружающей средой", но и то лишь опосредовано, через интерфейсы разработанные и подготовленные человеком.


Далее:


Общая способность к познанию и решению трудностей, которая объединяет все познавательные способности человека: ощущение, восприятие, память, представление, мышление, воображение.

Видно, что к нейросетям применимы лишь отдельные пункты, не более того. Нейросеть можно назвать "интеллектуальной системой", но нельзя "системой, обладающей интеллектом".

Нейросети не умеют самостоятельно приспосабливаться к новым ситуациям
Есть классы алгоритмов машинного обучения, которые умеют самостоятельно приспосабливаться к новым ситуациям, как я уже писал ниже про reinforcement learning и transfer learning.
применять абстрактные концепции
Когда word2vec, немного помедитировав над неразмеченным набором текстов, делает вывод, что «king относится к man так же, как queen относится к woman» — это применение абстрактной концепции? На мой взгляд, да.

Может, я как-то не так понял определение интеллекта, которое вы используете? Или вы не согласны с тем, что существующие алгоритмы машинного обучения умеют (пусть и не идеально) делать обе эти вещи?
reinforcement learning и transfer learning.

Как я уже писал выше, это вообще не имеет никакого отношения к "умеет самостоятельно приспосабливаться к новым ситуациям".


Вообще, не вижу смысла продолжать. Просто попробуйте сами сделать простейшую нейросеть с нуля – и всё станет ясно. Или, хотя бы, почитайте какие-нибудь статьи про это...

Кхм, так я этим на жизнь зарабатываю как бы.

Что ж, если захотите продолжить дискуссию — я к вашим услугам.
Согласен с тем, что обыватели видят в нейросетях сильно больше, чем они на самом деле представляют из себя. Мне кажется, слово «нейросеть» сильно сбивает с толку, правильнее бы было этот метод называть как–нибудь типа «метод статистических матриц», «аккумулятор статистики», «метод массового взаимодействия агентов» (для карт Кохонена, например) и т.п., чтобы не возникало лишних ложных проекций биологии на математику. Особенно это выпирает в названиях архитектур нейросетей типа «нейронный газ». Математические нейроны моделируют биологические нейроны примерно в той же мере, в которой решёточные уравнений Больцмана моделируют молекулы жидкости (т.е., в обоих случаях речь идёт о системе уравнений, кодирующей «чёрный ящик», а не точной поэлементной модели физического/биологического явления). Но, конечно, терминология уже такая, какая есть.

Магия видится тем, кто использует стандартные архитектуры нейросетей для типовых задач, не особо вникая в математику того, почему это работает. Но на самом–самом деле никакой магии нет, нейросети представляют собой заранее проектируемые людьми модели решения задачи с алгоритмом подбора параметров этой модели через прогон по набору эталонных данных. Магичность, возможно, уместна в интерпретации конкретного решения нейросетью конкретного набора входных данных, но принцип обучения и формирования этой магичности таки заранее спроектирован, а не на божьей благодати работает («вот ещё больше транзисторов затолкаем в чип, и возникнет сознание!»).
самом деле никакой магии нет

Конечно нет. Это так же верно и для естественного интеллекта — в нем тоже никакой магии нет, к сожалению.

Он не сможет приспособиться к новым ситуациям, только к тем, которые заложены
Нет. Более того, ситуация, когда какой-то алгоритм обучается с нуля на конкретной задаче и дальше именно на ней и работает — редкость в современном машинном обучении. Гуглите «reinforcement learning» и «transfer learning».

А можно без "гуглите"? Просто киньте ссылку на какой-нибудь один конкретный пример. Я-то нагуглю что-нибудь, а вы потом скажете, что вы не то имели в виду.

ОК.
1. Transfer learning — это когда берется алгоритм машинного обучения, уже обученный на какой-то задаче, и дообучается для решения другой задачи. По сравнению с методом «обучить с нуля», у transfer learning есть два больших преимущества: во-первых, обучение большой нейросети — занятие вычислительно дорогое (вон в примере из статьи было использовано 500 GPU NVidia P100 в течение 4 дней — по грубой оценке, обучение этого на 1 типичном CPU заняло бы порядка 100'000 дней), а transfer learning позволяет на порядок-два сократить количество требуемых вычислений. Во-вторых, бывает такое, что размеченных данных в целевой задаче недостаточно для качественного обучения, а transfer learning позволяет перенести часть закономерностей из задачи-донора. Например, это бывает очень полезно в задачах, связанных с распознаванием изображений: если у вас есть всего несколько тысяч картинок, будет довольно сложно построить качественную глубокую модель, но если взять нейросеть, обученную на каком-нибудь ImageNet, то ее первые слои, скорее всего, уже научились детектировать какие-нибудь полезные паттерны (углы там всякие, кривые и тд), поэтому использование результата обучения на ImageNet в качестве инициализации весов позволит перенести эти паттерны из одной задачи в другую, повышая качество.
Transfer learning, например, применялся в приложении hotdog-not hotdog. Для классификации изображений на два класса «хот дог»/«не хот дог» (в этой задаче было всего несколько тысяч размеченных изображений) была взята модель, обученная на базе ImageNet (14'197'122 изображений, 21'841 классов, класса «хот дог» нет), и дообучена на имеющейся выборке.
По сути, получается, что мы переносим знания из решения одной задачи в решение другой, в чем-то похожей, задачи, благодаря чему можем выучить вторую задачу быстрее и лучше. Точно так же и рабочий, изучая второй станок, тратит меньше времени, чем на изучение первого.

2. Reinforcement learning — это когда у алгоритма машинного обучения не выделяется две отдельных фазы «обучение» и «работа», а, вместо этого, в ответ на принятые решения алгоритм получает оценку по шкале «хорошо-плохо». Таким образом, процесс обучения становится непрерывным, и, если задача была несколько изменена в процессе построения решения, будущие итерации алгоритма смогут это учесть и адаптироваться, точно так же, как, например, трейдер на фондовой бирже учится предсказывать цены в процессе торгов, не останавливаясь на пару часов на «систематизировать все знания». Например, такой подход использовался Google в системе Alpha Go, которая решала задачу «играть в Go лучше, чем любой человек».

Когда человек видит какую-то новую для него задачу, он, во-первых, использует знания, накопленные в течение всей прошлой жизни («наверное, нажать на большую красную кнопку на неизвестном станке — не лучшая идея») (очень похоже на transfer learning), а во-вторых, как правило, в процессе работы оценивает промежуточные результаты («заготовка какая-то кривая выходит») (очень похоже на reinforcement learning) и пытается улучшить конечный результат. И даже несмотря на все это, ему, как правило, все же требуется несколько попыток для достижения приемлемого уровня качества («первый блин комом») (ну так и алгоритмам машинного обучения требуются итерации для сходимости). Так что я не вижу принципиальной разницы между человеком и существующими на сегодняшний день методами машинного обучения в плане адаптируемости к изменяющимся внешним условиям. По количеству итераций — да, по сложности решаемых задач — безусловно. Но не по адаптируемости.
Так что я не вижу принципиальной разницы

Разница в степени абстрагирования задачи. В нейросетях пока, по сути, «статистическое» обобщение, тогда как у человека это обобщение примерно соответствуют уровню интуиции, а сознательное («лингвистическое»/логическое) обобщение, на уровне которого происходит дедукция, индукция, анализ, синтез, объективизация и передача знаний, пока системам ИИ недоступно. По сути, когда ИИ научится говорить с людьми о том, как он решает задачи, тогда и начнётся эра strong AI.

И «топология» речевой сигнальной системы, похоже, невыводима из корпуса текстов известными на текущий момент методами машинного обучения, т.к. требует для её усвоения уже существующую в архитектуре нейросети модель универсальной грамматики (которая человеку в виде самонастраивающегося в культурной среде за 5-10 лет механизма дана с рождения, обусловлена генетически). Пока существуют только теоретические наработки о том, как эта грамматика выводима (в основном, всё сводится к эволюционному моделированию), но практических решений всё ещё нет (и даже нет обоснованных количественных оценок необходимых и достаточных вычислительных ресурсов для такого моделирования).
Разница в степени абстрагирования задачи
Полностью согласен. Человек пока что умеет решать быстрее и энергоэффективнее менее четко определенные задачи, основываясь на меньшей обучающей выборке. Но алгоритмы машинного обучения постепенно улучшаются в этом направлении.
Боюсь, что алгоритмы машинного обучения ещё даже и близко не встали на этап количественного (постепенного) приближения к искусственному разуму, тема strong AI или AGI пока ещё находится на уровне качественных философских обобщений и очень локальных (и пока совершенно бесполезных в прикладном значении) моделей отдельных аспектов психики, эволюции речи, социальных коммуникаций и всех остальных аспектов становления человеческого сознания. Плавно прийти из нейросетей (или из теории фреймов, или функционального исчисления, или из ещё какой абстрактной теории «предельной» функции мышления), наращивая количественные показатели, увы, не получится, Скайнет родится скорее всего как результат мощного теоретического обобщения, схожего по «крышесносности» и несовместимости со старыми представлениями физических законов с ТО или квантмехом.
Да, пока нам еще далеко, и согласен, что, судя по всему, наращивая лишь вычислительные мощности, не удастся обогнать человека. Но ведь и алгоритмы тоже улучшаются. И с каждым годом решаются все более и более абстрактные задачи.
Я прекрасно помню, как еще несколько лет назад на вопрос отца о программе для диктовки текста отвечал, что таких вообще не существует и непонятно, когда появятся. А сейчас такие в каждом телефоне.

А как это опровергает мои слова? Первый пункт: нейросеть не сможет сама переключиться с детектирования котеек на детектирование собак, если программист такое не заложит.
Второй пункт: вообще не имеет отношения к моим аргументам, т.к. алгоритм всё равно будет учиться делать ту задачу, на которую его запрограммировали. И даже то, как именно он учится – и то заложено изначально.

нейросеть не сможет сама переключиться с детектирования котеек на детектирование собак, если программист такое не заложит.
А человек, который никогда в жизни не видел собак, сможет на картинке найти собаку без объяснения и примеров? Человеку в этой задаче нужно немного переобучиться, равно как и нейросети.
алгоритм всё равно будет учиться делать ту задачу, на которую его запрограммировали
При использовании reinforcement learning алгоритм может обучаться в процессе работы, видя обратную связь. Например, при торговле на бирже стараться максимизировать прибыль. Торговать в плюс в 2008 году и в 2017 — две совершенно разные задачи.
У человека как понимаю несколько другой подход — он строит «дерево» распознавания на котором все кончики веток (и часть точек ветвления) имеют отличный от других результат. Т.е. распознавание многоуровневое
Например «животное-четвероногое-гавкает-собака»
Т.е. он может не знать что это собака — но знать набор обобщающих признаков. И потом просто «приклеить» им конкретное название.
А нейросеть затачивают на опознавание конкретного образа, всё что не попало одинаково фон.
А нейросеть затачивают на опознавание конкретного образа, всё что не попало одинаково фон
Обычно — да, но не всегда. Есть, например, word2vec, который читает множество текстов (вспомним, что слова естественного языка для необученного алгоритма ничего не значат), и, исходя из паттернов встречаемости отдельных слов ставит каждому слову в соответствие вектор чисел таким образом, что синонимы получают близкие друг к другу вектора, а антонимы — далекие. И у такой модели слово «собака» вполне может получить высокое значение признака «животное» (ну или какого-нибудь другого признака, который ей покажется релевантным).

Честно говоря, на сегодняшний день я не вижу ни одной особенности человеческого мышления, которая не была бы присуща какому-нибудь алгоритму машинного обучения. Да, человек отличается тем, что объединяет сразу все эти черты, в то время, как алгоритмы машинного обучения обычно используют лишь часть. Да, человек быстрее, энергоэффективнее и требует меньшей обучающей выборки, умеет решать более сложные и менее четкие задачи, а качество переноса знаний из одной задачи в другую похожую просто великолепно, но каких-то принципиально недостижимых для машинного обучения черт не видно.
ну да — собственно нынешние разработки ИИ это во многом (если не вообще все) перенос наработанного биологической эволюцией на другое «железо».
И кстати, векторизация мозгом активно используется.
А человек, который никогда в жизни не видел собак...

Послушайте, человек когда-то действительно увидел собаку впервые в жизни (и в истории). Десятки тысяч (сотни тысяч? миллионы?) лет назад. И никаких проблем с определением того, собака ли это или нет, у него не возникло.


А вот нейросеть с задачей "искать котеек" хоть миллиард лет гоняй – она не начнёт собак детектить (ну разве что критерии "котейки" расширятся из-за ошибок в алгоритме).

человек когда-то действительно увидел собаку впервые в жизни (и в истории)
Уверен, в тот момент собака была классифицирована как нечто вроде «хищник средних размеров». Причем других представителей этого класса человек уже видел ранее.
Точно так же и с нейросетью — если обучить ее классифицировать сотню тысяч классов, среди которых «собак» нет, но есть «хищники», различающиеся размерами, то собаку она замечательно найдет.
в тот момент собака была классифицирована

а какая разница? позже-то выработался новый класс "собака", без каких-либо вмешательств "со стороны".


Впрочем, вас я могу отправить только к этому комментарию.

Ну так и алгоритмы машинного обучения могут новый класс выработать, например, кластеризацией.
я не вижу принципиальной разницы между человеком и существующими на сегодняшний день методами машинного обучения в плане адаптируемости к изменяющимся внешним условиям

Человек скажет что это смешная картинка, а нейросеть сможет это определить?
image
Если будет обучена на выявление смешных картинок — конечно, сможет. Человек этому всю жизнь учится.
Нейронную сеть на это обучить невозможно.
Потому что у смешного нет визуальных паттернов, с которыми нейросеть-персептрон могла бы сравнивать. Тут используется чувство юмора, которого нет у программ и его нельзя запрограммировать. Это совершенно иной принцип. Странно то, что вам это непонятно.
Сомневаюсь, что прямо нет визуальных паттернов. Человек же как-то определяет, что смешно, а что нет. Но согласен, что это будет сложнее, чем определить, кот на картинке или не кот.
Надо будет на досуге обучить и проверить.
Юмор рождается из нелогичных и нелепых ситуаций, ошибок и неловкого поведения других людей или животных. Чтобы получить подобное поведение, придётся сначала научить сеть понимать такого рода ситуации. Я не разделяю взглядов Вашего оппонента выше по ветке, но задача действительно сложная.
В том-то и фишка, что анализ «нелогично», «нелепо», «ошибка», «неловко» — невозможен без действительно интеллекта. Никакая нейросеть эмулируемая на компьютере на это не способна. Ведь нейросеть сможет лишь сделать статанализ пикселей изображений.
Никакая нейросеть эмулируемая на компьютере на это не способна
Да-да, неспособна потому, что не может никогда. Избавьте меня от своего брюзжания, пожалуйста.
Брюзжания?! Это всего лишь констатация принципа работы компьютерных моделей нейронных сетей.
Сходите, что ли, в википедию, почитайте про нейросети, как они работают.
С математической точки зрения, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации.

Интеллектом тут и не пахнет.
Сходите, что ли, в википедию, почитайте про нейросети
Сразу видно эксперта, знания которого заканчиваются на википедии.
С математической точки зрения, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации.
Интеллектом тут и не пахнет.
А как второе следует из первого?
Нейросетям доступен лишь уровень обобщения. А для интеллекта нужен уровень абстракции. Вы никогда не сможете обобщить юмор, расставить весовые коэффициенты пикселям на картинке, «отвечающим» за юмористичность. Потому что юмор не в цвете кодируется, или позиции пикселей — то, что может анализировать нейросеть — а в абстрактных понятиях, которые математически невыразимы. Именно в этом и заключается проблема искусственных нейронных сетей: они лишь способны отличить объект А от Б, В от Г. Когда вы попытаетесь построить нейронную сеть, распознающую одновременно А, Б, В, Г, Д и Е — вы обнаружите, что сложность сети возрастает до чудовищных значений, а точность падает. Посмотрите например на картинку в самом начале статьи: результат распознавания содержит всего два конечных результата: либо человек, либо кайт. Ничего другого эта сеть распознать не может.
Когда вы попытаетесь построить нейронную сеть, распознающую одновременно А, Б, В, Г, Д и Е — вы обнаружите, что сложность сети возрастает до чудовищных значений, а точность падает
Да, сложность возрастает, а точность падает, но не до чудовищных значений. В ILSVRC2017 была задача детектирования объектов из 200 категорий, и она была решена с точностью классификации 97.75%. И заметьте, что здесь требовалось не только определить тип объекта, но и найти его позицию на снимке (как в фото в начале статьи), без поиска позиции результаты, вероятно, были бы выше.
Потому что юмор не в цвете кодируется, или позиции пикселей — то, что может анализировать нейросеть — а в абстрактных понятиях, которые математически невыразимы
А юмор в картинке вообще есть? Потому что если есть, то по теореме Цыбенко достаточно большая хорошо обученная нейросеть его найдет. А вот если его там нет и он заключается в чем-то другом (скажем, в сегодняшней политической ситуации, информация о которой нейросети на вход не подается), то тот факт, что она его не найдет, не свидетельствует о недостаточной «интеллектуальности» сети. Человек тоже не сможет делать никаких выводов, если у него данных не будет.

Но я все же не понимаю, каким образом из того, что нейросеть обучается посредством решения задачи нелинейной оптимизции, следует то, что интеллекта в ней нет.
А юмор в картинке вообще есть?

А вы из тех людей которые не обладают чувством юмора?
Если нет, то троллинг неудачен. Если да — сочувствую. Наличие интеллекта не означает возможность распознания юмора, увы. Ведь это разновидность творчества, а творческие способности у всех разные, вплоть до нуля в отдельных категориях творчества. И да, как я уже говорил, юмор не поддаётся математическому описанию, поэтому теорема Цыбенко к нему не применима. Попробуйте, например, создать нейросеть, отличающую анекдоты от коротких не смешных историй. Или чёрный юмор отличающую от белого (более традиционного). Это просто невозможно в рамках традиционных искусственных нейронных сетей, вне зависимости от количества эмулируемых нейронов или связей между ними.
все же не понимаю, каким образом из того, что нейросеть обучается посредством решения задачи нелинейной оптимизции, следует то, что интеллекта в ней нет

Именно из-за отсутствия уровня абстракций, необходимых для творческих возможностей — индикатора интеллекта.
1. Если юмор заключается в картинке (под этим я понимаю тот факт, что информации в картинке достаточно для того, чтобы сделать вывод о том, смешная она или нет, по шкале от 0 до 1), то мы имеем функцию из множества всех картинок в множество [0, 1].
2. Рискну предположить, что эта функция непрерывна, поскольку малое изменение любого канала любого пикселя незаметно для человеческого глаза, и поэтому не должно сильно изменять значение функции.
3. Дальше применяем теорему Цибенко, поскольку ее условия выполнены.
4. Получаем, что можно создать нейросеть, которая будет определять, смешная ли картинка.

Насколько я понимаю, вы не согласны с утверждением #4. В то же время, на мой взгляд, все логические переходы достаточно очевидны, а утверждение #1, в случае, если оно неверно, не означает отсутствия интеллекта, а лишь говорит о том, что нейросеть получила недостаточно данных. Пожалуйста, укажите номер первого логического перехода, с которым вы не согласны.
Если юмор заключается в картинке

Юмор не заключается в картинке (в изображении), он заключается в психологическом феномене «смешное», не привязанном к отдельной части изображения или объекту (как правило бОльшую часть объектов можно удалить/добавить/изменить без изменения сути, понимаемой людьми под юмором). Мне очень странно объяснять это человеку.
Получаем, что можно создать нейросеть, которая будет определять, смешная ли картинка.

Вперёд и с песней заниматься бессмысленным делом.
Юмор не заключается в картинке (в изображении), он заключается в психологическом феномене «смешное», не привязанном к отдельной части изображения или объекту (как правило бОльшую часть объектов можно удалить/добавить/изменить без изменения сути, понимаемой людьми под юмором).
Не понял эту часть вашего сообщения. Какая разница, какую часть изображения можно поменять прежде чем флаг «смешно/не смешно» сменится на противоположный? В функции f(a, b, c, ..., z) = x тоже можно очень много переменных менять без изменения значения функции.
Человек может, не используя никаких других знаний, посмотрев на картинку, однозначно сказать, смешная она или нет? Если может — значит, есть функция из множества всех картинок в множество {смешно, не смешно}, если нет — глупо требовать этого от нейросети, не давая ей никакой информации, кроме этих самых картинок.
Мне очень странно объяснять это человеку.
У меня есть подозрение, что мы с вами говорим об одном и том же, но разными словами. В этом случае нужно уточнить, используем ли мы одинаковые определения, особенно не формальные, а «интуитивно понятные».
Какая разница, какую часть изображения можно поменять прежде чем флаг «смешно/не смешно» сменится на противоположный?

Не разница, а ключевая суть. Есть смешные картинки с текстом, где убрать текст — юмор пропадает. Скажете — юмор в тексте? Нет, есть картинки с юмором но без текста вообще (бессловесные).
Итак, у нас есть набор смешных и несмешных картинок, какие-то с текстом, какие-то без, какие-то рисованные, какие-то фотоколлажи, какие-то в стиле демотиватора (которые тоже бывают смешные, т.е. с юмором, и несмешные) и так далее.
Если вы утверждаете, что нет принципиальной проблемы научить нейросеть делить изображения на содержащие юмор и не содержащие, я запасаюсь попкорном, ожидая рассказа, как вы будете размечать (подготавливать) изображения и вообще, как вы видите обучение (с учителем/без или ещё как)?
Человек может, не используя никаких других знаний, посмотрев на картинку, однозначно сказать, смешная она или нет?

Давайте возьмём, например,
известную юмористическую картинку
image

Юмор, очевидно, заключается в запечатлённом процессе падения маляра, дописавшего окончание строки уже после падения, как немое восклицание из-за падения. Чувствую себя как объясняющего для дебилов :)
Юмор исчезает:
  • если убрать надпись
  • перевести её, скажем, на английский
  • заменить надпись чем-то другим типа «С наступающим празником!»
  • убрать упавшего маляра (или только падение) и надпись сделать без разрыва

и так далее. Я не представляю себе, как можно натренировать нейросеть на распознавание таких нюансов, которые доступны только настоящему интеллекту.
Вы не ответили на прямой вопрос, но, на мой взгляд, дух вашего комментария свидетельствует о том, что человек может по картинке, не используя никакой другой информации, определить, смешная ли она. А если это так, значит существует функция fun(image), ставящая каждой картинке в соответствие индекс юмора. Например, ее можно вычислить, показывая картинку человеку и спрашивая его, смешная ли она. Дальше применяем мое рассуждение выше и по теореме Цибенко получаем, что сделать нейросеть, которая будет делать то же самое, можно. Если вы не согласны с этим выводом, пожалуйста, укажите первое из 4 логически следующих друг из друга утверждений из моего комментария выше, которое вы считаете неверным.

Касательно того, что очень сложно сделать какой-то формальный критерий, относящий картинку к смешным или не смешным — ну так и классифицировать картинку на кошка/собака тоже ой как непросто, учитывая, что они могут быть самых разных цветов, пород, длины шерсти, включая полностью лысых и тд. Тем не менее, современные алгоритмы имеют качество такой классификации выше, чем человек.

Я не спорю с тем, что распознавание юмора — это сложная задача и не утверждаю, что сейчас можно обучить алгоритм, который сделает это так же хорошо, как человек. Но я утверждаю, что можно это сделать с качеством выше, чем у подбрасывания монетки, и качество будет постепенно расти с ростом вычислительных мощностей и развитием алгоритмов. Где-то в соседней ветке уже обещал кому-то проклассифицировать истории на анекдотичные и серьезные, давайте начнем с этой задачи.
существует функция fun(image), ставящая каждой картинке в соответствие индекс юмора.

1) Что это за индекс юмора вы придумали?
2) Юмор индивидуален, некоторые люди скажут что картинка не смешная, или даже обидная лично для них (например, насмешка над их профессией). Вы не сможете это выразить в виде какой либо функции.
классифицировать картинку на кошка/собака тоже ой как непросто, учитывая, что они могут быть самых разных цветов, пород, длины шерсти, включая полностью лысых и тд. Тем не менее, современные алгоритмы имеют качество такой классификации выше, чем человек

Хаха.
Покажите мне нейросеть, которая уверенно распознаёт лучше человека всех животных на таких картинках
image

качество будет постепенно расти с ростом вычислительных мощностей и развитием алгоритмов.

Неа, не будет, в среднем вы будете получать те самые 50% как от подбрасывания монетки. Потому что вы пытаетесь свести к алгоритмам высшую нервную деятельность, по определению чисто к ним не сводимую, хотя и базирующуюся на них.
Для распознавания юмора необходимо понимание юмора, а понять «что смешного в картинке» алгоритм без интеллекта не способен по определению.

Давайте, дерзайте если хотите терять время. Вы напоминаете изобретателей летательных аппаратов, пытающихся подражать природе — сооружаете машущие крыльями аппараты, которые могут только оторваться от земли на пару метров и пролететь с десяток метров, и заявляете что не видите существенной разницы у вашего монстра с птицами и свято верите, что нужно просто мощнее двигатель, больше крылья и чаще махать, и всё получится. Но история показала, что если хотите летать — не повторяйте за природой, а ищите свой вариант (как изобретение отсутствующего в природе воздушного винта и переход к неподвижному аэродинамическому крылу дало наконец возможность строить реально работающие летательные аппараты).
Потому что вы пытаетесь свести к алгоритмам высшую нервную деятельность, по определению чисто к ним не сводимую, хотя и базирующуюся на них

Таки почему нет? Я, конечно, могу ошибаться — но кажется, если мы (потенциально — это не значит, что это возможно с сколь-либо вообразимыми затратами) можем моделировать отдельные составляющие, то и вся ЦНС может быть смоделирована, нет?

Но таки скорее соглашусь с тем, что кроме изображения нам нужна дополнительная информация о мире (или выводимая из неё).
Таки почему нет?

Окааай. Берём например подборку «плакатов»-вариаций известного полотна «Ты записался добровольцем?».
Распишите мне алгоритм (в любом виде, любым способом), позволяющий определить, какие из плакатов смешные, какие нет.
А как мы перейдём от моей неспособности воплотить такую функцию к невозможности имитировать ЦНС математическими средствами — пусть и без всякой возможности реализовать такое моделирование на практике? :-)
Расскажите про математическую имитацию чувства юмора, ага.
Что это за индекс юмора вы придумали?
Я так назвал величину, которую человек выдает в ответ на вопрос «смешная ли это картинка?». Если вам не нравится термин, можете назвать ее как угодно.
Юмор индивидуален
И что? Ответы одного человека все равно будут однозначными, то есть, будут функцией. Значит, можно сделать нейросеть, которая ее приблизит с любой наперед заданной точностью.
Покажите мне нейросеть, которая уверенно распознаёт лучше человека всех животных на таких картинках
Для одной этой картинки я вам могу алгоритм в 10 строчек написать, который распознает точнее человека, даже нейросеть не нужна. И в любом случае, есть задачи, которые сейчас алгоритмы машинного обучения решать не умеют, а человек умеет. И есть задачи, которые, наоборот, человек решает хуже алгоритмов машинного обучения — например, распознавание номеров домов (см мои ссылки выше). Только вот постепенно задач первого типа становится все больше, а второго — все меньше. И я не вижу причин, почему бы в какой-нибудь момент времени в будущем задач первого типа не осталось совсем.
вы пытаетесь свести к алгоритмам высшую нервную деятельность, по определению чисто к ним не сводимую
А вот это — фундаментальный момент. Если вы меня в нем убедите, я соглашусь со всеми остальными вашими комментариями, потому что они из него следуют. Но на текущий момент мне не кажется, что высшая нервная деятельность несводима к алгоритмам. Как минимум, мы могли бы узнать параметры всех элементарных частиц в мозге человека, подставить их в теорию всего и симулировать.
Заметьте, что для того, чтобы интеллект был сводим к алгоритмам, достаточно возможности такой симуляции, а не ее реализации.

изобретателей летательных аппаратов, пытающихся подражать природе
Ну, во-первых, орнитоптеры известны уже более полувека и вполне себе летают, так что не вижу фундаментальных проблем с тем, чтобы создать ИИ посредством подражания человеческому.
А во-вторых, я не вижу, где вы подражание увидели-то. Нейроны ИНС имеют ровно одну общую черту с биологическими: название. И моя позиция как раз заключается в том, что можно изобрести алгоритм, совершенно не похожий на человека, который будет решать любую задачу так же хорошо, как человек, или лучше. И при этом даже современные алгоритмы машинного обучения уже обладают интеллектом в смысле того, что они удовлетворяют всем свойствам интеллекта (вроде той же адаптируемости). Не такому умному, как человеческий, но все же интеллекту.
Ответы одного человека все равно будут однозначными, то есть, будут функцией.

Нет, не будут. Скажем, юмор в некоторых картинках человек не поймёт, если не знаком с обыгрываемым элементом (например, не видел фильм, который пародируется). После ознакомления с таким элементом, ему станет понятным юмор в картинке и оценка изменится. А на следующий день он хорошо выспится, будет в хорошем настроении, и оценка юмора в той же картине снова изменится, и так далее. Так что не только каждый человек даст свою оценку (причём может даже диаметрально противоположную другому), но и один и тот же человек будет давать отличающиеся оценки со времени.
Для одной этой картинки я вам могу алгоритм в 10 строчек написать, который распознает точнее человека, даже нейросеть не нужна.

Ну давайте, пишите :) Пока вы даже на человеческом языке не сформулировали его.
Как минимум, мы могли бы узнать параметры всех элементарных частиц в мозге человека, подставить их в теорию всего и симулировать.

Из-за квантовых эффектов вы не получите результатов симуляции, в точности совпадающих с реальным человеком, вне зависимости от точности модели.
Ну, во-первых, орнитоптеры известны уже более полувека и вполне себе летают

Нет, не летают. Ни одного действующего настоящего пилотируемого орнитоптера не было создано. Те, что были созданы — либо использовали дополнительный механизм для запуска в полёт (катапульту, разгонный автомобиль и т.д.), либо на самом деле представляли собой замысловатый планер. проблема в том, что чем больше летательный аппарат — тем меньше подходит сама идея маховых крыльев для полёта. Например, андский кондор при весе в 11-15 кг вынужден иметь размах крыльев в 3 метра, чтобы летать. Странствующий альбатрос, при размахе крыльев до 3,5 метров, вообще не может взлететь в безветренную погоду. Дрофам с их рекордным для летающих животных весом до 20 кг полёт даётся очень тяжело, необходим разбег в восходящем потоке воздуха. Крупнейший из известных доисторических птиц, аргентавис, при весе сравнимом с человеком (порядка 70 кг) имел размах крыльев порядка 7-8 метров и предположительно скорее планировал, чем летал. Поэтому страусы — самые крупные современные птицы — не летают вообще :)
Нейроны ИНС имеют ровно одну общую черту с биологическими: название

Разумеется. По свей сути это две матрицы (таблицы): матрица весов и матрица влияния одних весов на другие. Называть это искусственным интеллектом само по себе, нельзя. ИИ может содержать нейронные сети как один из элементов, но 1) не обязательно; 2) далеко не факт что они будут ключевыми. Подобно тому, как калькулятору не нужна нейросеть, чтобы считать арифметику лучше человека.
даже современные алгоритмы машинного обучения уже обладают интеллектом в смысле того, что они удовлетворяют всем свойствам интеллекта

Очевидная чушь. Свойство интеллекта: способность играть в шахматы, переписываться в чатике на абстрактные темы, сочинять стихи и жонглировать спичечным коробком, и всё это одновременно. Так называемые системы искусственного интеллекта способны лишь что-то одно — то, для чего их построили. Они не способны сделать главное: научиться чему-то другому, изначально не заложенному, самостоятельно. Потому что это фактически лишь математические системы решения одной поставленной задачи.
Врываюсь в чужую ветку, но:

Из-за квантовых эффектов вы не получите результатов симуляции, в точности совпадающих с реальным человеком, вне зависимости от точности модели.

Полагаю, речь не о физической возможности их узнать, а о том, что зная их — мы бы могли просчитать их (вероятное?) дальнейшее взаимодействие.
В том-то и дело, что из-за случайности квантовых процессов, произойдёт быстрое накопление расхождений. Иными словами, вы создаёте «слепок» мозга, моделируете выбор между красной конфетой и синей, по модели получается что человек выберет синюю, проводите тест в реальности — а он выбирает красную.
«В том-то и дело, что из-за случайности квантовых процессов, произойдёт быстрое накопление расхождений»

Ну, то что эти системы придут в разное состояние — очевидно (даром что ли я указал — вероятное дальнейшее взаимодействие). Но мы здесь говорим о сведении ЦНС к алгоритмам, а не о копировании сознания :-)

Кажется — эта наша ЦНС получается (опять же — исключительно потенциально) представима как функция от её прошлого состояния и случайных чисел?

Впрочем, с квантовым ГСЧ мы уже не можем в детерминированность. Кажется, оно в самом деле не лезет в определение алгоритма, если я не ошибаюсь — а без него такая модель неполноценна.
Но мы здесь говорим о сведении ЦНС к алгоритмам

Алгоритмы на случайностях? Гыгы :)
С тем количеством различных факторов, которые влияют на наши решения…
Ну, что с детерминированностью придётся распрощаться — я таки понял и указал в комменте :-)
А это таки, соглашусь, не лезет в черты алгоритма (по крайней мере, если не говорить о вероятностных алгоритмах?)
После ознакомления с таким элементом, ему станет понятным юмор в картинке и оценка изменится
Ну и что?
ОК, давайте я еще подробнее опишу гипотетическую картину. Обладает ли один конкретно взятый человек без явных патологий интеллектом в конкретный момент времени? Я считаю, что да, если вы считаете иначе — напишите об этом.
Берем такого среднего Васю и даем ему сто рублей, чтобы он согласился посмотреть на картинку и честно сказать, насколько смешной он ее считает. После этого мы можем показать ему любую картинку, и он нам даст этот ответ. То есть, построена функция f(img) — функция в смысле «отображение», а не в смысле «формула». А дальше — теорема Цибенко.
Ну давайте, пишите :)
Наслаждайтесь
int main(void) {
    cout << "Bounding boxes of animals on the image:" << endl;
    cout << "Elephant: 27x75 - 318x480" << endl;
    cout << "Monkey: 174x365 - 261x435" << endl;
    cout << "Horse: 156x162 - 318x358" << endl;
    cout << "Dog: 230x179 - 318x287" << endl;
    cout << "Cat: 269x205 - 318x274" << endl;
    cout << "Mouse: 294x216 - 318x263" << endl;
    cout << "Total animals found: 6" << endl;
    return 0;
}

Из-за квантовых эффектов вы не получите результатов симуляции, в точности совпадающих с реальным человеком, вне зависимости от точности модели
Я получу результат, вероятностное распределение которого не отличается от вероятностного распределения ответов человека. В том числе, вероятность ошибки при ответе на любой вопрос будет ровно точно такой же, как и у этого человека. Этого недостаточно для того, чтобы признать такую машину имеющей интеллект?
Ну, во-первых, орнитоптеры известны уже более полувека и вполне себе летают
Нет, не летают
А пацаны-то и не знают.
Around 1960, Percival Spencer successfully flew a series of unmanned ornithopters using internal combustion engines ranging from 0.020-to-0.80-cubic-inch (0.33 to 13.11 cm3) displacement, and having wingspans up to 8 feet (2.4 m)
И даже аппараты на мускульной тяге человека вполне себе летают
Rousseau attempted his first human-muscle-powered flight with flapping wings in 1995. On 20 April 2006, at his 212th attempt, he succeeded in flying a distance of 64 metres
Источник
По свей сути это две матрицы (таблицы): матрица весов и матрица влияния одних весов на другие. Называть это искусственным интеллектом само по себе, нельзя.
Вторая фраза не следует из первой. Если по своему поведению перцептрон будет удовлетворять определению интеллекта — можно будет считать. И, кстати, алгоритмы машинного обучения — это совсем не только нейросети. И уж тем более не только перцептрон.
Свойство интеллекта: способность играть в шахматы, переписываться в чатике на абстрактные темы, сочинять стихи и жонглировать спичечным коробком, и всё это одновременно
Ура, наконец-то вы смогли дать хоть какое-то определение интеллекта! Правда, оно все еще недостаточно точное. Вы требуете играть в шахматы и делать все остальное «как-нибудь» или «хорошо»? Во втором случае, боюсь, большую часть человечества вы только что признали не имеющими интеллекта, а в первом — написание программы, которая воспроизводит одно и то же движение сервомоторами по кругу, пишет случайные грамматически согласованные слова и делает случайные движения шахматными фигурами в соответствии с правилами, не составляет труда.

Кроме того, хочу заметить, что ваше определение интеллекта существенно отличается от общепризнанного. Например, статья об интеллекте в Википедии не содержит слова «шахматы» вообще.
После этого мы можем показать ему любую картинку, и он нам даст этот ответ. То есть, построена функция f(img) — функция в смысле «отображение», а не в смысле «формула». А дальше — теорема Цибенко.

Построенная вами таким образом функция будет давать ответ, сравнимый с подбрасыванием монетки.
int main(void)

1) Это не функция, это процедура — у неё нет входных параметров (она ничего не обрабатывает).
2) Вы просто описали что находится на конкретной картинке, где же алгоритм?
А пацаны-то и не знают.

Вы невнимательны. «unmanned ornithopters» — непилотируемые устройства. Четырёхкилограмовые устройства летать махая крыльями могут, четырёхтонные — уже нет. Поэтому у орнитоптеров нет практического применения, это чисто хобби или миниатюрные устройства.
Если по своему поведению перцептрон будет удовлетворять определению интеллекта — можно будет считать

Дык не удовлетворяет же.
Ура, наконец-то вы смогли дать хоть какое-то определение интеллекта!

Перечисление не есть определение.
Если вы уж заглянули в википедию, то должны были обратить внимание, что главным отличием интеллекта является наличие творческих способностей.
написание программы, которая воспроизводит одно и то же движение сервомоторами по кругу, пишет случайные грамматически согласованные слова и делает случайные движения шахматными фигурами в соответствии с правилами, не составляет труда

Ничего подобного. Вы напишите четыре разных программы. И разумеется, в отличие от настоящего интеллекта, вам её придётся дописывать, если нужно будет ещё и с выражением зачитывать свежие анекдоты.
Построенная вами таким образом функция будет давать ответ, сравнимый с подбрасыванием монетки.
Построенная мной таким образом функция даст точно такой же ответ, как и тот Вася, на основе которого она построена. Если Вася умеет определять юмор на картинке (а выше вы писали, что любой интеллект умеет), то и функция тоже сможет.
у неё нет входных параметров
Входные данные подаются на stdin, а результат выдается на stdout.
Вы просто описали что находится на конкретной картинке, где же алгоритм?
Этот алгоритм выдает одинаковый ответ вне зависимости от входных данных. Заметим, что на выборке из одного изображения (того, что вы привели выше) он работает точнее, чем любой человек — ибо человек не будет вглядываться и пиксели считать.
Вы невнимательны. «unmanned ornithopters» — непилотируемые устройства.
Или вы? Я изначально писал о том, что орнитоптеры летают, а не о том, что они повсеместно используются для пилотируемых полетов. Тем не менее, вторая цитата из моего предыдущего комментария — про пилотируемый полет, более того, на мускульной тяге человека. Вот, если хотите, еще одна цитата оттуда же, про пилотируемый полет с двигателем:
In 1968, Adalbert Schmid made a much longer flight of a human-powered ornithopter at Munich-Laim. It travelled a distance of 900 metres, maintaining a height of 20 metres throughout most of the flight. Later this same aircraft was fitted with a 3 hp (2.2 kW) Sachs motorcycle engine. With the engine, it made flights up to 15 minutes in duration.
15 минут в воздухе — достаточно для того, чтобы вы согласились, что они летают?
Дык не удовлетворяет же.
Для того определения, которое использую я, вполне можно сконструировать алгоритм машинного обучения, который будет удовлетворять. Именно поэтому и я прошу вас дать ваше определение.
Вы напишите четыре разных программы
И кто мне помешает объединить их в одной, в разных потоках?

в отличие от настоящего интеллекта, вам её придётся дописывать
У «настоящего интеллекта» с каждым вашим комментарием появляется все больше и больше свойств. А давайте вы дадите строгое определение, и дальше мы уже разберемся, можно сделать ИИ или нельзя? Например, если ваше определение «интеллект — это то, чем обладает человек и только человек», то тут все ясно и я с вами соглашусь, интеллектуальную программу сделать нельзя.
Если Вася умеет определять юмор на картинке (а выше вы писали, что любой интеллект умеет), то и функция тоже сможет.

Докажите. Пока это голословное утверждение, противоречащие наблюдаемым фактам. Докажите (построите соответствующую систему) — получите нобелевку.
И кто мне помешает объединить их в одной, в разных потоках?

Помешает то, что ИИ не ИИ, если для каждой новой задачи вы его переписываете.
У «настоящего интеллекта» с каждым вашим комментарием появляется все больше и больше свойств.

Но сам он не меняется. Это очевидный, наблюдаемый факт.
Докажите. Пока это голословное утверждение, противоречащие наблюдаемым фактам.
Доказать, что система, состоящая из Васи, которому дали сто рублей и попросили честно отвечать на вопрос о том, смешная ли картинка, и экрана, на котором ему показывается эта самая картинка, так же хорошо может определить юмор, как и просто Вася (который интеллектом, по вашим же словам, обладает)? А чего тут доказывать, это, по сути, одна и та же система.
Помешает то, что ИИ не ИИ, если для каждой новой задачи вы его переписываете.
Строго говоря, тот факт, что что-то является или не является ИИ, никак не мешает мне объединить 4 программы в одной в разных потоках.
У «настоящего интеллекта» с каждым вашим комментарием появляется все больше и больше свойств.
Но сам он не меняется. Это очевидный, наблюдаемый факт.
Демагогия. Дайте мне определение того, что вы называете интеллектом.
А чего тут доказывать, это, по сути, одна и та же система.

Если мы даём разные данные — мы получаем разные результаты, так что вы обманываете, заявляя что это одна и та же система.
Вася: «что на этой картике?» "- Слон".
«ИИ»: «что на этой картинке?» "- Слон".
На основе этого вы делаете «вывод» что это системы с одинаковыми возможностями, несмотря на то, что
Вася: «а на этой картинке что?» "- Аквалангист".
«ИИ»: «а на этой картинке что?» "- Слон".
Строго говоря, тот факт, что что-то является или не является ИИ, никак не мешает мне объединить 4 программы в одной в разных потоках.

«Строго говоря», от того что вы называете программу ИИ, она им не становится.
Демагогия

Это когда вы программу, выводящую список захардкоженных строк, называете распознающей животных.
Дайте мне определение того, что вы называете интеллектом.

Нате вам вырезку из википедии:
Интеллект как способность обычно реализуется при помощи других способностей. Таких как: способности познавать, обучаться, мыслить логически, систематизировать информацию путём её анализа, определять её применимость (классифицировать), находить в ней связи, закономерности и отличия, ассоциировать её с подобной и т. д. О наличии интеллекта можно говорить при совокупности всех этих способностей, в отдельности каждая из них не формирует интеллект. Интеллектом может обладать система, составляющие элементы которой каждый в отдельности интеллектом не обладают.

Разъясняю: персептрон, уверенно распознающий слона на картинке, интеллектом не обладает, хотя сама способность распознавания слонов является способностью интеллекта. Пока вы это не осознаете, продолжать с вами этот трёп смысла не вижу.
Вася: «а на этой картинке что?» "- Аквалангист".
«ИИ»: «а на этой картинке что?» "- Слон".
Мы точно про одинаковую систему говорим? Позволю себе напомнить вам свои слова:
Берем такого среднего Васю и даем ему сто рублей, чтобы он согласился посмотреть на картинку и честно сказать, насколько смешной он ее считает.
То есть, когда мы показываем «системе» вторую картинку, она ее захватывает, показывает Васе, спрашивает его ответ и без изменений передает наружу. Если Вася говорит «слон», система не может ответить «аквалангист».
персептрон, уверенно распознающий слона на картинке, интеллектом не обладает
Полностью согласен. И никогда не утверждал обратного.

Ура, наконец-то вы мне дали определение интеллекта, с которым вы согласны, теперь с этим можно работать!
А теперь по пунктам:
способности познавать
Не уверен, что понимаю, что это такое, точно таким же образом, как и вы. Дайте определение.
обучаться
Обычный перцептрон это умеет.
мыслить логически
Системы автоматического доказательства теорем, вроде Coq, это умеют.
систематизировать информацию путём её анализа
Я понимаю это в точности как «классификация информации и поиск в ней закономерностей», так что, на мой взгляд, это избыточный элемент. Если вы понимаете этот пункт иначе — напишите об этом.
определять её применимость (классифицировать)
Слово «классифицировать» имеет два различных бытовых значения: во-первых, отнести новый объект к одному из уже известных классов, а во-вторых, разделить множество объектов на классы похожих. Первое делается тем же перцептроном, а второе — k-means.
находить в ней связи, закономерности и отличия, ассоциировать её с подобной
Любой метод кластеризации делает это.

То есть, программа, которая в одном потоке классифицирует изображения на «хот-дог» и «не хот-дог», во втором — с использованием Coq доказывает корректность интегральной схемы, в третьем — кластеризует отрезки данных биржевых торгов иерархическим методом с использованием DTW в качестве метрики близости, будет удовлетворять всем свойствам интеллекта, за исключением тех, которые вы, я надеюсь, уточните.
Мы точно про одинаковую систему говорим? Позволю себе напомнить вам свои слова:

Я про вот эти ваши слова:
Для одной этой картинки я вам могу алгоритм в 10 строчек написать, который распознает точнее человека, даже нейросеть не нужна.

Вы сами назвали этот хардкодинг «распознаванием».
Не уверен, что понимаю, что это такое, точно таким же образом, как и вы. Дайте определение.

Познание
Обычный перцептрон это умеет.

Под «обучаться» апологеты ИИ понимают «накапливать статистику (весовые коэффициенты)», в то время как истинное значение обучение — накопление опыта. Изначально недоступное искусственным сетям свойство.
Системы автоматического доказательства теорем, вроде Coq, это умеют.

Неа. После полной автоматизации доказательство называют уже вычислением. К мышлению не относится, чистая математика.
Любой метод кластеризации делает это.

Задача кластеризации относится к статистической обработке. Подразумевается, что имеет смысл кластеризовать только количественные данные. Качественные характеристики вы статистикой (нейросетями) не «осилите». Тот же юмор например. Его статистикой не вычислить.
Я про вот эти ваши слова:
Что ж, значит, имело место недопонимание. Я ни в коем случае не имел в виду, что тот алгоритм в 10 строчек обладает интеллектом. Он, например, к обучению не способен.
Вы сами назвали этот хардкодинг «распознаванием».
В то же время, распознаванием он является: в ответ на вход (картинка) выдаются координаты объектов и их классы. И на указанной вами выборке из 1 объекта точность детектирования идеальна, недостижима для человека. Внутреннее устройство алгоритма не имеет никакого отношения к тому, занимается ли он распознаванием — я могу завтра его в ящик запихнуть, «филипс» написать и лампочки мигающие приделать.
Познание
По вашей ссылке:
Позна́ние — совокупность процессов, процедур и методов приобретения знаний
Зна́ние — результат процесса познавательной деятельности
Рекурсия, однако. Дайте другое определение, без рекурсии.
Под «обучаться» апологеты ИИ понимают «накапливать статистику (весовые коэффициенты)», в то время как истинное значение обучение — накопление опыта. Изначально недоступное искусственным сетям свойство.
Не знаю насчет «апологетов ИИ», я под «обучаться» понимаю «после получения новых данных или по прошествии времени начинать решать поставленную задачу лучше». На мой взгляд, это определение синонимично вашему «накопление опыта», но более точно (если вы считаете его не синонимичным, пожалуйста, укажите на отличия). И перцептрон, очевидно, этим свойством обладает — если мы дадим больше изображений или больше итераций для обучения классификации, качество вырастет.
После полной автоматизации доказательство называют уже вычислением.
То есть, одни и те же действия (выписывание последовательности формальных высказываний с проверкой логической связи между ними) в случае человека вы считаете мышлением, а в случае компьютера — вычислением? В таком случае — полностью согласен, создать ИИ в принципе невозможно. Просто потому, что ничего, кроме человеческих действий, вы не называете интеллектом. Даже систему, которая делает в точности то же самое, что и человек. Кстати, интересно, а гипотетическая система, физически симулирующая мозг человека на уровне Стандартной Модели, по-вашему, будет интеллектом?
Качественные характеристики вы статистикой (нейросетями) не «осилите»
Почему это не осилю? One-hot encoding есть. В конце концов, иерархические методы кластеризации вообще требуют лишь метрику расстояния между объектами, им не важно представление объектов.
Тем не менее, это к делу не относится. Кластеризация, отнеся каждый объект к какому-то кластеру, нашла
связи, закономерности и отличия
Так что чисто формально эти пункты выполнены.
Для того определения, которое использую я, вполне можно сконструировать алгоритм машинного обучения, который будет удовлетворять. Именно поэтому и я прошу вас дать ваше определение.

Для начала, давайте определимся с вашей позицией в вопросе:
  • теория сильного искусственного интеллекта предполагает, что компьютеры могут приобрести способность мыслить и осознавать себя, хотя и не обязательно их мыслительный процесс будет подобен человеческому.
  • теория слабого искусственного интеллекта отвергает такую возможность.

Вы в каком лагере? Если в первом — то должны признавать, что способности мыслить нет ни у одной существующей системы, называемой ИИ. Если во втором — автоматически признаёте, что такие системы вообще невозможны.
Я обычно использую следующие определения:
Интеллектуальная система — любая система, обладающая следующими свойствами:
  • Способность к обучению — умение научиться отвечать на вопрос после изучения некоторого количества пар «исходные данные — верный ответ». Причем, что важно, ответ для пар, которых не было в обучающей выборке, должен быть существенно лучше слепого угадывания, а задача может быть неизвестна создателю (если таковой существует) в момент создания системы.
  • Способность к абстрактному мышлению — умение отвечать на вопросы, содержащие в себе понятия, не соответствующие никаким объектам реального мира, или использовать такие понятия в качестве части ответа на вопрос.
  • Способность к поиску закономерностей — умение выделить категории похожих друг на друга объектов, а также умение найти короткое и простое представление, достаточно точно описывающее большинство объектов из какого-либо множества.
  • Способность к адаптации — система не должна быть «заточена» под одну задачу. В случае смены задачи система должна выдавать достаточно качественные ответы на вопросы новой задачи. При этом допустимо падение качества работы на некоторое время для сбора обратной связи от внешней среды(«переподготовка на основе собственного опыта») или временная остановка работы системы для переобучения (в этом случае, такое переобучение должно быть существенно быстрее обучения новой такой же системы для новой задачи с нуля, и требовать существенно меньший объем тренировочной выборки).

Слабый искусственный интеллект (ANI) — система, способная выполнять какую-нибудь одну задачу, не связанную с физической силой, не хуже большинства людей.
Искусственный интеллект человеческого уровня (AGI) — система, способная выполнять любую задачу не хуже большинства людей.
Сильный искусственный интеллект (ASI) — система, способная выполнять любую задачу гораздо лучше любого человека.

Очевидно, что человек удовлетворяет такому определению интеллектуальной системы. Кроме того, для каждого свойства интеллекта легко привести пример алгоритма машинного обучения, который им обладает (пусть и в меньшей количественной степени, чем человек, то есть, требуя большей обучающей выборки, большего времени для работы, электроэнергии, при этом выдавая несколько меньшее качество работы, меньшую широту адаптации, и тд): для обучаемости это, например, линейная регрессия, для абстрактного мышления — word2vec, для поиска закономерностей — кластеризация k-means, тот же самый word2vec и метод главных компонент, для способности к адаптации — transfer learning методы для нейронных сетей и Q-learning. При этом в подавляющем дольшинстве случаев нет никакой необходимости в построении системы, удовлетворяющей всем свойствам одновременно.
Переводчик, строящий представления двух языков, с которыми он работает, с помощью word2vec, а затем находящий соответствия между словами и фразами этой пары языков (насколько я понимаю, так работает Google translator, но не берусь утверждать наверняка), может удовлетворять сразу всем свойствам, то есть, быть в моем понимании интеллектуальной системой.

Определению ANI удовлетворяет, например, калькулятор, а системы, удовлетворяющие определениям AGI и, тем более, ASI, на сегодняшний день не существуют.
В то же время, я вижу закономерность, заключающуюся в том, что задачи, решаемые с помощью ANI, становятся с течением времени все более абстрактными и менее четко определенными, а также решаются все лучше и с использованием все меньших ресурсов. Я думаю, что такое эволюционное развитие может когда-нибудь привести к тому, что будет создана система человеческого уровня.

Вот моя позиция. Касательно приведенных вами лагерей, эта позиция близка к первому лагерю, за тем исключением, что я не считаю умение осознавать себя конструктивным, а понятие «мыслить» считаю синонимичным фразе «быть интеллектуальной системой человеческого уровня» в смысле определения из начала этого комментария.
Кстати, заметьте, что, в соответствии с теми определениями, которые я использую, из факта того, что существующие на сегодняшний день технологии не позволяют решить какую-то задачу на уровне человека (или даже вообще на любом уровне, лучшем случайного угадывания) никак не следует, что интеллектуальных систем не существует.
Определению ANI удовлетворяет, например, калькулятор

Не удовлетворяет, потому что вы неправильно понимаете определение. ИИ должен выполнять интеллектуальные функции, математические ими не являются. Изначально не обладающий математическими функциями человек может выполнять их с помощью своих интеллектуальных возможностей. Обратное — выполнение интеллектуальных функций математическими — невозможно, можно лишь имитировать их в узком классе задач.
Определению ANI удовлетворяет, например, калькулятор
Не удовлетворяет, потому что вы неправильно понимаете определение
Напоминаю, мой предыдущий комментарий начинался со слов
Я обычно использую следующие определения:
Думаю, мне виднее, какой смысл я вкладываю в какие слова, чем вам.
Под ваше определение «слабого ИИ» так же подходит стакан, так как он —
система, способная выполнять какую-нибудь одну задачу, не связанную с физической силой, не хуже большинства людей.

(удерживает воду лучше человека)
На мой взгляд, задача «удерживание воды» все же связана с физической силой.
Я не спорю с тем, что она сложна. Но мне кажется, что нормально обученная нейросеть уже сейчас должна работать существенно лучше подбрасывания монетки на такой задаче.
Даже с котами не всё так просто. Нейросети, которые рапортуют о «высоком проценте успешности распознавания котов и собак», ничего кроме статистического анализа, на что больше похожа картинка — на собаку или кота, делать не могут. То есть вы даёте им картинку, скажем, слона — и оно даст вам ответ вида «скорее кот чем собака».
Дадите такое изображение
image

— получите ответ «кот, вероятно». начнёте «тренировать» нейросеть ещё и на распознавание теней от собак/котов — у неё начнёт падать точность определения кот/собака из-за того, что вероятность будет делиться уже не между результатами кот/собака/другое, а кот/собака/тень_кота/тень_собаки/другое. Потому что это просто статанализ.
Не отнимайте у детей веру в рождение Скайнета, они всё равно не воспримут вашу аргументацию всерьёз :).
Не вижу тут какой-то проблемы. Человек умеет классифицировать изображения на больше классов, чем «кот» и «собака», что и дает ему возможность сказать «это не кот и не собака, а слон» в ответ на вопрос «кот это или собака?». Точно так же и нейросеть, обученная на ImageNet с их 22к классов, сможет сказать, что это не кот и не собака. Именно потому, что это статанализ.
Человек способен к абстракции: «это какашка в форме собаки». Нейросеть способна определить либо какашку, либо собаку, но не «какашка в форме собаки» — потому что иначе будут частые ложные срабатывания вида «какашка в форме собаки» в ответ на фото мужчины в меховой шапке.
Нет. Если сеть была обучена на распознавание нескольких классов, в числе которых были классы «собака» и «какашка» (а как мы знаем, 200 классов мы умеем распознавать с точностью 97.75%), то нейросеть, увидев какашку в форме собаки, присвоит высокие вероятности принадлежности к обоим из этих классов. Хотя, конечно, чисто формально по принципу «у кого вероятность выше» отнесет лишь к одному.
Вот! Нейросеть не сможет сделать обобщение, новый класс — «это какашка, но в форме собаки». Вам нужно будет заложить в неё новый класс — вручную. И натренировать на его распознание. А реальный интеллект сделает это сам, у него есть уровень абстракции «предмет в форме другого предмета». 200 классов разных предметов распознать раз плюнуть, если они не пересекаются. Скажем, распознавание символов печатного текста — плёвое дело для нейросети, пока символы заранее заданы. Когда нужно распознать неизвестный алфавит — уже сложности. Добавьте повреждения текста/фона, элементы рисунков — и задача становится практически невыполнимой без творческих способностей, интеллекта. А нейросеть даст сбой (ошибку распознавания), если вы с распознаваемого текста не удалите случайно забредшую гусеницу.
Поэтому заявлять, что нейросети обучаются принципиально так же как человек — глупо.
А есть ли существенная разница между отнесением объектов сразу к двум классам («какашка» и «собака») и отнесением к новому классу («какашка в форме собаки»)? На мой взгляд, это с точки зрения применения практически одно и то же.

В любом случае, представьте себе следующую конструкцию: мы делаем нейросеть, а на ее выходах (векторах вероятности) строим кластеризацию, находя подобные (с точки зрения классификации) объекты. После чего каждому кластеру назначаем новый индекс и заново тренируем нейросеть. Такая конструкция будет в состоянии выделить новый класс, который является пересечением двух старых. Я правильно понимаю, что этот алгоритм в вашем понимании уже будет интеллектом, в отличие от исходной нейросети?
А нейросеть даст сбой (ошибку распознавания), если вы с распознаваемого текста не удалите случайно забредшую гусеницу.
Если буквы не будут закрыты, вероятно, нет, не даст сбоя. А если буквы закрыты, то сбой даст и человек. Возможно, есть некоторая «серая» область, в которой человек уже сможет распознать букву, а алгоритм машинного обучения еще не сможет, но это лишь количественная разница, а не качественная. Я не спорю с тем, что человек умнее.
Поэтому заявлять, что нейросети обучаются принципиально так же как человек — глупо
Нейросети обучаются совершенно не так, как человек, с этим глупо спорить. Но высокоуровневые особенности обучения, такие, как способность к выделению абстракций, способность обобщать, адаптируемость к изменяющимся условиям задачи, словом, все то, что мы называем словом «интеллект», есть и у человека, и у некоторых алгоритмов машинного обучения (совершенно не обязательно у нейросетей!). И я пока что не знаю ни одной особенности человеческого мышления, которая не была бы представлена (пусть и менее качественно) в каком-либо алгоритме машинного обучения. Пока что предложенные вами примеры, увы, не подходят, ибо существуют алгоритмы машинного обучения, которые обладают предложенными вами особенностями.

Да, есть различие в том, что пока что нет ни одного алгоритма, объединяющего в себе все эти особенности. И некоторые особенности пока что реализованы хуже, чем у человека. Но это лишь количественная разница, не качественная. Пройдут годы, появится новое железо и новые алгоритмы, и планка будет преодолена.
Я правильно понимаю, что этот алгоритм в вашем понимании уже будет интеллектом, в отличие от исходной нейросети?

Конечно не будет — это всего лишь алгоритм. Интеллект не сводится к алгоритмам.
И я пока что не знаю ни одной особенности человеческого мышления, которая не была бы представлена (пусть и менее качественно) в каком-либо алгоритме машинного обучения.

Ну так дайте мне нейросеть, которая уверенно разделяет короткие тексты на анекдотичные и повествовательные (не юмористические).
Пройдут годы, появится новое железо и новые алгоритмы, и планка будет преодолена.

Ню-ню.
Конечно не будет — это всего лишь алгоритм. Интеллект не сводится к алгоритмам.
Кажется, мы зациклились. «Алгоритм (например, нейросеть) может обладать интеллектом?» — «Нет, он не обладает ключевыми свойствами интеллекта, такими, как способность делать обобщения» — «Вот алгоритм, который это умеет, он является интеллектом» — «Нет, интеллект не сводится к алгоритмам».
Ну блин, реально, я же ведь пытаюсь понять, почему вы считаете, что интеллект к алгоритмам не сводится, и где граница между интеллектом и алгоритмами, по-вашему, проходит, и почему.
Ну так дайте мне нейросеть, которая уверенно разделяет короткие тексты на анекдотичные и повествовательные
А это, кстати, интересная задача. На досуге сделаю, напишу статью и маякну.
Правда, для обработки текстов будет в сто раз удобнее взять не нейросеть, а RNN, поскольку они не одинакового размера. Надеюсь, вы не против.
будет в сто раз удобнее взять не нейросеть, а RNN
Вы так говорите, будто RNN — не нейросеть.
Очень многие люди называют нейросетью только перцептрон. Лучше устранить возможное недопонимание как можно раньше.
где граница между интеллектом и алгоритмами, по-вашему, проходит, и почему

Как учат человека, обладающего интеллектом, распознаванию, скажем, буквы «А»? Правильно, ему показывают на доске/бумаге два варианта буквы — прописной и строчный. На этом обучение закончено: человека распознаёт букву «А» в любом виде: вне зависимости от шрифта, в том числе рукописные разным почерком, с любыми искажениями/неполные, а так же узнаёт букву в: случайно построившихся соответственно облаках, фигурах атлетов выстроившихся фигурно в надпись, в выложенных спичках на ковре, в пальцах рук, показывающих букву жестом и так далее.
Как обучается нейросеть? Ей показывают 100500 изображений буквы в разных ракурсах и искажениях, чтобы научить этой одной букве, и она будет выдавать 9х, хх% точность распознавания этой буквы в печатных текстах, х, хх% в рукописном тексте, 0, хх% в жестах пальцев и так далее.
Теперь вам понятно чем наличие интеллекта отличается от его отсутствия?
человек распознаёт букву «А» в любом виде
она будет выдавать 9х, хх% точность распознавания
Так, да не так.
Человек видит в своей жизни огромное количество номерных знаков на домах, тем не менее, качество распознавания цифр из датасета SVHN человеком около 98.0% (см Reading Digits in Natural Images with Unsupervised Feature Learning, секция 5). А вот качество распознавания тех же цифр сверточной сетью — 98.31% (см Generalizing Pooling Functions in Convolutional Neural Networks: Mixed, Gated, and Tree, секция 3.2.1).

Да, сейчас есть задачи, которые слишком сложны для современных алгоритмов и не слишком сложны для человека, и есть задачи, где человеку требуется меньшая обучающая выборка, чем машине, меньше времени и электричества на обучение. Это позволяет однозначно сказать, что человек интеллектуальнее любого существующего на сегодняшний день алгоритма машинного обучения. Но я не согласен с тем, что у сегодняшних алгоритмов совсем нет интеллекта — они соответствуют всем свойствам интеллекта, которые вы предложили.
Как учат человека, обладающего интеллектом, распознаванию, скажем, буквы «А»? Правильно, ему показывают на доске/бумаге два варианта буквы — прописной и строчный. На этом обучение закончено: человека распознаёт букву «А» в любом виде

Таки частный случай one-shot learning же, нет? Хотя с этим направлением вроде всё не особо хорошо, да.
Неправильно, человек не запоминает букву с одного раза — он это делает очень долго, повторяя много раз, просто вы забыли об этом.
И сколько это «очень долго» для вас и, скажем, древнегерманской руны «человек» на рисунке ниже?
image
Утром запомнил и уже к вечеру забыл, информация вытеснилась пока я работу работал. Но проблема не в этом — те нейросети, что разрабатываются сейчас, являются аналогом зрительной коры и не затрагивают высшие психологические функции.
Что я хотел сказать: зрительная кора не запомнит символ за один раз, для этого ей потребуется многократное повторение. Сознание же позволяет удерживать внимание на одном символе какое-то время, пока не будет переключено на что-то другое (и символ будет запомнен не как картинка, а ассоциативно).
Утром запомнил и уже к вечеру забыл

Это вам так кажется. В следующий раз увидите — тут же вспомните руну.
те нейросети, что разрабатываются сейчас, являются аналогом зрительной коры и не затрагивают высшие психологические функции.

Частично верно. Примерно так же, как «радиоприёмники являются аналогом микропроцессоров, так как и те и другие построены на транзисторах». Искусственные нейросети подражают своим устройством реальным нейросетям мозга, однако последние устроены гораздо сложнее. Можно сказать, искусственные нейросети моделируют небольшой участок, скажем, вентрального пути первичной зрительной коры. А проблема, соответственно, в том, что масштабированием этой модели надеются выполнить целую функцию мозга.
Вам нужно будет заложить в неё новый класс — вручную. И натренировать на его распознание

Кажется, где-то на этом моменте пока перейти к unsupervised learning-у с кластеризацией :-)
А кто-то в ней увидит страшного монстра…
В этой статье какраз и рассуждается как это может быть. Хотя я сам не очень представляю как обна обратная связь может выступать в этом качестве. Но тот же самый IBM Watson, который знает всю википедию уже может считаться интеллектом. Если ему добавить возможность контролировать управление предприятием с доступом к документам этого предприятия — он бы смог эффктивно это сделать.
Если ему добавить возможность контролировать управление предприятием с доступом к документам этого предприятия — он бы смог эффктивно это сделать.

Не смог бы. Ватсон — экспертная система с кодируемыми вручную (!) микроформатами хранимых объектов (личности, места, события и т.п.) и связей между ними, алгоритмом полуавтоматического наполнения этой БД и речевым интерфейсом ввода-вывода уровня Siri. В большей степени это просто торговая марка команды аналитиков и программистов IBM, разрабатывающих специализированные экспертные системы для различных прикладных областей (медицина, финансовый рынок, история и т.п.) Искусственным интеллектом (и вообще технически единой программно-аппаратной платформой) это называется исключительно в маркетинговых целях, и победа на Jeopardy — не более чем фокус (прогон тестовых вопросов по тематикам, хранимым в экспертной системе на тот момент времени).
Но тот же самый IBM Watson, который знает всю википедию уже может считаться интеллектом.

Ничего подобного. IBM Watson считается лишь быстродействующей, сложной, но давно известной экспертной системой, не имеющей никакого собственного интеллекта.

Алгоритмы дообучения используются редко, но ничего сверхъестественного в них нет. Ваше утверждение "не сможет приспособиться к новым ситуациям" к сожалению или к счастью, не верно.


Да и вносить абстракции программисту не обязательно. AlphaGo Zero тому пример.

Вы просто не понимаете модель, спроектированную программистами АльфаГо, потому она и кажется вам «самозародившейся». Примерно как этот мир создан богом для тех, кому сложно разобраться в физике. «Абстракции», которым учится АльфаГо, спроектированы и тщательно отлажены программистами и аналитиками (с привлечением профессиональных игроков в го). Да, это не программирование в прямом смысле этого слова, это, скорее, метапрограммирование, на порядок более мозголомная деятельность, но которой пока ещё занимается человек, а не машина.
Хорошо, соберите нейросеть, играющую в шахматы. Подумайте, что у вас не получается и какие знания о шахматах вам придётся таки иметь ввиду для разработки. Теперь изучите AlphaGo Zero и разберитесь, почему она таки может обучиться игре в го и кто в этом виноват. Думаю, разговор исчерпан, ваше резонёрство далеко от практики, у вас просто нет практических критериев «правильной» и «неправильной» точки зрения, а потому спор не имеет смысла. Дрочите на «самостоятельные нейросети» дальше, обсуждайте их дальше в клубе любителей фантастики, если вам важно убедить кого-то, а не получить новое мнение, пусть даже не соответствующее вашему. Спасибо за беседу.

Обсуждение личности собеседника и попытки намекнуть на его умственные способности не являются доводом в диалоге.


К тому же вы никак не обосновали свой высокий уровень знания нейросетей (в профиле тоже не увидел), что могло бы хоть как-то обосновать подобное высокомерие.


В архитектуре AlphaGo Zero нет знаний о том, как правильно развивать партию в Го. Все знания нейросеть получает из обратной связи — проигрывая. А не от разработчика сети.

Просто постройте такую нейросеть, но для шахмат. Как пример. Не применяя никаких знаний о шахматах. Попробуйте сформулировать обратную связь «просто проигрывания» без знаний о шахматах. И пусть теперь эта же нейросеть сыграет в нарды, а потом в покер. Да, пусть поучится предварительно, конечно, но знаний же об игре там нет, так что какая разница, во что играть, верно? Мне вас убеждать ни в чём не хочется (уже давно), я на публику кривляюсь, не для вас.
Все уже сделано до нас.
Программа научилась играть, не зная правил и не имея доступа к коду, а просто наблюдая за картинкой на экране.
Да, теперь пусть эта нейросеть сыграет в шахматы. Вы просто не понимаете ограничений метода, журналистские эпитеты вы воспринимаете слишком близко к сердцу.
А в чем проблема-то? Пусть сыграет. Что-то мне подсказывает, что она будет играть гораздо лучше, чем программа, делающая ходы случайно. Догонит ли человека? Наверное, гроссмейстеров не догонит, а среднестатистического — может быть, а может, и нет.

Я ни в коем случае не утверждаю, что существующие сегодня алгоритмы «умнее», «более адаптируемые» и вообще «интеллектуальнее» человека, это очевидно не так. Но мы постепенно движемся в этом направлении. И уже на сегодняшний день довольно сложно найти конкретную черту человеческого разума, которой бы не обладал тот или иной алгоритм машинного обучения. Да, пока что нет единого алгоритма, который собирал бы все эти черты в себе. Да, пока что человек гораздо более энергоэффективен, требует меньшей обучающей выборки, умеет решать более сложные задачи и тд. Но разница здесь уже скорее количественная, чем качественная.

PS: Пожалуйста, не делайте предположений о своем собеседнике, у вас плохо получается.
Я не делаю никаких предположений помимо того, что вы сами о себе рассказываете своим «что-то мне подсказывает». Ну и всё остальное ваше резонёрство я не имею интереса опровергать, уровень обсуждения в стиле кто кого заборет, доктор Манхэттен или Супермен. Спасибо за беседу, не стоит её продолжать.

Утверждаете, что для обучения Го нужно сформулировать правила Го? Какие ходы делать можно и как в конце считать очки?


Да, это верное утверждение, вы правы (хотя и очевидное).


При этом вы и я знаем — знать правила недостаточно для хорошей игры. Для AlphaGo Zero не использовалась ни одна партия профессиональных игроков. Какие ходы считать допустимыми, действительно прописывается (скоро будут просто с листа читать). Какие считать хорошими — нет, не прописывается.

«Прописывается» структура нейросети, способная выразить оценку хода в принципе, сама же оценка формируется статистически прогонкой обучающих образцов (реальных партий или генерируемых самой нейросетью). Не получится взять «просто нейросеть» и получить решение, её в любом случае придётся проектировать под задачу. Что ещё вам непонятно?

Ещё непонятно, на чем основывается ваше высокомерие. Вы можете как-то обосновать его или перестать использовать, пожалуйста?


Вы утверждаете, что все абстракции (включая новые, про которые игроки Го никогда не знали), уже содержатся в архитектуре сети? И при разработке сети разработчик их все сознательно закладывает? Вы это имеете ввиду?


Как насчёт абстракций, про которые разработчик не знал? Такие тоже уже сразу заложены в архитектуре?

Ещё непонятно, на чем основывается ваше высокомерие. Вы можете как-то обосновать его или перестать использовать, пожалуйста?

Я утверждаю, что этот разговор не имеет смысла, вы готовы играть словами ещё вечность, чтобы только «не понимать» сказанного мной. Спасибо за диалог, мне больше не нужно.

Сказанное вами понятно. Просто неверно. Вы могли бы не "объяснить" ваши слова (их не надо объяснять, все вполне ясно), а попробовать подтвердить их истинность.


Впрочем, вы правы, не нужно.

Сказанное мной, конечно, верно и очевидно для любого, кто хоть немного в теме. Доказательства найдёте в учебниках, заниматься вашим образованием в комментариях никто не обязан.
Так у вас случайно две И И подряд?
Это уже неизлечимо. Камеры, которые штрафы шлют, по ходу тоже ИИ — номера же считывают…

Скорей всего что-то типа separable convolution (она же depthwise convolution)

UFO just landed and posted this here

Например, что человечество для него не представляет смертельной опасности, и его не стоит уничтожать)

UFO just landed and posted this here
Специально ctrl+f жамкнул, чтоб глянуть где начинаются комменты про SkyNET. =)
Я перед тем как запостить тоже так сделал :)
Пусть попробует нормально картинки в quick draw отгадывать )))
UFO just landed and posted this here
Думаешь, их люди создают?
Очень важный момент — в статьте сказано, что они использовали 500 GPU (NVidia P100) 4 дня, то есть 2000 GPU-часов. Я бы сказал, что это пока слишком дорого для нормального использования, если не считать Google и других огромных компаний.
Это для обучения. Для использования может хватить и мобилки.
Конечно. Я имею ввиду, что использовать AutoML для подбора моделей — как в статье — пока неоправданно для большинства компаний.

Дополнительное преимущество :). Пока остальные делают модели с помощью людей, Гугл просто закупает оборудование и выходит вперёд.

Это Вы еще упустили, что в одном дне несколько больше, чем один час :)
Дни бывают разные. Помнится, я в хедж-фонде работал, бывало, размышлял: «ну, в году примерно 250 дней по 14 часов...».
Эти числа я взял из оригинальной статьи ;) " The method in this paper uses 500 GPUs across 4 days resulting in 2,000 GPU-hours."
И выиграли только 3% в сравнении с решениями, не требующими сотен GPU :-)
Зато выиграли в том, что теперь не нужен мега-эксперт для построения архитектуры.
Нейросеть подбирает гиперпараметры другой нейросети с помощью обучения с подкреплением (reinforcement learning). Авторы AutoML пишут что использование эволюционных алгоритмов тоже неплохие результаты показало.
Идея такого подхода, как мне кажется, очевидна любому кто знаком с тематикой машинного обучения. Не менее очевидны и недостатки: необходимость использовать вычислительные мощности, которые доступны только с хорошим финансированием.
В общем это отличная новость для команд, которые могут паралельно тренировать сотни архитектур. Теперь они могут частично автоматизировать подбор гиперпараметров, который занимает несколько процентов времени затраченного на проект.
Пока люди с хорошим финансированием выкладывают обученные сети или хотя бы набор параметров в свободный доступ, это отличная новость для всех.
Вопрос в том, называть ли это «искусственный интеллект создал искусственный интеллект», или таки «люди автоматизировали подбор гиперпараметров нейросетевых решений». Это масштабирование производства, а не принципиально новое слово в ИИ, вот о чём речь.
Это в любом случае не новое слово, т.к. оптимизацией гиперпараметров занимались ещё минимум лет 20 назад, остальное — лишь вопрос определений.
Именно так я и сказал.

Ну так после выхода первой статьи на тему Neural Architecture Search чуть больше года назад, работают и над ускорением поиска. Например вот или вот.

ИИ от Google обучил дочерний ИИ, который превосходит все ИИ, созданные человеком
Уже давно пора ализару перевести статью с заголовком:«Очередной сверх ИИ от Google по своей инициативе обучил очередной более сверх ИИ, который превосходит все и во всем. Люди на клавах просто кнопки нажимали.» Карма сразу увеличится на +100500. Потом статью можно будет просто повторять.
Ждем ИИ для написания постов на Хабре. Даже без смайлика пишу — однажды ИИ отлично сможет справиться с компиляцией текста из чужих текстов с популярных сайтов + фактов из Википедии.
Читая некоторые новости, я подозреваю что их писал такой ИИ, иначе сложно объяснить их низкое качество :)
За «низкое качество» за ИИ обидно.
играя только сама с собой, зная только правила шахмат но не имея исторической базы ходов, Alpha Zero за 24 часа научилась играть лучше чем человек arxiv.org/abs/1712.01815

Имхо — и 2030-й то ещё не придёт, как в комментариях боты будут гораздо выгодней людей смотреться и работать.

Вопрос только в том у меня, которая из стран первая выступит с Биллем о Правах и Свободах Роботов.
Да это всё фигня. Как работает мозг животных и человека в частности: нейроны регистрируют простейшие геометрические формы: точки и линии с разным наклоном. Многочисленные вышестоящие слои по этой информации сопоставляют расположение сигналов сравнивая с известными на соответствие шаблонам, постепенно укрупняя классификацию. При несоответствии шаблонам создаётся и запоминается новый. В конечном итоге объект классифицируется с 100%, меньшей 100% или 0% уверенностью.
Как работают распознающие нейросети: входящие данные (пиксели изображений или форма аудиосигнала) сравниваются по всей площади с известными элементами в соответствии с весами, построенными по частоте встречаемости. Результатом является цифра процента совпадений. Когда процент выше захардкоженного порога, считается что объект распознан. Процент практически всегда ниже 100% и выше 0%.
Согласитесь, что это простая арифметика (статистический анализ), а не какой-то там интеллект.
нейроны регистрируют простейшие геометрические формы: точки и линии с разным наклоном. Многочисленные вышестоящие слои по этой информации сопоставляют расположение сигналов сравнивая с известными на соответствие шаблонам, постепенно укрупняя классификацию. При несоответствии шаблонам создаётся и запоминается новый. В конечном итоге объект классифицируется с 100%, меньшей 100% или 0% уверенностью.
Это называется Unsupervised Feature Learning: youtu.be/n1ViNeWhC24?t=31m29s

Нейросеть сможет отлично писать статьи, только если мы будем для неё хорошими учителями.
Но ведь может получится и так, что пипл создаст себе ровно то, что захочет хавать.

Ну как сказать — на ряде задач, ЕМНИП, уже достигали точности выше человеческой :-)
То чувство, когда стоишь на краю пропасти.

Решил вот сделать ёмкую подборочку в картинках хроники разворачивавшихся по теме событий.
Делюсь под спойлером.

AI

“На краю пропасти Хайтек”, в газетных вырезках
image

Продолжение, часть 2
image



ИИ обучил дочерний ИИ

Блин, они уже размножаются!
Вот когда, в ответ на отправленное задание, нейросеть задаст вопросы:
-А зачем?
-А ты кто?
-А я кто?
Тогда и приходите.

Алсо, пора запиливать классический >>>Вы здесь<<< список.
Sign up to leave a comment.

Articles