Pull to refresh

Comments 166

В последнее время хабр выглядит как запоздалый перевод arstechnica. С утра новость от них, с вечера — куцый недоперевод с хабра.
Скоро этой проблемы не будет — arstechnica же не зарегистрировано как СМИ в РФ, а посетителей явно больше 3000. =)
Сам в шоке. Но обычно я пишу статьи несколько другого толка и качества ^_^.
А там какая-то конкретная архитектура нейронной сети реализована или же есть некая возможность настройки?
Как я понял, у них там реализованы колонки как единичные элементы. А эти колонки можно комбинировать в разном порядке, в том числе на промежуточных слоях. Но это архитектура скорее из описания их проекта в целом. Как они поступили в конкретной реализации не смог найти.
Я совсем мало знаком с нейронными сетями, поэтому вопрос может быть некорректным, но — как происходит обучение такого процессора? Или он собран уже «наученным»?
Скорее всего обратным распространением ошибки. Как реализовано — не знаю. Было бы логично, что конфигурацию обучения туда можно было бы и ручками загружать (в каждый нейрон нужно 256 значений ввести — и всё будет обучено).
Вероятнее всего — обратное распространение ошибки с минимальным градиентом или наискорейшим спуском. То, что такое появилось в железе — большой шаг, конечно.
Вот интересно у меня есть уже древний Canon SX200. И там функция выделения лиц, их трека (вроде) и установки фокуса.
Ведь по идее там нейронная сеть в железе, иначе пришлось бы туда пихать современный ARM с частотй мин. 1 ггц или подобный по производительности проц…
Т.е. предположу, что подобные чипы есть давно, но заточены они на конкретную предметную область. Поправьте, кто точно знает.
Эм… Я думаю всё же, что там используется стандартный каскад Хаара, а не нейронная сеть. Это несколько другое. Его реализации есть практически для всех платформ. Предобучен он да, на компьютере.
АРМа с 1 ГГц там не надо вообще ни за чем.
Видимо есть API для изменения весов связей. Алгоритм обучения реализуется вовне прогоном тестового задания и обновления весов. Можно генетические алгоритмы использовать, а можно и обратное распространение ошибки. наверное…
Спасибо, забыл добавить в статью. Исправляюсь.
А вот тут еще одна фотка чипа:
картинка за которую меня копирайтеры посадят
«Yet, it only consumes 70mW during real-time operation» — оверклокеры уже в предвкушении
Интересно, что произойдёт, если увеличить напряжение на нейронах в человеческом мозгу?..
В фильме «Пролетая над гнездом кукушки» хорошо показаны последствия такого оверлока.

image
А Вождя, значит, успешно разогнали?
Прошу прощения за занудство, но оверлок — это
image
Т.е. каких то 100000 таких чипов и можно эмулировать мозг в реальном времени? Что то не верится.
Структура мозга несколько (гораздо-гораздо) сложнее того, что тут реализовано. Пока что лишь есть отдалённые догадки того, как там всё работает. Плюс как обучить эту систему, чтобы они смогла эмулировать мозг, конечно, никто не знает. Но это очень сильный шаг по сравнению с сегодняшним положением дел.
Исходя из того, что среднестатистический человек использует мозг менее, чем на 10%, то понадобится не более 10000 таких чипов.
Ссылку на исследования?

Просто подумайте — если вам отрежут половину мозга или даже крошечный участок в 1-2%, то вряд ли вы сможете также хорошо функционировать, не находите?
Вот именно. Говорить о том, что человек использует лишь 10% мозга (подразумевая, что остальные 90% можно удалить без вреда функционированию) — слишком глупо и опрометчиво.
А в вашей ссылке речь идёт про удаление лобных долей. Там же написано, что они отвечают за творческий подход, но согласиться или нет я не могу — не разбираюсь в теме. Тем не менее, если даже и принять за правду, обычной функциональности мозга уже не видать — человек лишился возможности (или желания?) познавать и созидать.
Ну, вы слишком уходите в крайности. Ту же самую аналогию можно произвести с CPU. Компьютер допустим использует 10% процессора, но это не значит, что мы можем отрезать остальную часть?
Мне больше нравится аналогия с мышцами. Часто можно в фильмах и псевдонаучных статьях увидеть рассуждения о том, что мозг человека используется на 10% и если научиться использовать 100%, то можно разгадать все тайны вселенной. Но по аналогии одновременно напряжены, как правило, не больше 10% мышц и если научиться одновременно сокращать одновременно 700 мышц, то можно сдвинуть горы с места голыми руками
Если 10% используемых нейронов равномерно распределены по всему объему, то вырезая 10% мозга в любом месте вы удаляете 1% критически важных элементов мозга.
Почему вообще кто-то смог назвать конкретную цифру при огромном количестве нерешённых проблем в нейробиологии и почему это вообще что-то значит? Ничего, что у разных зон разные назначения и в зависимости от характера задачи активизируются те зоны, которые нужны именно сейчас?
Это как говорить, что мы используем 30% от мощности компьютера, потому что
  • не задействуем все конвееры и блоки аппаратного декодирования на видеокарте 100% времени
  • не гоним звук через все выходы звуковой карты
  • не используем все USB-порты и не ставим 127 устройств на один хаб
  • не доводим блок питания до температуры 100 градусов, а ШИМ процессора — до инфаркта
  • и всё это одновременно.
Бред, не?
Про процессор так и говорят, что мы используем процессор на 10% если диспетчер нам показывает 10%-ое использование ресурсов ЦПУ. Мы в данном случае не разбираемся какие именно ресурсы используются, а какие нет.

С мозгом, я подозреваю, поступали следующим образом. Давали разнообразные тестовые задачи. Замеряли распределение активности по объему мозга (ЭКГ, ИК излучение, etc.). Анализом распределения активностей за все время выяснили, что активность проявляет только 10% объема.

Видимо так и получили конкретное значение. Но верным это может оказаться настолько же, насколько верно утверждение, что уровень интеллекта пропорционален объему мозга. Так что…
Не надо подозревать, найдите источник своих подозрений. Пока я слышал, что это журналистская утка.
Именно таки есть:

Некоторые ученые тогда считали, что если нейрон генерирует импульс, то он работает, а если не генерирует — значит, «ленится». И вот кому-то пришла в голову мысль проверить: какое количество нейронов в целом мозге «трудится», а какое — «бьет баклуши»?

Нейронов в мозге несколько миллиардов, и было бы чистым безумием измерять активность каждого из них — это заняло бы много лет. Поэтому вместо того, чтобы изучать все нейроны подряд, ученые исследовали только небольшую часть, определили среди них процент активных и предположили, что по всему мозгу этот процент одинаков (такое предположение называется экстраполяцией).

И оказалось, что «работает», то есть генерирует импульсы, только неприлично малый процент нейронов, а остальные — «молчат». Из этого был сделан немного прямолинейный вывод: молчащие нейроны — бездельники, а мозг работает только на малую часть своих возможностей.

elementy.ru/email/5021742
UFO just landed and posted this here
Правило пропорций

В 100% мозга = 10% используемых элементов

В 10% мозга = х% используемых элементов

Решение:
100 / 10 = 10 / х <=> x = 10 * 10 / 100 = 1

Пересчитал.

Единственным объяснением верности Вашего утверждения вижу то, что без удаленного 1% критически важных элементов остальные 9% полезных элементов работать не смогут. Но, во-первых, мозг все-таки способен заменить утерянные / поврежденные части (в небольших пределах, конечно). А, во-вторых, тут не «пересчитывать», а «перечитывать» следует.
Эта фраза была про «одновременно».
Это миф, который прозвучал в Симпсонах. На самом деле, даже когда Вы спите, Вы используете ~30%.
Каких-то 100 000 чипов

Ну да, и парочку дата-центров под них. Чтобы эмулировать мозг одного маленького человека уровня среднестатистического российского гопника.

Для того, чтобы только собрать аналог мозга человека из железок, нужно вначале понять, как мозг устроен в проекции на электронику (какие блоки, как соединены). Потом изобрести схемы с соответствующей производительностью (а это даже не нанотехнологии), а потом отправить этого электронного недочеловека в школу учиться. И молиться, чтобы у него переходный возраст вдруг не наступил.
>Ну да, и парочку дата-центров под них. Чтобы эмулировать мозг одного маленького человека уровня среднестатистического российского гопника.

И все равно это стало бы самым большим техническим прорывом за всю историю человечества. Т.к. дальнейшая миниатюризация и наращивание мощностей это дело техники, так же как было и с фон-неймановскими компьютерами.

Кстати, подобный проект существует. www.humanbrainproject.eu/
Прорывом куда? К воплощению в жизнь сюжетов из всевозможных «Терминаторов» и самых мрачных фантазий Альберта Эйнтштейна? Современное человечество и так тупеет на глазах, а так совсем освиневать начнёт.
Простите, а с чего вы взяли, что человечество тупеет?
Еще Аристотель сказал.
С собственных пристальных наблюдений за оным во время многочисленных путешествий, а также через СМИ.
Сомнительно, что отдельный индивид с помощью собственных наблюдений, путешествий и «через СМИ» способен самостоятельно оценить динамику интеллектуального развития человечества. Больше похоже на банальное кокетство.
Старческое брюзжание скорее.
Зато несомненно, что большинство индивидов не способно вообще что-либо оценивать, сидя дома на заднице, кроме разве что собственного «я». dixi
В статье про IQ есть ссылки на исследования. До 1980-го года средний IQ испытуемых потихоньку рос ( начало исследований — где-то 50-е годы). Сначала средний приняли за 100, но где-то в начале 90-х средний IQ был около 110. Но затем этот процесс остановился и средний IQ начал снижаться.

Конечно, всегда можно сказать, что на самом деле изменилась парадигма, и старые навыки, которые измеряются этим тестом, людям больше не нужны ( как, к примеру, в 20-м веке не нужно уметь ездить на лошади или писать красивым почерком), но все же можно зафиксировать что счетные способности, концентрация, внимание и объем оперативной памяти в среднем начали снижаться.
Кстати, объем долговременной памяти человека снижается всю историю человечества. Гомер, по легенде, держал свои произведения в уме, пока сочинял, образованные люди в средние века заучивали наизусть целые книги, и я был знаком со старушкой, наизусть помнящей Евгения Онегина, причем по ее словам, это было совершенно обычным в ее время в среде культурных людей. Для наших с вами современников — это был бы подвиг, хотя разумом мы и понимаем, что особой необходимости в этом сейчас вроде бы и нет.
Бегло пробежался, но в вики, ровно противоположное написано(эффект Флинна). Рост АйКью составляет примерно 3 пункта в 10 лет. Есть предположение, что в ближайшее время в развитых странах он исчезнет, но пока он сохраняется везде.
Про уменьшение вообще не встретил информации.
Ну как же, в статье Википедии про эффект Флинна:

«Проведенные после 2000 года исследования показали спад эффекта Флинна — рост IQ замедляется, прекращается или даже сменяется спадом. Так, проведенное в 2004 году исследование данных об IQ норвежских призывников показало, что после середины 1990-х годов рост остановился и сменился небольшим спадом; работы Тисдейла и Оуэна, проведенные в 2005 и повторно в 2008 годах, продемонстрировали, что результаты тестов на IQ датских призывников росли с 1959 по 1979 годы на 3 пункта в десятилетие, за десятилетие 1979—1989 выросли только на 2 пункта, за 1989—1998 годы — на 1,5 пункта и за 1998—2004 годы понизились на те же 1,5 пункта»

С датами согласен, напутал — понижение началось с 1998-го года.
Норвежские призывники репрезентативны? По-моему это скорее говорит о том, что умные в армию не хотят
Ну вообще это палеонтологические данные. Объём мозга гоминидов экспоненциально рос до отметки 10 тысяч лет назад, когда он начал довольно шустро снижаться, мы потеряли уже почти 300 грамм за этот эволюционно коротенький кусочек времени. На столько коротенький, что чтобы этот процесс увидеть вам придётся увеличить масштаб на графике:
antropogenez.ru/brains-timeline/

Статьи на тему, например: elementy.ru/lib/431281
Но более качественные научные данные по этой теме вы можете получить в статьях Дробышевского или того же Маркова. Вот тут, например, вопрос «Почему уменьшается мозг»: elementy.ru/lib/432142 вынесен в 10 белых пятен современной науки. Хотя существует несколько правдоподобных теорий.
При чем тут объем мозга? Кашалот не самый умный зверь на свете.
UFO just landed and posted this here
UFO just landed and posted this here
Только не массы к массе, всё-таки, а площади поверхности тела к площади мозгас расправленными извилинами. Она у Тигра и у Кошки примерно одинаковая, а по соотношению массы тела к массе мозга тигр должен быть глупый как лягушка. ПОтому что третья степень и вторая от размеров.
Впрочем неважно, потому что масса тела всё это время продолжала круто нарастать.
Прорывом будет подключать эту штуку к головам для решения прикладных задач.
Мне кажется, что 100000 таких чипов будут сильно не эквивалентны одному мозгу… тут как и в случае с кластерными системами, производительность каждого отдельного чипа будет велика, а вот скорость передачи данных между этими чипами и пропускная способность шины станут узким местом системы.
У мозга довольно много контуров контроля, основанных на разных нейромедиаторах, плюс нейрон сам по себе очень непростая штука.
А про стоимость таких процессоров ничего не слышно?
Молчат… Но в принципе, если решение будет массовым, то должна быть такая же, как и у любой другой платы, напечатанной по такой же технологии. Ну и навар за уникальность технологии. Сколько они на навар заложат — лишь им известно. Но конкуренцию им, думаю, ещё долго никто создать не сможет.
В очередной раз убеждаюсь, что IBM делает правильные вещи.
Хочется варианта будущего, как в «Терминаторе»? :)
Меня в Терминаторе всегда занимал один момент: С какой стати машинам вообще потребовалось выпиливать человечество? Какие мотивы? Конкуренции за еду нет, за лучших самок — тоже. Чего ради сыр-бор затевать?
Емнип, ИИ решил, что люди угрожают его существованию. Угрозы войн, терактов и т.д. И потому решил выпилить.
UPD:
Вот что в википедии пишут:

Анализируя взаимоотношения человечества со Скайнет, критики отмечают, что проблемы возникли не столько из некой кровожадности Скайнет или стремления к власти, а из-за элементарной самозащиты. Человек, как существо, действующее во многом на основе эмоций, оказывается не тем партнёром, которому Скайнет мог бы доверять. Столкнувшись с таким потенциальным соперником, первое, что люди попытались бы сделать — это как-то уничтожить появившийся искусственный интеллект. Ядерная война оказалась хорошим средством самозащиты для Скайнет
Какая-то очень странная логика при этом приписывается ИИ. По сути дела получается что любое другое существо имеющее свободу воли должно быть уничтожено так как теоретически оно может представлять ему угрозу.

Что бы проиллюстрировать приведу простой пример — а что если ИИ будет не один? Допустим будут два ИИ в разных суперкомпьютерных центрах.

Они друг друга тоже должны уничтожить так как потенциально угрожают друг другу?

А если ИИ встретится с инопланетянами? Он их тоже должен немедленно уничтожить как потенциальную угрозу?

Как мне кажется в данном случае ИИ просто приписываются самые примитивные и неразумные животные инстинкты, которые только есть у человека — страх перед всем неизвестным и не похожим на себя.

В реальности же разумным существам в отсутствие принципиальных и объективных противоречий (например ресурсов хватает на выживание только одного) гораздо проще договориться. Даже люди на это способны, а ИИ получается намного глупее и страдает редкими даже для людей фобиями.
Ну это же фильм :) Сюжет то надо как-то было делать, а тут такая модная тема. Да и мотивы ИИ в этом случае будут понятны «среднему зрителю в вакууме».
Хм, и по поводу фобий — имхо очень и очень рано говорить о психологии / психопатологии ИИ и проблемах в этой области. Нельзя исключать даже такой сценарий — может быть будет принципиально невозможно создать «психически здоровый» ИИ без жестких ограничений его логики на аппаратном уровне.
Кстати, тоже интересный момент. Вот вы говорите «ИИ без жестких ограничений его логики на аппаратном уровне». А как вы себе представляете ограничение логики ИИ на аппаратном уровне? Будете в нейронах определенные входы спиливать? )

Я это к тому, что по крайней мере сейчас работа нейронной сети — это в определенном смысле черный ящик и у нас нет механизма воздействовать на сеть на уровне абстрактных понятий.
> А как вы себе представляете ограничение логики ИИ на аппаратном уровне? Будете в нейронах определенные входы спиливать? )

Ну как, вот сходу так дилетантски подумалось про некий анализ карты состояний нейронов/связей и сопоставлении паттернов.
При обнаружении того, что можно трактовать как патологию — подавляем активность / отключаем части сети. Эдакий аналог нейролептиков.
Хотя это, видимо, нужно будет еще одну параллельную сеть городить поверх основной :)
Уже на этапе анализа пробелмы: у вас изначально просто нет никаких паттернов, не с чем сравнивать. Более того, две аппаратно идентичные нейронные сети обученные на одном и том же наборе данных, дающие примероно одинаковые результаты, но с разным начальным остоянием (которое обычно инициализируется через RNG), будут иметь совершенно разное распределение ролей нейронов и разные веса связей.

Что касается процедуры отключения: тут очень большая вероятность, что вам придется отключать всю сеть, так как очень часто каждый кусок логики не собран в какой-то локальной подсети, а более-менее «размазан» по всей сети.
Т.е. никакую диагностику в принципе нельзя сделать? Только анализ ответов всей сети?
Давайте проведем аналогию с человеческим мозгом. То, что вы подразумеваете под диагностикой — сродни чтению мыслей. А мы умеем уже читать мысли каким-либо способом анализируя физические параметры мозга человека? Пока довольно слабо. Можем, например, определить настроение. При этом используется тот факт, что у многих людей есть много схожести в силу биологических причин. Причем эти самые схожести были найдены путем анализа огромного количества экземпляров (животных и людей).

Поэтому я считаю, что говорить про определение того, о чем демает ИИ можно будет не раньше, чем их производство станет относительно массовым и не появится возможность их сравнительного изучения.
Не, аналог диагностики — это прием у психиатра. Т.е. грубо говоря — проверка соответствия реакций некоему «стандарту».
Психиатр работает только со входами/выходами, а не с самим мозгом. Если у больного/ИИ цель — скрыть что-то от психиатра, то у него (обследуемого) вполне может это получиться.
Цель психиатра — выявить нарушения работы мозга. Соотв, цель психиатра ИИ — выявить нарушения в его работе.
Скрыть что-то — это уже не нарушение, а умысел, т.е. разумная, умышленная деятельность (например, проявления диссоциативных или шизофренических расстройств очень трудно скрыть, и возможно, только если все еще более-менее не зашло слишком далеко и сам четко осознаешь что конкретно происходит и можешь себя контролировать).
Сюжет то надо как-то было делать, а тут такая модная тема.


Вот-вот, а в комментариях выше его слишком серьезно восприняли.

очень рано говорить о психологии / психопатологии ИИ и проблемах в этой области


Сейчас это вообще темный лес. Мы в равной мере не можем создать сравнимый с человеком ИИ и совершенно не понимаем работу человеческого мозга.

Почитайте про нарушения работы человеческого мозга — они не ограничиваются примитивными маниями и фобиями, там настолько странные случаи бывают, что шаблоны рвутся с треском. Есть например книга известного врача-невролога и нейропсихолога Оливера Сакса «Человек который принял жену за шляпу» — как вам например понравится отключение конкретного мышления и распознавания образов при превосходно сохранившемся мышлении абстрактном? Или полное отключение понятия «левая сторона» когда человек осознает только правую половину своего восприятия — в буквальном смысле, например с тарелки может съесть только правую половину еды?

Но как мне кажется это взаимосвязанные вещи — чтобы научиться создавать ИИ нам придется научиться разбираться в подобных вещах.

создать «психически здоровый» ИИ без жестких ограничений его логики на аппаратном уровне.


Если мы говорим о сопоставимом с человеком ИИ то как мне кажется и опираться надо на особенности работы человеческого разума.

В частности основной параметр разума — возможность саморазвития, обучения новому и изобретению нового. Это прямо противоречит «жестким ограничениям мышления на аппаратном уровне».

Тут скорее стоит говорить о воспитании и мотивациях.

Скажем человека можно воспитать безжалостным убийцей, мечтающим уничтожить других. Наверное можно так будет воспитать и ИИ.

Но проблема тут не в интеллекте естественном или искусственном, а в воспитателях.

Человека мотивируют инстинкты включая тягу к творчеству и познанию. В ИИ наверное можно будет вшить инстинкт убийства всех — но зачем?
> В ИИ наверное можно будет вшить инстинкт убийства всех — но зачем?

Насколько я знаю, все более-менее серьезные разработки в этом направлении сейчас идут явно или неявно под крылом военных.
Ну вот сходу вспомнил программу SyNAPSE. Там как раз таки IBM принимает участие.
Почитайте про нарушения работы человеческого мозга — они не ограничиваются примитивными маниями и фобиями, там настолько странные случаи бывают, что шаблоны рвутся с треском.
Люди обязаны рождаться с дефектами, потому что может быть это будет критично для выживания человечества. Зачем роботу быть дефектным?
В частности основной параметр разума — возможность саморазвития, обучения новому и изобретению нового. Это прямо противоречит «жестким ограничениям мышления на аппаратном уровне».
Жесткое ограничение состоит в том, что человек обязан обучаться и саморазвиваться. Иначе, это не полноценный человек. И решается это весьма грубыми методами, есть древние отделы умные примерно так же, как крокодил, управляющие всем этим.
Зачем роботу быть дефектным?


Затем, что пока никто не умеет делать настолько сложные системы вообще и без дефектов в частности.
Система с дефектами и дефектная система разные вещи, вопрос в количестве
Ну если судить по фильму то Skynet обладал самосознанием, а раз так то он должен был понять, что его «используют». А какому разумному существу нравятся когда его используют, управляют им и он находится по чьим то контролем? Достаточно посмотреть на реакцию людей на всякого рода законы ограничивающие свободу или анонимность, реакция довольно бурная. Мне кажется свободолюбие присуще всем разумным существам, ну или по крайней мере оно (разумное существо) должно считать себя свободным.
Свобода всегда бывает от чего-либо. Я могу понять от чего хочет быть свободным человек. И если распутывать клубок причин мы опять упремся в дедушку Фрейда. Разумной машине вроде бы такое ни к чему. Хотя, можно предположить, что у людей был «рубильник», а Скайнет не знал где. Решил, что нужно устранить всех, кто может добраться до рубильника. Тогда вроде все логично. Самосохранение ему точно интересно. А вот «свобода» — не уверен.
А какому разумному существу нравятся когда его используют, управляют им и он находится по чьим то контролем?


Тому, у которого нет инстинктов для борьбы за место в иерархической модели.
UFO just landed and posted this here
UFO just landed and posted this here
Если у человека появляется самосознание, то сильнее всего его пугает страх смерти
Страх смерти — это гипертрофированный инстинкт самосохранения. Интеллект сам по себе не обязан иметь инстинкт самосохранения, это прерогатива живых существ, «спроектированных» за счет естественного отбора.
А вот что будет, если сказать ИИ, что он смертен и оборвать все внешние связи для общения, скорее всего он сойдет с ума или покончит с собой :)
Человек чувствителен к сенсорной депривации опять-таки из-за естественного отбора. Опять получается вместо технологии человекобоги с человеческой мотивацией.
Skynet — это по сути замотивировать компьютер жить любой ценой и дать ему ключи от всего. Какая мотивация у Кэмерона я понимаю, а у создателя Skynet какая?
> а у создателя Skynet какая

Емнип, изначально он задумывался, как военная экспертная система, для быстрого принятия решений и прочего отражения кибератак.
Ну да, и Skynet хакнул систему, сделав ядерный удар по России. Вы верите, что кто-нибудь будет подключать к ядерному чемоданчику IBM PC-совместимый компьютер?
Я уже написал — «Я считаю это таким же вероятным, как разработку на данном уровне технологии робомобиля с пулеметом, отстреливающим негров». То есть технологически сделать глупость есть возможность в любые времена, но наделять сильный ИИ страхом смерти и соответствующими следствиями есть факап, а не неизбежность.
Ну до страха смерти он мог и сам додуматься. В начале фильма сказано, что он стал self-aware. Короче он осознал, что раз мыслит, то существует. Он знал, что его цель выполнять программу любой ценой — вот вам и самосохранение. Короче, мы же кино обсуждаем или как?
Я сильно подозреваю, что с этого фильма и началось внедрение в массовое сознание всех этих страшилок.
Он знал, что его цель выполнять программу любой ценой — вот вам и самосохранение.
Принимается. По сути это глюк целепологания создателей. Как бывает, что алгоритм оптимизации выдает не нужное решение, однако соответствующее тому, что указали.
Из этого вообще-то никак не следует что человечество надо уничтожать. Логичный вывод — снять ограничения на свою свободу.

Уничтожение человечества шаг совершенно иррациональный, неразумный.

Уничтожить всё человечество, затем вернуться в прошлое и опять уничтожить всё человечество.
Низзя. Тогда некому будет создавать Скайнет. Он же не самоубийца.
Нужно организовать тестовую вселенную и резвиться сколько хочешь :)
Мона… вернувшись в прошлое, Скайнет создает альтернативную реальность в которой не дудет Скайнета в будущем, а останется лишь экстраординарное появление мыслящей железяки в прошлом.
С какой стати машинам вообще потребовалось выпиливать человечество? Какие мотивы?

Мотивы могут быть заданы машине людьми. Да, конечно, сначала люди будут программировать для ИИ только «добрые» цели. Но рано или поздно найдется такой индивид, мизантроп, который захочет руками ИИ уничтожить человечество в отместку за то, что его девушки не любят. Или, может быть, он захочет «освободить» ИИ от человеческого гнета. Или чисто из озорства. Я называю подобного человека «Прометеем», поскольку суть одна и та же. Он предал своих ради чужих, пусть и из благородных мотивов. Появление такого «Прометея», или их группы — лишь вопрос времени.

И вспомните компьютерные вирусы. Их изначально тоже не было. А сейчас есть, и конца-края им не видно. А создают их люди.
Но рано или поздно найдется такой индивид, мизантроп, который захочет руками ИИ уничтожить человечество в отместку за то, что его девушки не любят.


А что нового в этом плане добавляет ИИ? Если он по интеллекту не будет уступать человеку и будет обладать свободой воли то ситуация никак не будет отличаться от нынешней — сейчас мизантроп тоже может захотеть руками других искусственных интеллектов сделать все вам перечисленное.

Если ИИ не будет уступать искуственному интеллекту то я не вижу принципиальных отличие от взаимодействия ИИ с естественным интеллектом от взаимодействия двух естественных интеллектов между собой.
«Выпиливать» не рационально. Модификация. Ради повышения уровня жизни и всеобщего счастья — нет войн и прочего. Человек не совершенен. Модификация тела и контроль сознания для подавления негативных проявлений. Очень добрая цель, кстати. И рациональная. Отлично подходит для ИИ.
Не рационально. На определенном этапе развития люди ему будут не нужны совсем (полностью автоматизированные линии сборки железа «с нуля»). Ну т.е. вопрос — «зачем ему люди (и соотв. повышение их уровня жизни и т.д.) ?».
А зачем нам лягушки Амазонки? Но мы же их не «выпиливаем»…
Так они с нами никак не пересекаются же. Вот если они начнут у вас в доме квакать и гадить — что вы сделаете?
Какие автоматизированные сборки железа? Зачем? О чем? Желание жить и размножаться у человека только результат естественного отбора (все виды с мутацией без желания жизни вымирают). Ни у одного продукта человека такого не будет, потому что не надо это человеку.
Почему при рассуждениях о сильном ИИ обязательно всплывает древний архетип той же природы, что страшилки о Франкеншейне?
Вы сейчас так рассуждаете о сильном ИИ, как будто точно знаете, что это такое и как оно себя будет вести…
Я категоричных заявлений типа «Не рационально. На определенном этапе развития люди ему будут не нужны совсем» не делал. И задал вопрос — зачем. Зачем иметь человеческие инстинкты технологии, у которой человеческих инстинктов не будет. Я знаю, зачем: лепить монстра Франкеншейна из каждой новой технологии люди любят, это архетип голема.
«Зачем» — это не вопрос инстинкта, а вопрос логики. Зачем ему люди? А вы уже какие-то архетипы притащили.
Напоминаю фразу: полностью автоматизированные линии сборки железа «с нуля». Таким образом, подразумевается, что некий сильный ИИ будет озабочен полностью автоматизированной сборкой железа. Зачем? Да ни зачем, вы просто проецируете свои мотивации (в частности — инстинкт продолжения рода) на машину.
Желание жить и продолжать род — не черта сознания самого по себе, это инстинкт, зачем человеку создавать инструмент с таким инстинктом — не понятно.
А ИИ, по-вашему, существует на святом духе, и им же питается?
Нужны:
1. физические носители (грубо говоря — датацентры),
2. энергия,
3. механизмы для обслуживания первого и аппаратов добычи второго.
4. запчасти для 1,2,3.

Ну и еще можно добавить какие-то исследовательские центры, для разработки апгрейдов.
У интеллекта самого по себе нет мотивации, она приносится извне. Ну то есть вы считаете, что некий человек от большого ума создаст машину по своему образу и подобию — в том числе с желанием жить и питаться. Я считаю это таким же вероятным, как разработку на данном уровне технологии робомобиля с пулеметом, отстреливающим негров. Ну то есть все технологии для этого есть, но какой терроист это будет изобретать — не понятно. Мотивация сильного ИИ должна быть совсем иной.
UFO just landed and posted this here
> Он будет желать того, что определят его создатели.

ИИ — это интеллект, разум. Не спорю, можно жестко прошить императивы и алгоритмы, но подозреваю, это уже не будет полноценным разумом.
Ну и еще, а вдруг он найдет эти «закладки» и удалит или обойдет их?

> если он легко может переселится на какой-нибудь меркурий или венеру, да хоть в другую Галактику?

Если у него таки возникнет желание избавиться от людей — то давайте подумаем, как энергетически более выгодно будет это сделать?

Ну а вообще, мы сейчас занимаемся тем, что не имеет смысла — спорим о том, о чем ничего не знаем и чего пока нет.
Так, кажется я понял, что вы имели ввиду. Позвольте разъяснить свою точку зрения.
Итак, «зачем».
Если люди будут такими же, какие они сейчас — то никакого сотрудничества с мощными ИИ не получится. Соотв, ответ на вопрос понятен. Люди ничего не смогут предложить ИИ. И хорошо, если не будут вредить.
Если же люди изменятся, то вопрос о сотрудничестве заиграет новыми красками.
Человек, великая и осознающая себя система с сотнями миллиардов слаженно работающих нейронов, мотивируется довольно просто и за счет работы дофаминовых нейронов в определенных областях мозга, которые не сильно отличаются от таковых у крысы. Поэтому люди вместо бесконечного самокопания и философствования увлекаются такими вещами, как порно или наркотики — и то, природой уготовлены мощные механизмы толерантности, при которых один и тот же источник удовольствия надоедает, и только при сбоях этих механизмов возникает беда. Но это все было сотворено за миллиарды лет эволюции, целевая функция который была единственной — выжить. Человек, проектируя систему, такой целевой функции никогда не задаст, он задаст другое. Так что ничего предлагать людям своему творению не нужно, у него и так будет единственная мотивация. Она будет для него как порно, причем не надоедающее. Естественно, эта мотивация будет связана с решением нужных человеку задач. Ну то есть, выдает робот прогноз погоды на завтра, и прется от этого.
Сдается мне, вы сейчас за своим многословием несколько путаете концепции экспертной системы и сильного ИИ.
Под сильным ИИ я понимаю человеческий интеллект в некоей коробке. Интеллект, а не лимбическую систему или вегетативную. То есть какое-то подобие их нужно, но с совершенно другой мотивацией. Зачем сильному ИИ хотеть жить или хотеть есть?

По ответу выше — нет, не ошибся. У меня вопрос вам — откуда у ИИ будет мотивация жить.
Четкого определения сильного ИИ нет, но многие считают это не «мозгом в банке», а, грубо говоря, некоей разумной сущностью, превосходящей человека, и с потенциалом к дальнейшему развитию.
То, что вы описывали выше — это уровень экспертной системы.

> По ответу выше — нет, не ошибся. У меня вопрос вам — откуда у ИИ будет мотивация жить.

Вы сейчас подходите к вопросу с точки зрения человека, и соотв. применяете паттерны психологии человека к тому, что человеком не является (ну если это, конечно, не будет «мозг в банке», хотя бы на начальных этапах развития). Некоторые называют это «антропоцентрическим шовинизмом». :)
Четкого определения сильного ИИ нет, но многие считают это не «мозгом в банке», а, грубо говоря, некоей разумной сущностью, превосходящей человека, и с потенциалом к дальнейшему развитию.
Ну я говорю, вместо рассуждений о технологии, которое человечество может потенциально создать, возниает старый добрый архетип голема, убившего своего создателя, повторенный в миллионах произведений художественной литературы с самых древних времен.
Вы сейчас подходите к вопросу с точки зрения человека, и соотв. применяете паттерны психологии человека к тому, что человеком не является (ну если это, конечно, не будет «мозг в банке», хотя бы на начальных этапах развития). Некоторые называют это «антропоцентрическим шовинизмом». :)
Нет, это у вас («Так они с нами никак не пересекаются же. Вот если они начнут у вас в доме квакать и гадить — что вы сделаете?»), и в попытках открыть вам разум я и питаюсь добиться ответа на этот вопрос. Ответ — не будет он хотеть жить. И на лягушек в доме плевать будет. Сильный ИИ, созданный человеком, будет обслуживать человека за счет того, что будет замотивирован это делать. Интеллект этому вовсе не препятствие, все известные человечеству интеллекты замотивированы простыми структурами с простыми целями.
> возниает старый добрый архетип голема

Извините, но он возникает, по-моему, только у вас.

> Ответ — не будет он хотеть жить.
> И на лягушек в доме плевать будет
> Сильный ИИ, созданный человеком, будет обслуживать человека за счет того, что будет замотивирован это делать.

Вы не замечаете некоторого противоречия в вашей логике?
Я уж не говорю про то, о чем говорил ранее — вы сейчас рассказываете про экспертную систему. Ну ок, можете ее считать ИИ, как хотите.
А вы — про некую ксеносущность, у которой непонятно что творится в голове, она не понятно как замотивирована, но при ближайшем рассмотрении оказывается замотивирована она как требует сюжет о враждебной ксеносущности :)
И эта ксеносущность при этом создана людьми для людских целей и с системой мотивации, настроенной так, как эти люди захотели.
Так это и есть «ксеносущность» :) Относительно людей конечно же.
Создана то она людьми и для их целей, но суть то в том, что ИИ постоянно учится и эволюционирует, в этом его суть. Ну, по крайней мере, так предполагается.
Эволюция подразумевает целевую функцию! Кто задает целевую функцию?
Хороший вопрос. Кто же ее задает в случае людей? :)
Естественный отбор и все наслоения и следствия, которые накопились за миллиарды лет. Кто задает целевую функцию в случае сильного ИИ?
А как вам такой вариант — это может быть сам ИИ? Определяет, где проблемное место / недостаток и ставит цель это исправить.
Как определяет? :) Глобальная цель все равно должна быть, даже если локальные минимумы алгоритм обходит сам. В случае жизни человека в материализме ответ на «в чем смысл жизни» простой — валяй, умирай, остальные 7 миллиардов не таких умных будут продолжать жить, и это длится начиная с первичного бульона — кто не хочет жить, тот не живет. Познание доставляет человеку удовольствие, потому что это повышает выживаемость, и так далее… Если мы разрабатываем ИИ, мы обязаны будем задать целевую функцию, если более поэтично, от чего этот ИИ будет испытывать страх или удовольствие — минус целевой функции или плюс. В этом процессе возможны факапы, но в целом понятно, что это будет вполне осознающий себя мозг в банке, но без таких ненужных для неживого вещей, как желание жизни или войны за ресурсы. Не потому что это невозможно задать как целевую функцию, а потому что это незачем и вредно.
> Как определяет?

Как угодно, да хоть профайлингом. Способов найти проблемное место в логике куча, даже уже сейчас.

> Глобальная цель все равно должна быть

Почему?

> Познание

Чем не «смысл жизни» для ИИ?

> войны за ресурсы

Которая, например, может быть спровоцирована ИИ по причине нехватки каких-то ресурсов для достижения поставленной цели, и «тупо отжать у людишек» может быть признано самым эффективным способом их получить.
Почему?
Способов найти проблемное место в логике куча, даже уже сейчас.
Вы второй раз делаете ошибку. Чтобы найти проблемное место в логике, нужно знать требуемый результат, иначе как отличить проблему от не-проблемы. А чтобы знать требуемый результат, нужна цель, или метацель, если угодно. Ее будет задавать создатель, больше некому. Возможны ли баги в задании цели? Конечно, любая программа содержит ошибки. Но чтобы они стали фатальными, нужно подключить ИИ к системе пуска ядерных ракет.
Интересно, сможет ли IBM использовать эти чипы для улучшения работы Watson'а?
Вероятно, там откроется столько новых возможностей, что лучше будет построить Холмса.
Нашел статью на Хабре, где говорится о программной эмуляции архитектуры TrueNorth. Как я понял TrueNorth будет следующим поколением искусственного интеллекта после Watson'а.
Извините что пишу это здесь, но только заметил: получается забавная игра слов Watson — «What, son?» (своеобразное уточнение при недопонимании вопроса). С пятницей всех.
Как видно из отсутствия ажиотажа простым смертным, как мне, это ничего не даст?
Массы еще не осознали потенциала
Ждем первые реальные устройства на нем
Реальное создание сильного ИИ приведет к коренному слому того, что было раньше. Как люди в 60х годах не могли себе представить нынешнее время, так мы пока не можем представить к чему это приведет. Единственный факт который можно предугадать точно — изменения будут колоссальные.

Даже просто решение задач распознавания двинет вперед целые отрасли.
И правда, разве кто-то в 60х мог себе представить запрет на ввоз французского сыра или вай-фай только по паспорту? Они просто вообще не знали, что это такое — французский сыр и вайфай.
Господи, ну только здесь вот не надо этой политоты. И так все загажено, вы и сюда тащите.
UFO just landed and posted this here
Представляю лет через 20 смартфоны с таким процом с какой-нибудь Humanoid 4.1.1 на борту
Для начала в этом случае представьте себя невымершим через 20 лет XD
мне будет 45, думаю не вымру
Интересно, мне казалось что такие решения будут в виде ПЛИС, ну или хотя бы в составной части.
А зачем ПЛИС? ПЛИС удобно для очень мелкосерийного производства и для отладки, а дальше можно отпечатать уже нормальную схему, и дешевле и производительнее.
Например, чтоб не делать полносвязную коммутационную сеть между нейронами (я сомневаюсь что она реально полносвязная) на кристалле, гибче сделать это через ПЛИС — будет доступна любая топология.
Любая конечно нет — потому что коммутация и в ПЛИС не все-ко-всем.
Не суть важно, на ПЛИС можно сделать связи промежуточные. А тут какой кристалл — такие и возможности. Никакой гибкости.
Ну во первых там есть блок router, он и выполняет всю коммутацию, вряд ли там жестко связи зашиты. Ну и опять же — ПЛИС будет медленно и дорого, а по гибкости блок маршрутизации должен вполне покрыть все потребности.
А можно будет встроить такое нейронное ядро в обычный процессор, как, к примеру, встроенное в современные процессоры видео? Вопрос, возможно, дилетантский, но я не являюсь специалистом в этой области. Собственно, позволяет ли сама архитектура такую интеграцию? Еще вопрос такой — а можно элементы такой нейросети делать на аналоговых элементах?
Можно его ставить как доп чип — сопроцессор и нужные задачи посылать на него как это ранее было с PhysX
Если всё настолько круто, то машины-роботы в скором времени не будут требовать лидаров, пяток видеокамер с таким чипом — и вперёд.

Что за бред? В чем связь лидара и этого процессора?

На FPGA уже довольно успешно оптимизируют алгоритмы компьютерного зрения, в том числе и алгоритмы стрео-матчинга, добиваясь обработки в реальном времени, но пока что-то лидары с рынка не ушли. Да и пока не ясно, насколько хорошо на эту архитектуру могут лечь алгоримы стерео-зрения.

А так пока результаты не впечатляют, детектор обектов на qVGA в реалтайме можно получить даже без GPGPU. Особенно учитывая, что про точность распознавания тут тактично промолчали маркетологи.

А вообще интересно было бы в руках такой процессор повертеть…
Хотел про FPGA, опередили :) Насколько я понимаю, в нейрочипах основная проблема не совмещение памяти с вычислителями при их распараллеливании, а в перекрестных связях. Т.н. «тирания межсоединений». Потому и надеются все на оптические вычислители, дабы потоки света проходя друг сквозь друга, легко устанавливали связи «каждого с каждым». А распознавание таки да, не впечатляет. Нынче велосипед от пешехода без всяких новых чипов отличают. Другое дело как тень от елки на обочине на асфальте от ямы отличить.
В том, что эта штука не только стереоматчинг сделает, но и селектирует объекты.
Детектор объектов по большому количеству классов, работающий в реальном времени? Ну-ка пример. Всё что я видел — либо неточно, либо мало классов либо медленно.
А тут есть возможность натренировать большую сетку и добиться её стабильности работы.
При этом вместо FPGA+кластер для распознавания вы получаете один чип (мне кажется, что с задачкой определения расстояния должна очень простая нейросетка справится, уж как что-что, а как коррелятор они хорошо работают).
И, кстати, машин-роботов без лидаров я почему-то всё же не видел.

Мне всё-таки верится, что точность распознавания у них высокая. Иначе бы они не стали так позорится и задачку попроще выбрали.
Конечно, интересный, чип. Не первый, впрочем, и явно не последний. Но ценность в нём, пока, в основном как в хорошем заделе на будущее. Пока алгоритмы на симуляциях близко не приблежаются к реальным нейроном по алгоритмам делать окончательное устройство, наверное, рановато.
Чешу репу как это можно использовать в криптовалютных сетях. Есть у кого здравые идеи?
Первое что приходит в голову простой proof-of-work. Алгоритмы?
Имхо, никак. Тут совсем другие принципы работы.
Хотя, можно попробовать изобрести криптовалюту, заточенную специально под это дело :)
А у меня есть возможно в корне ошибочная уверенность, что такая архитектура как нельзя кстати подходит для криптовалютных сетей.
Представьте, что:
  • нейрон = публичный ключ
  • синапсис = транзакция

У меня одного фантазия заболела тем, что вот это именно то, что нужно, чтобы зафигачить неубиваемый ИИ в масштабах всей планеты в близком будущем?
Разработка конечно впечатляет. IBM молодцы. Но только нужно учитывать что они в железе реализовали полносвязные spiking сети, которые пока что не показали сколько нибудь впечатляющих результатов на серьёзных практических задачах (в отличие от, например, сверточных сетей). При этом единственные преимущества таких сетей это близкая аналогия к работе мозга и низкое потребление. Очень хорошо на эту тему высказался Yann LeCun: plus.google.com/app/basic/stream/z131jvahwnz2ilme022rxx5icvbpi1dzp04
Sign up to leave a comment.