Как стать автором
Обновить

Комментарии 54

Интересно, у кого первым получится сделать «сильный ИИ».
Научные центры? Военные? Рекламщики-продавцы? Биржевые игроки? Чат-боты? Зловреды?
Я ставлю на биржевых ботов, которых научат писать статьи, делать правильные новости и фейки, предсказывать реакцию на свой труд.
Тут больше вопрос в определении, мы почему то ставим человеческий мозг в эталон, хотя по моему обычная программа со своими алгоритмами.
Порно индустрия же.
У Пелевина в Iphuck10 даже описан вариант развития)) Но и боты там тоже есть… да и вообще ИИ силён и его много…
мне больше вариант Розова нравится: интеллект очень слабый и изначально не нацелен на общение, зато включена функция домоводства с использование человеко-ориентированного оборудования. В результате падение числа браков: основные функции закрыты, а регулярно беседовать с женщинами многие мужчины не привыкли.

Важно кем станет тот кто напишет «сильный ИИ».
А то военные могут резко стать биржевыми игроками, а рекламщики — военными.

НЛО прилетело и опубликовало эту надпись здесь

Никто. Потому как низззяяя!
Симулятор (Всевышний — кому как нравится) не позволит возвысится до его Высочайшего уровня.
(не сарказм)

Вавилонская башня?
Одиночек даже в мысль не берёте?
Да, даже не подумалось, что это может сделать одиночный исследователь.
порно индустрию забыли. Главный двигатель прогресса во многих it-направлениях.
Ставлю на сами ИИ, когда они начнут охотиться за накопленными «знаниями» друг-друга, чтобы стать «сильным». )
Чтобы оставаться на плаву в этом море возможностей, «необходимо обобщать и выделять суть»

На это тоже можно нейросетку натренировать. На получение задачи и самостоятельное выделение критериев успеха для этой задачи.
Ниже — нейросеть, задача которой — конструировать другие нейросети и обучать их по критериям, полученным от первой…
То есть, получается нейросеть, конструирующая нейросети, конструирующая нейросети…
Интересно было бы посмотреть, что из этого может получиться.
Может получиться некоторый локальный экстремум и упрется вся эта система в тупиковое русло.
Если смогу решить проблему подобного исхода, тогда конечно будет весьма эпичное зрелище.
Это да, если оставить «ЭТО» бесконтрольно плодить нейросети, оно только и будет этим заниматься, «сбоку» нужен какой-то управляющий механизм (как-бы второе полушарие), чтобы они перекрёстно друг друга контролировали… а главное могли вносить корректировки в системы «наказаний и поощрений» соседа.
Согласен, что подобная система контроля нужна, но где уверенность, что она сама не будет подвержена проблеме локального экстремума?

Просто даже человек подвержен этой проблеме, особо в ярких случаях она называется как «глаз замылился».
Еще, например, если спросить взрослого человека, что значит это строка «одтчпшсвдд», он изрядно задумается (в большинстве случаев), в то время как ребенок достаточно быстро ответит, что это первые буквы чисел от 1 до 10.

Если мы сможем избавить системы от подобных болячек, откроются двери перед всеми вариациями решений/знаний, которые недоступны людям по тем или иным причинам.
Еще, например, если спросить взрослого человека, что значит это строка «одтчпшсвдд», он изрядно задумается (в большинстве случаев), в то время как ребенок достаточно быстро ответит, что это первые буквы чисел от 1 до 10.


У ребенка просто нет того массива информации из которого можно исходить. Ваше обьяснение одно из возможных, а взрослый человек учитывает допустим обстановку, личность задающего вопрос, проводит анализ предидущего опыта, etc.
Это понятно, но суть вопроса в другом. Как вообще достаточно умную систему научить не втыкать в одно решение, а находить достаточно быстро все доступные (или их часть, главное быстрее и больше человека).
Т.е. не быть такой тугодумной, как взрослый человек в некотором классе задач.
Насколько мне известно, из локальных экстремумов сейчас выходят мутациями — с маленькой вероятностью ИИ пробуют не самый эффективный метод и таким образом идут в обход. (Если не повезет, правда, на это уйдет много времени)
Статья на Гиктаймс от 2038 года: «Почему у реального мира есть проблемы с самообучающимся искусственным интеллектом»
Статья на Гиктайм от 2042 года: «Почему ИИ поставил ультиматум: прекратите войны и интриги, которые мешают или будете уничтожены?»
Вспоминается история про админа который сделал самообучающихся ботов для кваки, запустил сервак и отправил их сражаться. Через какое-то время обнаружил что боты не сражаются. Перезапустил сервер. Опять боты немного повоевав прекращают драться. Поковыряв логи обнаружил что боты очень быстро приходили к выводу что лучший способ победить — не воевать.
Не знаю насколько правдоподобно. Но заставляет задуматься.
В статье не зря упомянули про целевую функцию. Возможно она была задана так, что выдавала высокие значения за сохранение жизни бота, но слабо учитывала его победы.
Если предположить, что боты обучаются независимо, то дилемма заключенного не позволит им прийти к пацифистской стратегии даже при стремлении максимизировать вероятность выжить.
По-моему это просто сюжет фильма Военные Игры так мутировал в чьей-то памяти.
идеальная информация

«Perfect information» может переводиться как «полная информация», и в этом случае это будет верным устоявшимся термином. Игры бывают с полной и неполной информацией.
Почему у самообучающегося искусственного интеллекта есть проблемы с реальным миром

Да потому, что у самообучающегося естественного интеллекта(?), который его пытается создать, у самого с реальным миром, зачастую, всё не очень хорошо.

Наверное эта статья была бы для меня более понятно если бы я хотя бы отдалённо понимал хоть одну из игр о которых говорится в статье.

Начните с шахмат.

Лучше с шашек, они несколько проще.

Точно подмечено: для того что бы натренировать человеко-подобный ИИ для начала надо сформулировать целевую функцию для существования человека… а с этим не так все просто, начнем с того, что процентов 90+% людей просто не парятся над целью своего пребывания на этой отдельно взятой планете…
НЛО прилетело и опубликовало эту надпись здесь
Если не углубятся в формализацию, то все достаточно просто. Целевая функция для существования абсолютно всякого человека — «исполнение желаний», причем «своих».
Эдакий «сам себе джин».
Проблема в том что от роботов мы хотим совсем другого)
… начнем с того, что процентов 90+% людей просто не парятся над целью своего пребывания на этой отдельно взятой планете…

Можно начать с продления времени на раздумывания.

Чтобы увеличить машиновремя, затрачиваемое на раздумывание, можно не только уделять этому больше своего времени, но и распараллеливать на другие ядра — воспитывать детей, находить единомышленников.

Цель, наверное, максимизировать счастье за весь отведённый промежуток времени.
Ага и осталась маленькая задачка — сформулировать в цифрах понятие счастья :)
Поддержание уровня цифровых аналогов дофамина, серотонина, окситоцина и пр.
Кончится электродом в центре удовольствия.
«Мы сделаем вас счастливыми» из к/ф «Отроки во вселенной».
Осознаваемые цели могут быть какими угодно, но бологически у нас у всех цель одна, и она, так сказать, hardcoded — размножение.
Размножение — это один из способов сохраниться (существовать, быть, продлиться, выжить) — либо самому, либо в виде потомков. Биологическая форма сохранения — самая надежная. Земле примерно 4.5 млрд лет, а биологической форме сохранения (т.е. жизни) 4.0 млрд лет — подавляющую часть времени существования планеты Земля на ней была биологическая/органическая жизнь.

Ну вообще-то она есть у человека, как у любого другого живого существа-выжить на столько, чтобы оставить и вырастить потомство на столько, что бы она могло размножаться.На это направленны все эволюционные процессы человека.Но для ИИ не подойдёт(бонально будет только на это ресурсов тратить).По этому как и человеку, который выбрал путь духовное развитие(или жизнь для наслаждения, люди бывают разные, но для примера не очень подходит), также и ИИ должен выбрать развития себя и Науки просто ради науки.Что бы этого добиться надо вести поощрительную систему для него(без удовольствия, как и человек, он нечего не будет, так как смысла в этом не будет видеть).Причём поощрать сможет только человек(скажем сложную систему, основаную на прочтение мыслей того кто будет поощрять), так он будет нам подконтролен.

для начала надо определиться с основными понятиями той области, к которой относим термины информация, знание, умение, целеполагание.
ибо тут такая каша, что без 100 байт не разберешься

пока понятия сформулированы на уровне:
информация это сведения о чем-то…
сведения — это информация о чем-то…
мы только и сможем, что улучшать узкие области деятельности (игру в шахматы/старкрафт), уже основательно проработанные мозгом, как в 20-ом столетии улучшили наши способности к счету, начав применять калькулятор.
формулировать понятия идеального мира мышления- это не в доту/старкрафт/покер более лучше шпилить…
НЛО прилетело и опубликовало эту надпись здесь
Как я понял, нужно дать ии более полный контакт с миром. Ну и добавить возможность создания новых целевых функций, с возможностью выставления приоритета. А далее обучать и показывать, как и зачем их создают люди.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
В статье есть неточность. В частности, в ней перечислены игры и сказано, что в них надо уничтожить соперника. Среди перечисленных игр упомянута игра Го.

Так вот: в игре Го не стоит задача уничтожить соперника. Этим она отличается от большинства остальных игр.

Победа в игре Го — это захват чуть большей территории, чем у соперника. Разницы в пол-очка достаточно для победы.

Подразумевается, что после захвата территории начинается война и живым остаётся тот, у кого больше захваченной территории. Го это только первый этап глобальной стратегии захвата мира. :)

Простите, но это неверно. Если бы Вы уделили некоторое внимание самой стратегии игры Го, Вы бы узнали, что жадность в игре Го наказывается. Философия этой игры говорит, что невозможно забрать всё, что всегда надо отдать, чтобы получить. Это игра «зато».

— Я отдам тебе этот угол, зато получу влияние на центр.
— А я отдам тебе влияние на центр, зато получу темп и еще тут создам угрозу.
— А зато я использую влияние в центре для того, чтобы уменьшить твои территории и построить большую зону в центре, чтобы если ты вторгнешься в центр, то я использую влияние, чтобы пленить вторгнувшиеся группы.

И так далее. Нет в игре идеи о тотальной победе. Более того, в игре есть идея о красивой победе, о красивом ходе игры и о красивых постановках камней. И красивая победа, как правило, тонка и изящна.

Более того, если настоящий, понимающий игрок Го сделает грубую, некрасивую ошибку, он расстроится не из-за проигрыша, а из-за нарушения гармонии, из-за того, что испортил красивую игру.
Почему у самообучающегося искусственного интеллекта есть проблемы с реальным миром
В статье об этом писали, но как-то не очень сделали акцент, а мне кажется это принципиально важным. Любой из ныне существующих типа-ИИ существует не в объективной реальности. Он от нее изолирован и существует исключительно в той реальности, которую создал для него человек. Любая игра, придуманная человеком — это продукт его ума, где он обобщил свои мысли/наблюдения/свой опыт и представил в виде некой абстракции, при чем весьма детерминированной: и в шахматах, и в Го, и в старкрафте есть правила и принципы. При чем они изначально определены и детерминированы человеком. Это продукт его ума… Получается, что нынешние ИИ — существуют в выдуманном человеком мире. И да — они научились «жить» в этом мире лучше, чем это делает человек. Но человек то живет не в этом выдуманном мире детерминированных абстракций, удобно описанных конечным набором правил. Человек живет совсем в другой реальности, и интеллект человека — следствие того, что он вынужден был выжить в этом мире, где совершенно отсутствует определенность и детерминированность. Выжить, адаптироваться или умереть. Тут совсем иные «правила игры». Вернее полное отсутствие игры и правил. Выходит что изначально «ИИ» и естественный интеллект существуют в принципиально различных сферах. И высокая адаптивность ИИ к сфере определенных и детерминированных человеческих абстракций ну никак не приведет его к развитию «а-ля человеческого интеллекта», адаптивного к миру полностью неопределенному и не детерминированному.

И кстати — усилия естественного интеллекта по формированию объясняющих абстракций (представлений о законах природы и правилах социального взаимодействия) — это лишь один из способов адаптироваться к неопределенности мира, попытка его предугадать — из «ничего» сделать «конфетку». А для ИИ сейчас лишь отводится задача «вот тебе куча конфет научись их выделять и распознавать, а потом отсортируй имеющиеся конфетки по весу/кол-ву калорий/популярности и т.п.».

Итого: 1. Принципиально, даже можно сказать диаметрально противоположные цели и задачи стоят перед естественным интеллектом и ИИ. 2. Принципиально и даже диаметрально противоположные принципы среды обитания у естественного интеллекта и ИИ. Ну и с какой стати при таком раскладе ожидать проявления чего-либо принципиально естественного у искусственного? :)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Изменить настройки темы

Истории