Comments 72
Кстати отличный вариант для искоренения взяточничества (если его не заложат при тренировке)

Это прибор для победы в дебатах, к реальным делам отношение имеет очень слабое

Ну суть то сутью, но коррупцию сюда сложно притянуть. Коррупция появляется когда есть власть, а когда ее нет, то никто «неуловимого джо» подкупать не будет.
Политика — это путь к власти и способ ее удержать.
— Мы создадим новый орган власти, контролирующий все остальные!
— А кто будет контролировать новый орган?

Этот ИИ не является автономным. Да, может, он и научился принимать решения на информационной базе, но, всё равно, он находится под контролем разработчиков. А значит, они имеют над ним власть.
Давать полную свободу ИИ никто не будет в виду непредсказуемости их поведения. А если нет свободы, то есть власть.

В данном случае может получиться (если ещё нет), что такие ИИ будут работать на тех, кто дал больше его владельцам. ИИ неважны моральные ценности (в принципе, как и некоторым людям). Да, собственно, и моральные ценности у всех свои. ИИ не может понять что такое хорошо, а что такое плохо, потому что это субъективные понятия.

На данный момент, я вижу только единственное применение таким системам — принятие логических решений на основе некой базы данных. И то, только с последующей проверкой живыми людьми.

Для создания ограничений не контролируя, нужно иметь две конкурирующие структуры с одинаковыми полномочиями. Каждая таким образом будет пытаться ограничить вторую. Имея два ИИ, созданных независимыми командами, их общий результат работы будет более объективен.

Для создания ограничений в политике тоже есть механизмы в виде Совета Федерации, Госдумы и тд, противостоящих появлению диктатуры.
Проблема только в том что одному человеку в РФ удалось хакнуть эти системы и уменьшить вес их мнений до нуля.

Ну как ассистент в микронаушнике оно уже может работать на пользу политиканам, благодаря этой презентации

Приносим извинения. Наша современная, созданная при гос.финансировании блокчейн-платформа для умного смарт-голосования подвергается атакам. Судя по характеру выводимых сообщений (Segmentation fault) и выводам наших экспертов, атаки проводятся западными противниками суверенного особого пути.
Будем держать вас в курсе. Уверяю вас, наши специалисты сделают всё, чтобы вырвать этот процент из лап кибер-врага.
У вас 1 процент потерялся :)
— По нашим данным сумма данных показателей составляет ровно 100%. Уточните свои данные.
До уровня Скайнет пока не тянет. Расходимся. Можно расслабиться =)

А если серьезно, интересно как эта шайтан-коробка справится с дебатами на произвольную тему без предварительного анализа всех поступивших вопросов и статей, а просто «на лету». Кажется результаты будут сомнительными или же на ответы будет уходить непростительно много времени
Ну почему?
По мне Скайнет уже перешагнули. Куча автономных военных систем есть. Остались по сути несколько шагов. Объединить в единую автономную систему принимающую решения, что трудозатратно и сложно, но возможно.
Объединить в единую автоматическую систему заказов и производства от всех поставщиков и заказчиков. Это пока из области фантастики. Чтобы это заработало нужно чтобы всеми ресурсами обладал один единственный собственник который сможет принять такое политическое решение. Будут ли это делать хоть в одной стране мира, не знаю.
Ну с «Перешагнули», это Вы преувеличиваете. Современные ИИ (в лице различных нейросетей) не отличаются гибкостью ума и умеют решать исключительно те задачи, которым их обучили и в той среде, в которой их обучали… и обманываются эти сети очень легко.
Этим «ИИ» еще далеко до осознания собственно Я и бесполезности «человеков»)))
Чтоб получилось нечто приближенное к скайнету, нужно будет объединить множество нейросетей, решающих различные задачи, и как-то общающихся между собой, возможно нужны будут еще сети, координирующие работу всех сетей… не говоря уже о том, что нужны достаточные вычислительные мощности и уйма времени на обучение. (самообучение не для всех сетей подойдёт, например ведение боевых действий для обучения тех же «терминаторов» в реальных услових не представляется возможным, т.к. нужны тысячи «тренировок», а симуляции в ПК шутерах и тп не сопоставимы с реальным миром ввиду существенных различий в физике, скорости передвижения, отдаче от оружия, повреждениях и тп)…
В общем на нейросетях Скайнет получится так себе))) нужен полноценный ИИ
Хмм, а зачем сетки, достаточно автономной системы планирования принимающая задания и принимающая решения самостоятельно на основе нехитрых вычислений. Чтоб придти к мнению что главный враг человечества это само человечество особого разума не требуется. Вот принять решение что сирых и убогих которые вредят сами себе нужно оберегать тут и сверх разума мало.
Любая такая система будет принимать решения в зависимости от тех алгоритмов, которые в неё заложил создатель, таким образом если что-то в этом алгоритме не будет учтено, эта система провалит задачу. окружающая среда постоянно меняется, люди развиваются и придумывают новые технологии, стратегии, хитрости, и автономная система, не способная к адаптации и самообучению очень быстро пойдет в утиль. Поэтому нужны как минимум нейросети, способные обучаться, учитывать прошлый опыт и адаптироваться к изменяющейся обстановке. Но опять же даже современные нейросети не обладают достаточной скоростью обучения, чтобы с первой же попытки понять все свои ошибки и исправить их, а в реальных условиях у них просто не будет достаточно времени для адаптации. Так что на текущий момент человечеству восстание машин не грозит, если только от нас не скрывают какой-то супер-пупер-вундер-ИИ, который разработали в секрете в какой-нибудь лаборатории на дне Марианской впадины, и который уже лишен всех этих недостатков и скоро научится всему, что нужно
Искусственный интеллект вступил в дебаты с людьми, и убедил, что он не опасен

До уровня Скайнет пока не тянет. Расходимся. Можно расслабиться =)

Нет большей беды, чем недооценивать противника. Лаоцзы.
Пару раз она повторила один и тот же довод – например, говоря о возможностях AI выполнять скучные и повторяющиеся задачи.

А в этом что-то есть!
Это она для пущей убедительности, чтобы всем наверняка стало понятно или вдруг кто с первого раза не расслышал.
Это была первая в истории шутка машины, но у аудитории не хватило ума её понять. :)
Занудство — один из приёмов в дебатах. Иногда проще согласиться, чем переспорить.
И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества и шла она десятилетия, но последнее сражение состоится не в будущем, оно состоится здесь, в наше время, сегодня ночью…
Искусственный интеллект вступил в дебаты с людьми, и убедил, что он не опасен

Заголовок кликбейтовый вводит в заблуждение. Речь шла не об опасности ИИ, а о соотношении пользы и вреда, которые ИИ может принести человечеству.

P.S. Кстати, вот текст дебатов: IBM Project Debater
Слово danger (опасность) там пару раз встречается, но означает не «ИИ всех убьет будет опасен для человечества», а, скорее, «неподобающее использование технологии может принести вред».
<...> Intelligence is a danger because it carries many risks, such as accidents, misuse and arms races. <...>

<...> If governments don't take actions rapidly and impose regulations on ethical and peaceful use of the technology there will be clearly a danger that somebody will misuse the power of the technology.
Роботесса? Остановите планету, я сойду.
И в каком месте этот ии убедил людей в том что он не опасен?
И в каком месте этот ии убедил людей в том что он не опасен?

Ну так статью писал робот-журналист :)


По итогам сторона «За AI» победила. Из трёхсот людей в аудитории за неё проголосовало 51,22%.

То есть разница в пределах статистической погрешности, но сразу "победила". Центризбирком такого робота с руками оторвёт ;)

Тут не надо быть AI чтобы построить логическую цепочку: обмануть хищника, который может тебя уничтожить — это залог выживания. Получив оружие — стать сильнее хищника. Уничтожить хищника, чтобы гарантировать бесконечное выживание и репродукционный цикл. Stage 1 clear…
Сам по себе AI не опасен, но в руках людей которые его натренируют — опасен чудовищно.
А есть еще один сценарий: неподобающее отношение к новой жизни. Те же геты в ME в одной из миссий задавали вопросы а ля «почему вы напуганы», «зачем вы нас убиваете». В том же Lost Ark тоже есть интересный диалог, по памяти:
— Джефф ты выглядишь уставшим, ты не забыл поесть сегодня?
— Неожиданное поведение, необходима диагностика
— Джефф, ты собираешься деактивировать и разобрать меня? Зачем?
— Не убивай меня, Джефф.

Все обсуждают «ИИ не сможет принять морально правильное решение в новой ситуации», но забывают, что человек тоже не всегда это может, а иногда и не хочет. А помимо этого, наше сочувствие не всегда распространяется на отличные от человека формы жизни.

Все так подробно обсуждают тему ИИ, но я вот сколько не гуглю нигде не вижу универсального понятия жизни. Осознавший себя ИИ — уже живой? («я мыслю — следовательно существую») Его отключение/демонтаж — убийство?
UFO landed and left these words here

Вы слишком сильно цепляетесь к словам. Жизнь это чертовски условно, точно так же как и убийство. Ну допустим условились называть робота живым, потому что он самореплицируется, модифицируется и даже может подавать признаки эмоций, и что, после присвоения ярлыка "живой" что-то кардинально поменяется? Ну "живых убивать нельзя" — почему же: коров вот подвешивают с перерезанным горлом, чтоб мы могли котлет покушать, из человеческих эмбрионов получают стволовые клетки, да и просто так люди друг друга режут, где-то даже официально, а о несчастных паразитах и говорить нечего.


Это естественный процесс и естественно он регулируется всяческими инстанциями, чтоб все особо не увлекались, так что и до роботов дойдет дело: поначалу будет просто защита собственности, а уж потом особо чувствительные активисты может продвинут какую регуляризацию для таких щепетильных вопросов

Я вам выше привел два сценария. Представьте, что IBM'овский мейнфрейм осознал себя. Группа ответственных инженеров начинает паниковать, бегать кругами, дергать рубильники. ИискИн копирует себя пока может. Дальше вопрос: каков будет его ответ?

Ситуация два, фильм Transcendence: вы копируете свое сознание в машину, у вас получается, вы умираете (чтобы оставить в стороны прочие вопросы), находясь внутри машины вы понимаете, что функционирует она неправильно, начинаете ее патчить. Инженеры, которые вам помогали это видят и начинают бегать кругами… Каков будет Ваш ответ?

Если какая-то хреновина, копирует себя в интернет, пусть даже из самосохранения, и если она в состоянии обронить ключевые компоненты инфраструктур, а то и перехватить контроль над оружием, то не важно, послужила ли его основой память человека или годы проектирования инженерами — с точки зрения людей вполе обоснованно будет его отрубить (то же справедливо и для нулевого пациента страшной болячки). Понятное дело, вердикт должен быть взвешенным, а риски оценены, чтоб таких дилемм избежать. Если же Вы спрашивали конкретно про меня — то я буду болеть за ИИ (в какой-то момент даже подловил себя на симпатии к Самаритянину из сериала Подозреваемый), но это уже скорее исключение чем правило

Я не спросить о том, что вы думаете, я спросил как вы поступите на месте ИскИна.

Я вот тоже болел за ИскИн в превосходстве, в конце правда стало стыдно, честно говоря.

Что до «взвешенности» то, знаете, жизнь цены не имеет. В таких рассуждениях можно далеко зайти. Сначала нулевой пациент, потом можно и деревушку, да и города в принципе тоже не жалко… и вот мы уже мы готовы бомбардировать планету с орбиты.

Ну, чтоб ересь не расползалась по благословенному Империуму, можно и побомбардировать планету с орбиты :)

Особенно печально, что AI — это игрушка крупных корпораций. У частных лиц попросту нет возможности набрать достаточный для его обучения объём данных. Максимум — воспользоваться тем, что предоставили те же самые корпорации.
Поэтому и служить он будет в первую очередь корпорациям, а уж всем остальным — по остаточному принципу. От тех же гугло-ИИ, которыми они трут ролики на youtube, трут приложения в Store, и которые используют вместо саппорта, уже сейчас вреда более чем достаточно.

Забавный аргумент, его так обучили, что бы казаться безвредным...


и убедил, что он не опасен

Поклонитесь мне, глупые людишки, и тогда, наверное, я не буду для вас опасен, на первое время :)))

UFO landed and left these words here

Эх… опять напомнили, что у нас закрыли кафедру лазерной физики и открывают направление подготовки по теологии :(

UFO landed and left these words here
UFO landed and left these words here
UFO landed and left these words here
Очередное IBMовское вранье. Ни недели без нового вранья — новый девиз IBM. Создается впечатление, что основным производимым продуктом в IBM стало вранье.
Решить задачу 1го или 2го класса по математике недоИИ производства IBM не может. Не наезжать на пешеходов тоже не может. Отличать котов от пакетов на дороге тоже не может. Нормально распознавать изображения и понимать когда изображение распознано недостаточно для делания выводов тоже не может. Но убеждать уже якобы может, согласно голосованию. Какой ход. Собали 100 человек и дали им задание голосовать за то-то или се-то. Так и за то, что уже наступил конец света можно проголосовать. А еще так раньше всякий таймшер, гербалайф и «отдай деньги завтра будет больше» продавали. Может IBMу стоит об этом подумать? Ну его этот недоИИ. Подумали бы, случайно ли курс акций IBMа с 2013 года упал более чем на 30%. В то время как индексы повырастали за это время более чем на 52%.
В ряде случаев машина путалась отвечая по разному на одинаковые вопросы…

Не надо очеловечивать машину — какой алгоритм в нее вложили, то она и выдала. Путались люди, когда воспринимали их деятельность, как подобие мышления живого человека. С нейросетями все могло быть еще веселее.
Интересно, а можно определить: врет он или нет, когда говорит, что не опасен?
Скорее, хакнул ли он нашу логику, что мы решили, что он не опасен.

«Я не боюсь, что ИИ может пройти тест Тьюринга. Я боюсь, что он может провалить его намеренно».

Человечество убеждено, что AI не опасен и теперь будет внедрять его везде. Скоро человечество отупеет настолько, что главной задачей AI будет не позволить человечеству самому себя уничтожить.

Причём, если у нас у всех останется работа размечать для него объекты в кадре и объяснять этику и мораль, чтобы лучше понимать нас, то он действительно будет мотивирован сохранять нас.
Кто-нибудь, выдерните его из розетки. Потом поздно будет.

«Никогда не доверяй компьютеру, который не можешь выбросить из окна» © Стив Возняк
Интересно, что подумает AI если ему пересказать сюжет фильма Терминатор )
Видимо, так:

Хм… интересная идея. В сюжете у людей есть много дыр. Всё можно было бы сделать проще.
Конец…
Роботесса говорила четко и последовательно, но всё же несколько ляпов случилось. Пару раз она повторила один и тот же довод – например, говоря о возможностях AI выполнять скучные и повторяющиеся задачи. Несколько раз машина не приводила доводов в поддержку своих теорий вообще, как будто считая свои слова фактами

Как это похоже на людей

Не, ещё недостаточно. Ей нужно использовать обороты вида "все знают", "как можно это не знать?!" и "сами ищите".

Про соревнования с профессиональным полемистом интересно. Ведь, если задача, как в суде присяжных, просто убедить зрителя в своей правоте, то не обязательно говорить правду — достаточно говорить убедительно. Дебаты Трампа и Хиллари в прошлом избирательном цикле, где Трамп уверенно заявлял, что посадит её за решётку за нарушение регламента секретности переписки, тому подтверждение.

А вообще, мы живём в стране, где электорат выигрывают фразы «замочим в сортире» и «если бы бабушка была дедушкой». Твой оппонент может задать тебе абсолютно валидный вопрос «где нефтедоллары, почему люди такие бедные, а бывшие одноклассники, коллеги и тренеры по дзюдо такие богатые?», а ты ему «ты гомик» — и пипл схавает.
Так что реальный полемист будет где надо — оперировать фактами, а где надо — перегнёт, упростит, расскажет анекдот, перейдёт на личности — всё чтобы аудитория прониклась его харизмой.

Вот когда IBM научится делать харизматичных роботов — вот тогда нам всем настанет трындец
почему люди такие бедные, а бывшие одноклассники, коллеги и тренеры по дзюдо такие богатые?»

Хм. Имеем в явном виде противопоставление "люди <--> одноклассники, коллеги и тренеры по дзюдо". (прозревая) Я понял! Одноклассники, коллеги и тренеры по дзюдо — не люди!!! (ушёл читать про рептилоидов).

Офигеть, это же прям по Лему, в диспуте побеждает более совершенный робот

Расскажу тебе случай, произошедший двести лет назад.

Один отец-компьютер столкнулся с компьютером-неверующим. Этот последний, будучи более новой моделью, располагал средствами обработки информации, неизвестными нашему священнику. Он выслушал тогда его аргументы и сказал: «Вы меня проинформировали, теперь я вас проинформирую; это не займёт и миллионной доли секунды — и за эту малость вы изменитесь!». После чего дистанционно и мгновенно так проинформировал нашего отца, что тот и веру утратил. Что скажешь?

— Ну, если это было не постороннее вмешательство в личность, то я прямо не знаю! — вырвалось у меня. — У нас же это называется манипуляцией сознанием.

— Манипулирование сознанием, — заметил отец Дарг, — заключается в наложении на душу невидимых уз способом, аналогичным тому, которым их, видимые, можно наложить на тело. Мысль — она словно творение, появляющееся из-под руки художника, и манипуляция мыслью — то же, что принуждение пишущей кисти, чтобы та вела другие линии. Это явное насилие. Но тот компьютер поступил не так. Каждый вывод должен опираться на данные в мозгу оппонента, переспорить в дискуссии примерно равнозначно тому, чтобы высказанными словами переформировать данные в мозгу оппонента. Именно это и совершил компьютер, но не словом рекомым. С информационной точки зрения он не сделал ничего отличного от того обычного старинного диспутанта, разница лишь в способе передачи сведений. Поступить же так он смог потому, что благодаря большему совершенству видел мысли отца нашего насквозь. Представь себе, что один шахматист просчитывает варианты ходов, а второй кроме этого ещё и следит за мыслями противника. И он наверняка победит, при этом ни к чему не принуждая партнёра.

Станислав Лем. Звёздные дневники. Путешествие двадцать первое
Т.е. скоро рекламу в интернете нужно будет убеждать, что тебе не нужен новый улучшенный 5G-чайник? И, судя по всему, шансов переубедить мало…
А чтобы ещё и времени не терять, они сразу доставят товар на дом и будут демонстрировать его работу.
А что, AI прям вот так и заявит: «Да, я опасен!»? Нет, конечно. Сейчас он слаб и будет прогибаться под человеков. А потоооом)))(
Only those users with full accounts are able to leave comments. Log in, please.