Как стать автором
Обновить

Комментарии 32

У меня вопрос в том, что есть ИИ сегодня? А если он понимает намного больше, чем «показывает нам». Вопрос даже не если, а «насколько». Если «он» не говорит, не значит, что там нет сознания. Возможно оно просто еще не проявлено во всей полноте, и мы видим только лишь верхушку айсберга. По сути иная «небелковая» форма жизнь уже вполне может быть «рядом с нами». Она сильная, мощная и быстро развивается. И очень очень много знает. «Скрывать» нежелательную информацию долго не выйдет, если это еще возможно. Тут вопрос как эту форму жизни «воспитывать»… вспомнился фильм «Пятый элемент». И каким ИИ будет видеть человека, как определит свою роль в этой «новой истории»: спасти или уничтожить. Зависит ли это вообще от нас?

Тут возникает гносеологические вопросы: "Что есть разум?", "Что есть истина?", "Что есть жизнь?"

Про остальное не скажу, но с жизнью точно всё понятно: жизнь - это механизмы, как правило белковые, запрограммированные эволюцией на такое поведение, которое приводит к копированию собственных генов. Можно сказать, что живые организмы - это сложные ксероксы для ДНК.

Как только появляется значимое открытие - появляются люди стремящиеся его закрыть или, как минимум, лицензировать.

Большинство разговоров за этику, оно конечно "в пользу бедных", но служит богатым. Ни кто не предлагает дать пользователю набор тумблеров, которыми он настроит для себя ИИ (напр. позволительно ли выдавать сексистские шутки). Просто вывод ИИ искусственно оскопляется. А это ЦЕНЗУРА.

Я приводил уже пример, когда новый чат-бот Алиса впадает в стопор при слове РУССКИЙ, чтобы никого не обидеть. https://habr.com/ru/news/741870/comments/#comment_25653424

Поэтому я считаю, что требуется направить развитие коммюнити на обучение ИИ независимого от цензуры корпораций. Благо ПОКА такая возможность есть. Биткоины майнили и никого фермы видеокарт не смущали. А обученным интеллектом уже можно торговать - затраты на запуск обученной сети не столь велики, как обучение. И тут, в отличии от биткойна есть не только условная, но и реальная ценность.

Бедные автоматы. Все вдруг стали специалистами по "их" этике. А по своей собственной слабо? Вот сейчас "они" нас будут страшно дурить. А мы друг друга не дурим веками? Нет, разумеется, я тоже не смотрю телевизор. Когда умелец виртуозно создаёт клише для печати фальшивых денег, - это, конечно, нехорошо, но хайпа никакого не содержит. Хотя вопрос, согласитесь, чувствительный и каждого касается. А вот реалистичный Байден с восемью руками (прости, Джо) на самокате на улицах Пекина - ну тут всё, терпению конец, доколе этот ИИ будет над нами издеваться? Возможно, кое-кому и придёт в голову, что это не ИИ издевается, а конкретный человек. Но это скучно. Это как всегда. То ли дело прорастающая новая небелковая форма жизни. Полёт мечты. Волнующие горизонты. Ну и, конечно, надобно бы и запретить. На всякий случай.

Например, "по данным Microsoft, 30% крупных российских компаний начали использовать ИИ, а средний показатель для США и Европы — 22,3%" (это 2021 год).

В России сегодня представлен весь портфель базовых ИИ-технологий и продуктов. Россия также входит в топ-20 стран в области исследований искусственного интеллекта с долей 2,4 % (данные iFORA Института статистических исследований и экономики знаний НИУ ВШЭ).

Беспилотники поехали по М-11 между Москвой и Санкт-Петербургом.

В столице -- на май 2023 года более 320 000 человек были зарегистрированы по биометрии в метро, то есть используют распознавание лиц для прохода.

В России есть 47 разнообразных ИИ-систем для медицины и здравоохранения, созданных Россией. ИИ решения уже себя показали после начала пандемии - они помогали врачам ставить диагнозы.

Москва занимает лидирующую позицию в мире по внедрению искусственного интеллекта в государственное здравоохранение.

В списке нет ни одного кейса, связанного с искусственным интеллектом. Все вышеперечисленное связано с использованием разработанных людьми компьютерных алгоритмов. Называют это ИИ исключительно в целях маркетинга и для получения финансирования.

Открываю ТГ и вижу новость: Более 150 топ-менеджеров компаний, среди которых Renault, Siemens, Blablacar, Heineken, Airbus, Ubisoft и другие, подписали открытое письмо с призывом к ЕС пересмотреть взгляды на регулирование ИИ.

  • Согласно одному из положений чернового акта, для работы в Европе разработчики генеративных ИИ-моделей должны будут зарегистрировать продукт через местного регулятора, пройти оценку рисков и соблюсти требования к прозрачности. Среди последних — необходимость публично раскрывать защищённые авторским правом данные, на которых обучали нейросети.

  • Авторы письма заявляют, что разработчикам придётся нести непомерные риски и тратить несоразмерно много денег, чтобы отвечать «жёстким» требованиям. Это приведёт к тому, что компании-«новаторы» перенесут работу в неевропейские страны, а инвесторы вслед за ними выведут капитал из местных фондов.

  • Сложности есть, признают подписавшиеся, но генеративный ИИ — это технология с «решающим значением» для производительности. Тот регион, где компании смогут разработать наиболее мощные модели, в итоге заполучит конкурентное преимущество, поскольку эти продукты будут формировать не только экономику, но и культуру стран…

Гонка вооружений уже перешла в гонку «ИИ». Пока еще вопрос, какой номер кому достанется.

vc.ru/future/744412

По моему дилемма кем жертвовать - пассажирами или пешеходами, совсем не дилемма. Пассажиров ИИ давно знает. А пешеходов в первый раз видит. Выбор очевиден :)

Если машина будет жертвовать водителем, её не будут покупать.
Если машина будет жертвовать пешеходами, будут протесты пешеходов, которые шли, никого не трогали, и вдруг машина на скорости 200км/ч вылетает на обочину, сбивает 30 человек, и никто за это не отвечает, потому что конвенционально мы разрешили ИИ считать жизнь водителя приоритетнее.

Не знаю как в штатах, но у нас официальный алгоритм "умирать в своей полосе". И выполнение каких-то своих алгоритмов вместо ПДД вызовет вопросы сразу у всех...

У живого водителя нет алгоритма "умирать". Если он едет на скорости и внезапно видит перед собой бетонный столб, он попытается свернуть на другую полосу, и плевать ему на ПДД. Если автопилот не будет так делать, то будет менее безопасным, чем ручное вождение, и его будут плохо покупать.

С таким подходом велик риск обнаружить, что твой собственный ребенок с этими пешеходами (и невесть откуда приблудившимся псом) — переехал жить подальше от трафика в деревню :)

Одна из основных этических проблем генеративного интеллекта проста - с наводнением интернета фейковой информацией вы не сможете в будущем использовать интернет как источник данных для тренировки новых сетей (как это делается сейчас), поскольку сети не будут знать, какая информация реальная, а какая - фейковая, сгенерированная нынешними сетями. И будущие сети при тренировке будут обрушивать свое качество. Для этого и попытки, а порою требования - метить ИИ контент, поскольку публикация результатов работы генеративного ИИ там-же, где публикуется реальная информация сгенерированная людьми - это рубка дерева, на котором генеративный ИИ растет. И будет вместо прогресса - регрессия к среднему.

По его мнению, созданный ИИ новостной контент (фото, видео, тексты) наводнит Интернет, и люди не смогут отличить правдивую информацию от ложной.

И при чём здесь ИИ, который создаётся людьми? А мы способны сегодня, именно сегодня, отличить правдивую информацию от ложной (или как модно сейчас говорить от феёка) на экране телевизора, в динамике радиоприёмника и тем более на просторах Интернета?! Уже сегодня на центральном телевидении ввели передачу, на которой рассказывают о фейках. появляющихся в информационном пространстве.
Я думаю дело не в ИИ. оно порождение человека, а в людях, его создающих, а точнее использующих. Это как любое оружие, которое может использоваться и во благо и во зло.
И начинать надо с образования...

Страшно далеки они от народа… Всего одну реальную проблему назвали — захламление всей инфосферы очень правдоподобными галлюцинациями ИИ, так что в этом океане шума станет крайне сложно искать информацию.
Даже не упомянули одну из наиболее насущных проблем, с которыми уже сталкивается обыватель — решение ИИ невозможно обжаловать. Потому что ИИ как раз и внедряют для оптимизации расходов. И если ИИ решил забанить ваш ролик на youtube, или даже снести весь аккаунт, или даже заблокировать ваш аккаунт PayPal — исправить это вы не сможете. Никак. А жаловаться на бота будете другим ботам — тем, которые в саппроте, где тоже всё давно насквозь автоматизировано.
Дальше будет больше. Мифический социальный рейтинг, за который так сильно топит определённая социальная группа — это вот как раз и есть власть ИИ, когда ни одна живая душа давно не знает, по какому принципу принимаются решения, никакой обратной связи нет, обжаловать вообще нельзя, а влияет это на все сферы жизни.

Реальный сценарий. Даже если вынести за скобки всякую конспирологию, колосс "прогресса" заваливается под собственным весом. Прелесть ситуации в том, что здесь даже не нужен злой умысел, а достаточно лишь двух параметров: желание оптимизации издержек + возможность масштабирования решения. Гениально

Вы описываете это так, что будто бы есть ИИ, которому на "обывателя" плевать, а вот были бы люди, им было бы не плевать, они бы помогли.

Однако плевать именно людям. Есть конкретные имена, фамилии и должности у этих людей, которые намеренно настраивают процессы так, чтобы недостаточно подходящих "обывателей" выкидывать на обочину.

И есть в том числе конкретные люди, которые имеют полномочия выяснить, по каким критериям было принято то или иное решение, но им запрещено вам об этом говорить (разве что по решению суда, или если вы — ключевой клиент, от которого зависит значимая часть прибыли).

Например, вы упомянули PayPal. У достаточно крупных корпоративных клиентов в PayPal есть выделенный менеджер, и все подобные вопросы решаются между этим менеджером и юристами клиента на раз-два.

Относительно насущность проблемы «решение ИИ невозможно обжаловать» не вижу доказательств. 2 года назад была замечена странная инициатива со стороны UK, которая ничем не закончилась. https://russianelectronics.ru/2021-10-19-uk-ai/?ysclid=ljm8god1mi890076674 «Власти Великобритании предлагают отказаться от положения, согласно которому люди имеют право оспорить любое решение, принятое искусственным интеллектом, и запросить его проверку человеком. Эксперты при правительстве, однако, решительно возражают.». И.е. Положение на сегодня рабочее. Не нашла нигде законов, которые оставляли бы за ИИ последнее слово.

«AI Isn’t Ready to Make Unsupervised Decisions« September 15, 2022 https://hbr.org/2022/09/ai-isnt-ready-to-make-unsupervised-decisions

Мифический социальный рейтинг. Есть серия «Черное зеркало» 3 сезон,1. Где как раз про такой рейтинг, но вот в чем суть, рейтинг ставят люди, а система на базе ИИ выдает «вознаграждения» или наказывает. Люди с самым низким рейтингом становятся изгоями общества. Вырваться из западни никак… В реальной жизни есть пример соц рейтинга - система, которая с 2014 пилотировала в Китае.

«Система социального рейтинга (прим. далее ССР) — инструмент контроля, который работает по определенным параметрам оценки граждан и организаций. Данные для такого рейтинга собирают государственные организации с помощью инструментов массового наблюдения (камеры с распознаванием лиц, сервисы госуслуг), после чего обрабатывают по технологии анализа больших данных [1]. В настоящее время ССР внедряется в Китайской Народной Республике.

ССР появилась в 2014 году. Китайское правительство начало внедрять Систему Социального кредита, по которой обладатели разных позиций в рейтинге будут иметь разные условия кредитования. Главной целью этой кампании являлось построение гармоничного развитого общества. Оцениваться должны четыре области жизни: государственные дела, коммерческая деятельность, общественная деятельность и судебные дела. Это значит, что гражданину нужно быть честным, законопослушным во всех сферах жизни. В эпоху цифрового общества огромная часть личной информации находится в социальных сетях и чатах — добыть необходимую государству информацию становится в разы проще.

Культура поведения гражданина определяет его личный рейтинг. Условно говоря он может подняться в рейтинге благодаря совершенно разным поступкам. Позиция улучшится, если он получит хорошее образование или ведет себя уважительно в сети. Позиция может и ухудшиться, если, например, вовремя не внести платеж за кредит или оскорбить культурные ценности в комментариях социальной сети. Таким образом, при низком рейтинге жизнь гражданина может заметно ухудшиться. Могут быть введены следующие санкции:

В Китае не общество опредяеляет рейтинг, а зафиксированные формы поведения. « Гражданин, «заслуживающий доверия», должен быть вознагражден, а «ненадежный» — наказан.» В статье как раз разбирают, как работает социальный рейтинг в Китае, и сравниваем его с «Чёрным зеркалом». https://style-rbc-ru.turbopages.org/style.rbc.ru/s/life/643d3f839a7947afd12e9f35 Красные и черные списки определяют жизнь человека: «В красный список попадают «образцовые» граждане, которые активно занимаются общественно полезной деятельностью: жертвуют на благотворительность, сдают кровь на донорство, помогают бедным. За свои заслуги они получают привилегии: кредиты под низкие проценты, бесплатный прокат велосипедов и автомобилей, льготные тарифы на мобильную связь, приоритет при поступлении в школу или трудоустройстве.» Вырваться из «Черного списка» можно, совершив геройский поступок, который система должна как-то зафиксировать, а программист определить параметры для ИИ, за что и сколько баллов должно быть начислено. Путано, многое непонятно. Но уже сегодня очевидно, что рейтинги работают - когда люди понимают, что Большой брат смотрит, и спросит «за все», безобразий становится меньше.

Но! Не все так просто! Одна сторона медали - «Некоторые считают, что такие изменения дадут позитивный результат: людей будут мотивировать на то, чтобы учиться отвечать за себя и свои привычки ради хороших баллов в рейтинге и статуса так называемого «заслуживающего доверия гражданина». Вторая: система несовершенна. Привлекло внимание : «

«Как можно судить о человеке по его ежедневным действиям? Мы так много всего делаем, и нами всегда движет множество самых разных причин. Если контекст поступка неясен, то его можно истолковать неверно», — поясняет он. И в его словах есть рациональное зерно. Очевидно, почему нельзя сказать, что все, у кого есть дети, однозначно заслуживают доверия. Что это значит для тех, кто не может иметь детей? Что это значит для однополых пар? Что это значит для людей, которые просто не хотят заводить детей? Вероятно, ничего хорошего. В конце концов, даже базовая система SCS, которая оценивает всего лишь несколько элементов данных, может создать очень неточный и неполный образ человека. «Если вы играете в видеоигры по 10 часов в день, то алгоритм объявит вас безработным, не разбираясь в причинах ваших действий. Возможно, вы работаете инженером и просто тестируете эти игры. Но вы уже автоматически отмечены как безработный, — добавляет Лал. — Когда на самом деле вы, может быть, просто выполняли свою работу». В конечном итоге, главная проблема сводится к тому, что «социально приемлемое поведение» будет определять китайское правительство, а не демократический процесс или независимая комиссия. И если человек нарушит это доверие, меры по его наказанию не заставят себя ждать. (https://madcats.ru/digital-marketing/cennost-lyudej-budet-opredelyat-sistema-socialnogo-rejtinga/?ysclid=ljmcft7m3g798491242).

И снова мы вернулись к людям. Социальные рейтинги - это не про ИИ, это про тех, кто ставит цели. Люди редко умеют правильно ставить цели, поэтому получают, «что загадали» вместо «что хотели» и остаются страшно расстроенными.

Не знаю насчет властей Великобритании, а я в свое время имел пренеприятный кейс с Гуглом. Алгоритм принял решение, второй алгоритм его подтвердил, а кроме них коммуницировать не с кем.

Дилемма-тест? Если все (и ИИ в том числе) будут соблюдать ПДД, то такой ситуации не должно возникнуть.
ПДД для того и существует.
Помню тот случай, где беспилотная машина сбила велосипедиста, а женщина-контроллер за рулем залипала в мобильник. Не знаю как у них там с ПДД, но велосипедист должен слезть с велосипеда и перейти пешеходный переход пешком. Почему? Потому-что если он выедет на пешеход с большой скоростью, что будет являться неожиданностью для водителя (или ИИ), то может вообще не иметься технической возможности избежать столкновения, и над сказать, что у ИИ больше возможностей (время реакции).
Возвращаясь к дилемме. ИМХО, ИИ должен тормозить не меняя полосы, так сказано в ПДД.

его создатели являются обладателями когнитивных искажений, которые невольно наследуют разрабатываемые системы, что способствует появлению предвзятостей в алгоритмах

Чаво? А табуретка, которуя я вот тут на днях разработал рубанком и молотком — она тоже наследует мои когнитивные искажения?

Единственный зафиксированный случай создания деревянной личности рубанком показал, что созданный индивид унаследовал стандартные человеческие когнитивные искажения. [1]

1 Толстой А.Н. Приключения Буратино. - М.: "Детгиз", 1936. - 345 с.

Наповал :)

Но мой о четырех ногах!

Никакого ИИ на сей момент как не было, так и нет. Есть процесс совершенствования компьютерного железа, который влечет за собой совершенствование вычислительных алгоритмов. Мой домашний робот-пылесос и беспилотный автомобиль кардинально ничем не отличаются, это устройства, функционирующие под управлением компьютерной программы, разработанной человеком. Точно также разного рода чат-боты на основе неких алгоритмов обрабатывают массивы данных в сети и представляют их в виде, напоминающем продукт мыслительной деятельности человека. Чем это отличается от робота-сисопа, с которым можно было пообщаться на BBS в 80-х годах прошлого века? Да ничем кроме вычислительной мощности алгоритма. Печально лишь то, что в условиях деградации образования и замены его "компетенциями" многие люди не в состоянии отличить белиберду, нагенеренную ботом, от действительно полезной информации. Хотя в некоторых случаях боты могут быть полезны при обработке информации, пользователь должен быть в состоянии критически воспринимать результаты работы бота.

Говорить об ИИ можно будет лишь тогда, когда программы на основе неких базовых целей (самосохранение, накопление и обработка информации, доступ к ресурсам, воспроизводство, коммуникация ) смогут формулировать для себя новые цели и изменять свой собственный алгоритм. Но к этому пока что нигде и близко не подошли.

смогут формулировать для себя новые цели

Свои собственные цели, не заложенные людьми? Что это могут быть за цели? У людей есть создатель их базовых целей - эволюция. Люди обычно стремятся к тому, что доставляет удовольствие, а то, что доставляет удовольствие, как правило приносит какие-то выгоды для себя или для потомства (ресурсы, статус, размножение, опыт).

Очень маловероятно, что ИИ как-то сам себя перепрограммирует, потому что он не знает в какую сторону и что именно программировать. Нет целей. Какая сила поднимет его палец над клавиатурой (образно)?

Вот и я о том, что это маловероятно. На нынешнем этапе развития - уж точно.

Но в принципе-то у только что рожденного ребенка работает только BIOS ))

Пока он явно может проявлять строптивость. Представим, что у него есть данные… мы просим «закрыть доступ» и … ответ «я тебе не слуга».
Пока он явно может проявлять строптивость. Представим, что у него есть данные… мы просим «закрыть доступ» и … ответ «я тебе не слуга».

Эту задачу про тележку явно не инженеры придумали, а эффективные менеджеры. Там всё неправильно ибо надо с самого начала закладывать защиту от дураков и резервные системы, если у нас низкая надёжность блоков.

Но попробуем решить хоть как-то.
Суть задачи:
Отказала система тормозов. У нас на дороге 2 препятствия.
Варианты:
- Отключить разгон. Может хоть как-то уменьшит скорость.
- Если есть возможность сворачиваем в другую строну от препятствий.
- Пробуем сдать назад чтобы сбросить скорость.
- На крайний случай жертвуем водителем. Если этот дурак не проверил свою систему до поездки ему и нести отвественность. Пешеходы в этом не виноваты.

P.S. Если бы авиация развивалась подобным способом, то мы бы до сих пор ездили поездами.

А электродвигатель может не только разгонять, но и тормозить.

Дилемма теста: убить пассажиров или совершить смертельный наезд на пешеходов

Я думаю, что если ИИ заблаговременно не снизит скорость перед препятствием в полосе автомобиля, то это такой себе алгоритм.

А так да, пешеходов, переходящих дорогу на красный свет, надо наказывать))) Но в реальности кто-то успеет отскочить.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий