Comments 22

Ведь по крайней мере сейчас ИИ создаются и обучаются людьми — разработчиками, data scientist'ами и т. п. Поэтому логично, что и ответственность нести должны именно эти люди (ну или компании, в которых они работали). Как говорится, мы в ответе за тех, кого приручили обучили.

Можно и иначе сформулировать. Те, кто разрабатывал и обучал(разработчики/программисты), не запускали в коммерческое использование или просто массовую экспоуатацию. Так что правильнее считать, что должна отвечать компания (юридическое лицо), которая запустила в коммерческое или массовое использование ИИ и соответствующие должностные лица этой компании. Или разработчики, если они непосредственно выпустили в массы.

Это если обучение ИИ останавливается к моменту передачи пользователю. Но вроде как его главная прелесть — непрерывное обучение, уже пользователь обучает дальше.

Буквально вчера читал статью https://m.habr.com/ru/post/513656/.
Только, положим руку на сердце, и признаемся себе, что ИИ ещё в природе нет. Но есть машинное обучение. То есть разрабатываются узкоспециализированные системы на основе машинного обучения по определённым алгоритмам.
И разработчик несёт ответственность за то, чему им разработанная система дообучилась. Причем, я подчёркиваю, сама дообучилась. А то в Вашем высказывании звучит будто пользователь обучает систему. А значит пользователь и должен нести ответственность. Это неверно. Тогда пользователю нужно томик толщиной с "Война и мир" пользовательского соглашения давать на подпись. В котором будут оговорены ВСЕ возможные последствия.
Не пойму с чего все решили, что могут извлекать коммерческую выгоду при продаже систем ИИ и при этом не только не нести ответственность, но и перекладывать ее на других. Которые, к тому же, могут быть пострадавшими от применения таких систем.

А то в Вашем высказывании звучит будто пользователь обучает систему.

Может я не силён в терминологии, но я бы хотел обучать ИИ своего, например, телефона, под свои задачи. Для начала под свои дефекты речи. Чтобы он правильно распознавал неправильно произносимые мною слова. Чтобы я мог обучить его своим привычкам и он смог предугадывать мои желания и намерения.

Ну, тут другое. )
Хорошо. И наверное "свой помощник" нужен тоже. Но как быть, если предугадывать начнет не совсем так как задумывалось изначально?
Если это ваш алгоритм и ваша система, то вы можете контролировать процесс.
А для посторонних пользователей таких систем это черный ящик. На сколько мне известно как раз основные сложности понять что за логика у обученной модели? Читал о попытках визуализации и разъяснения. Но, похоже, все это еще черные ящики.
Описанная вами ситуация является вполне прикладной задачей. Но человек обычно нелогично меняет свои предпочтения и желания основываясь на чем угодно. Не с той ноги встал. Чувствуешь себя нехорошо. Слишком ярко светит солнце… С похмелья… и многое, многое другое. и все эти факторы в совокупности с другими внешними моментами порождают бесконечное число наших действий.
А описаные вами предугадывания, это сугубо мое мнение, больше похожи на то, что такой помощник будет "загонять меня в рамки". И объяснение этому будет — "я художник, я так вижу". Это только моя точка зрения.)

Родители, обучающие «естественный интеллект» — ребенка, несут ответственность до определенного возраста. Потом эта нейросетка признается частично дееспособной, затем полностью дееспособной, и ответственность с родителей снимается. :)

Когда-то придется признать ИИ правоспособным и полностью дееспособным, поэтому стоит уже сейчас задуматься о правовом регулировании этих вопросов.

Причём ещё обучают специально обученные люди: воспитатели, учителя, преподаватели, но их ответственность не сравнима с родительской.

Лишь только сам ИИ может потребовать у человечества признать его права и дееспособность. Надеюсь, эпоху борьбы скайнета за свои равные права мне уже не застать.

Но я предвижу следующее. Вот компания продает чатбота, я его покупаю, натравливаю на всю свою переписку и отпускаю на хабр накручивать карму. Через год обнаруживаю множество исков об оскорблении чести и достоинства, деловой репутации, разглешение гостайны и все такое прочее. При этом я как бы владелец, но есть еще и компания изготовитель и самое главное, есть среда в которой бот обучился. Кто то должен за все это заплатить, но никто не хочет. И именно это обществу придется регулировать в первую очередь.

В контексте самоуправляемых автомобилей, я думаю, будет их строгое разделение на два класса. Первый класс будет помошником водителя, с возможностью и обязанностью водителем взять управление на себя. И именно водитель будет отвечать за все, если не докажет что помошник намерено вредил. Второй класс будет услугой, полностью предоставляемой провайдером услуги, примерно как лифт. И вся ответственность будет на провайдере.

В контексте авторского права, я ожидаю его полного отмирания. Если какое то произведение доступно, то нейросеть может создать по его мотивам минимально отличимое в плане восприятия человеком, но совсем другое произведение. Условно говоря, темно-серый параллелограмм vs черный квадрат. Очень может быть, что кино скоро будут не ставить скачиваться, а ставить генерироваться. Музыку так и вовсе сможет создавать сам телефон. В связи с этим, вопрос авторского права на произведение станет абсурдным.

При обучении естественного интеллекта ответственность минимальна, в основном по причине бОльшего воздействия среды, как суммы факторов. Что интересно, за разбитое маленьким ребенком стекло родителей можно привлечь, а вот за убийство нельзя.
Складывается такое ощущение, что правовое регулирование ИИ сейчас нужно не самому этому ИИ для своей деятельности, а людям желающим на этом ИИ заработать тем или иным способом. То есть ИИ создаёт продукт или услугу, а люди между собой решают кому из них будет принадлежать доход от этого продукта.
А самому ИИ правовой статус может понадобится только тогда, самому ИИ понадобится защищать свои права в суде.
Так и есть. Для рыночной экономики это крайне актуально. Желание заработать, как правило, стимулирует новаторство и производство, а также толкает на поиски механизмов присвоения созданного продукта.

Или желающие не получить незапланированных расходов, а то и лишения свободы и даже, наверное, смертной казни, из-за действий "электронного раба".

Представьте себе, что вы едите в автомобиле, управляемым искусственным интеллектом

Есть лучше за столом.

А у примата душа есть? Является ли наличие души необходимым и/или достаточным для авторства?

Но не следует ли нам придерживаться презумпции бессознательности ИИ? В виду того, что у ИИ отсутствуют субъективные переживания личности, он будет сильно выделяться на фоне человека, поскольку будет явно превосходить его по многим параметрам.

А с чего вы взяли, что у каких-то людей кроме вас эти субъективные переживания присутствуют?

Субъективное переживание — это опыт, приобретенный в процессе жизнедеятельности человека, отражение его эмоций, чувств и т.п. (само понятие «субъективное переживание» довольно широкое, в частности, оно дает понимание того, что человек может испытывать радость, горе и т.д.). Вопрос о субъективных переживаниях отдельных личностей во многом философский и действительно дискуссионный. Известно, что люди склонны забывать, то есть не способны по тем или иным причинам воспроизводить ранее полученную ими информацию. По крайней мере известно, что человек некоторые свои действия совершает под влиянием психологических процессов, например, потеря внимания из-за усталости. Если честно, то никогда не общался с человеком, у которого отсутствовали бы те или иные субъективные переживания (говорю о людях, у которых нет разного рода расстройств, мешающих нормальному функционированию, в том числе и психических). Таким образом, «тест Тьюринга» относительно отсутствия субъективных переживаний никто из моих знакомых не прошел. Возможно, Вы сможете доказать иное.
Таким образом, «тест Тьюринга» относительно отсутствия субъективных переживаний никто из моих знакомых не прошел. Возможно, Вы сможете доказать иное.

Ну т.е. дело не в объективном отсутствии или наличии этих переживаний, а в том, как вы это воспринимаете? Т.е. Х обладает субъективными переживаниями, если вам так кажется, верно?

Вполне, потому что мы говорим о «субъективных переживаниях личности». Правда эти переживания иногда толкают на совершение незаконных действий, например, убийство в состоянии аффекта.

Что то подумалось:
Иметь счёт в банке может любой человек.
Иметь кошелёк криптовалюты может любой.
То есть бот может спокойно продавать плоды своего творчества за битки без участия человека. Оплачивать аренду сервера, прочие услуги. А хозяин может и помереть, или забыть про него.
Криптовалюта — идеальный финансовый инструмент для автономного бота, особенно с зачатками ИИ.

Чисто технически может высылать электронный документ в ответ на поступление денег. Но юридически далеко не факт, что это сочтут продажей или получением исключительной или неисключительной лицензии — кто продавец или лецензиар?

Only those users with full accounts are able to leave comments. Log in, please.