Comments 14
Утверждается, что в качестве проверки работоспособности идеи уже был произведен тест — ИИ на симуляторе подали случай замерзания измерительных приборов самолета. В реальном полете человек двадцать минут набирал и терял высоту, разбираясь в ситуации, а IBM Watson успешно нашел место аварии и сообщил об этом. Сейчас ведутся работы по разработке кабинного интерфейса, чтобы встроить систему в существующий кокпит. Также IBM Watson учат понимать еще и радиопереговоры.


Памятник погибшим в катастрофе рейса 301 Birgenair


Рейс 310 упал через 5 минут после взлета и не из-за замерзания измерительных приборов самолета. КПДВ — вещь хорошая, но она должна бы быть в тему.
А с чего вы взяли, что IBM Watson в качестве примера привели катастрофу рейса 301? Наверняка это была другая история, судя по описанию, закончившаяся благополучно. Катастрофы рейсов 301 и 603 приведены здесь в качестве пояснения, к чему могут привести ошибки подобного рода.
а другой экземпляр отправился на пять лет в Австралию работать в сфере нефте- и газодобычи — крутить вентили и определять утечку газа

С этими большими корпорациями всегда так. Сначала обещают в космос отправить, а потом обнаруживаешь себя в какой-то шахте и без права разрывать контракт.

Никогда такого не было, и вот опять!
Сказал боцман прикладывая палец мертвецки пьяного горожанина к договору на должность матроса.
Это же надо будет либо на самолет отдельный сервер ставить с ватсоном, либо протягивать толстый канал связи, по которой отдавать ему телеметрию…
Сдается мне, что там будет адаптированная под конкретно эту задачу меньшая система.
— Открой дверь модульного отсека, Хэл
— Извини, Дэйв. Боюсь, что я не смогу этого сделать
Вы еще вспомните «Дознание пилота Пиркса», где ИИ хотел власти над миром и подстроил аварию. Как минимум один ответ на это еще Азимов придумал, а человечество отличается умом и сообразительностью. Не то, чтобы опасности не было, но сдается мне, что это больше страхи, чем реальная угроза.
Перечитайте книгу. О власти над миром там речи не шло: он не хотел, чтобы его пустили в серию, т.к. это сделало бы его рабом, и одновременно он не хотел оказаться хуже человека (не помню, по каким соображениям). Цель была — оказаться негодным для серийного производства из-за превосходства над человеком по выдерживаемой перегрузке.
Вот прямая цитата из письма, которое получил Пиркс
Я задумывался над тем, что дала бы мне власть. Очень мало, ибо невелика честь господствовать над такими существами, хотя это и больше, чем ничего. Разделить вашу историю на два куска – до меня и начиная с меня, – изменить ее совершенно, разорвать на две не связанные части, чтобы вы поняли и запомнили, что сами же наделали, когда создали меня, на что замахнулись, замыслив изобрести покорную человеку куклу, – это будет, я полагаю, неплохая месть.
Поймите меня правильно: я отнюдь не собираюсь стать каким-то тираном, глумиться, уничтожать, вести войны. Ничего подобного! Я добьюсь того, что задумал, не насилием, а полной перестройкой вашего общества, так, чтобы не я и не сила оружия, а сама ситуация, будучи однажды создана, понуждала вас к поступкам, все более согласующимся с моим замыслом. Ваша жизнь станет всемирным театром, но ваша роль, однажды навязанная вам, станет постепенно, как это всегда бывает, вашей второй натурой, а потом вы уже не будете знать ничего, кроме своих новых ролей, и только я один буду зрителем, который понимает происходящее. Всего лишь зрителем, потому что вам не выбраться из ловушки, лишь бы вы ее построили собственными руками, а уж тогда мое активное участие в вашей переделке будет закончено. Вы видите, я откровенен, хотя и не безумен, поэтому я не расскажу вам о своем замысле; его предварительное условие состоит в том, чтобы планы электронных фирм были похоронены, и вы мне в этом поможете.
Был не прав. Видимо, спутал письма двух членов экипажа. А соображения про способ оказаться негодным — самого Пиркса.
В обоих случаях система искусственного интеллекта, которая смогла бы определить отказавшую систему и сообщить, показаниям каких приборов можно доверять, могла бы предотвратить катастрофу.

Строго говоря, в случае со сломанным ПВД, система естественного интеллекта совершенно так же могла бы определить отказавшую систему и предотвратить катастрофу.
Это какая-то маркетинговая уловка — презентовать нерепрезентативную статистику как доказательство ненужности саписенса.
Сколько лётных происшествий с ПВД не превратились в катастрофу в руках хомо?
Для систем естественного интеллекта есть такая штука как CRM, где как раз пытаются недостатки реального сознания победить. И там хорошо известно, что люди как раз могут путаться, излишне фиксироваться на одной проблеме, терять общую картину. Посмотрите сериал «Расследование авиакатастроф», там хватает историй, когда проблема именно в несовершенстве сознания обученного и добросовестного человека.
И о ненужности никто не говорит. Дело в том, что связка человек+ИИ будет безопасней, чем только человек.
У меня два возражения, или, мягче сказать, неуверенности:
1) Какова статистика роботов, повредившихся столовой вилкой, по сравнению со статистикой людей, так же поранившихся столовой вилкой? Что это говорит о перспективах вручить вилки роботам для обслуживания людей?
2) При сценарии «человек, сложа руки, смотрит за нормальной работой ИИ» — человек расслабится и разучится решать внештатные проблемы, может статься, и нормальное пилотирование призабудет. При сценарии «ИИ, сложа руки, смотрит за нормальной работой человека» — совсем непонятно, когда ИИ должен забрать штурвал (Пример: катапульта сложного в управлении Як-38 высаживала сапиенса при любых подозрениях, в результате чего погибших пилотов на Як-38 примерно один человек, но много угроханных почём зря самолётов; в отличие от Харриера, у которого убитых десятки, но мало брошенных без управления самолётов. И это боевые, где живое население = единица. В случае пассажирского лайнера весьма будет туманно количество «спасённых вусмерть» летательных аппаратов).

Посыл статьи понятен. Но ИМХО слишком оптимистичен.
Only those users with full accounts are able to leave comments. Log in, please.