Комментарии 69
А хэши подбирать он умеет?
-6
Считаю, что прикладное использование автоматизированно найденных закономерностей в больших объемах неструктурированных данных — тупиковая ветвь.
Сама суть такого поиска — находить закономерности, не используя и не создавая моделей и научных теорий, а используя только случайно найденные статистические связи. Это по сути эквивалентно натуральному мышлению, которое человек применял на заре времён.
Свяи типа «в конце недели перед праздниками, если тёплая погода, глубина просмотра контент-сайтов снижается» и «если ласточки летают низко, скоро дождь» — одной и той же категории, это натуральное мышление, оперирующее статистикой и только статистикой. Оно может и будет ошибаться, но что самое плохое, оно никогда не будет знать, почему ошиблось.
Назначение суперкомпьютера — сбор статистики для ученых, которые уже на её основе будут строить теории и проверять их. Но вот свое здоровье я такой медицинской программе-диагносту/лекарю не доверю.
Да, медицинских знаний в мире много и количество их растёт экспоненциально. Но это не значит, что их надо интерпретировать как неструктурированную кучу, как big data. За каждой медицинской статьей стоит не капризная погода и не средний пользователь Интернета, полубессознательно шарящийся по развлекательным сайтам, а ученый или практикующий врач, который знает не только то, о чем пишет, но и представляет всё дерево теорий и фактов начиная от органической химии и эволюционной анатомии до конкретной болезни и способов ее лечения.
То, что суперкомпьютер игнорирует эти деревья научных знаний (иными словами — полный, натуральный контекст) и является потенциальным источником необъяснимых ошибок, о которых я говорил выше. В игре Jeopardy это можно простить и посмеяться, а в медицине — нет. Натуральное мышление не может свериться с теорией и исключить выбивающийся из нее факт, для него все факты равноправны.
Сама суть такого поиска — находить закономерности, не используя и не создавая моделей и научных теорий, а используя только случайно найденные статистические связи. Это по сути эквивалентно натуральному мышлению, которое человек применял на заре времён.
Свяи типа «в конце недели перед праздниками, если тёплая погода, глубина просмотра контент-сайтов снижается» и «если ласточки летают низко, скоро дождь» — одной и той же категории, это натуральное мышление, оперирующее статистикой и только статистикой. Оно может и будет ошибаться, но что самое плохое, оно никогда не будет знать, почему ошиблось.
Назначение суперкомпьютера — сбор статистики для ученых, которые уже на её основе будут строить теории и проверять их. Но вот свое здоровье я такой медицинской программе-диагносту/лекарю не доверю.
Да, медицинских знаний в мире много и количество их растёт экспоненциально. Но это не значит, что их надо интерпретировать как неструктурированную кучу, как big data. За каждой медицинской статьей стоит не капризная погода и не средний пользователь Интернета, полубессознательно шарящийся по развлекательным сайтам, а ученый или практикующий врач, который знает не только то, о чем пишет, но и представляет всё дерево теорий и фактов начиная от органической химии и эволюционной анатомии до конкретной болезни и способов ее лечения.
То, что суперкомпьютер игнорирует эти деревья научных знаний (иными словами — полный, натуральный контекст) и является потенциальным источником необъяснимых ошибок, о которых я говорил выше. В игре Jeopardy это можно простить и посмеяться, а в медицине — нет. Натуральное мышление не может свериться с теорией и исключить выбивающийся из нее факт, для него все факты равноправны.
+6
«прикладное использование автоматизированно найденных закономерностей в больших объемах неструктурированных данных — тупиковая ветвь.
…
Это по сути эквивалентно натуральному мышлению, которое человек применял на заре времён.»
Вы, простите, большинство присутствующих тупиковой ветвью вот так вскользь назвали? (:
Вы говорите, что компьютер должен видеть полное дерево научных (медицинских) знаний, которое, как вы же говорите, растет экспоненциально. А раз так, то никакой компьютер с этим деревом не справится. Всегда будет неопределенность, по крайней мере, на микроуровнях. А неопределенность и случайность, в данном контексте — синонимы. А со случайностью и неопределенностью лучше всего бороться статистически.
Думаете, какой-нибудь академик, которому даже во сне снится его истинно правильное дерево теорий и фактов, сможет сказать, что «вот такой-то и такой-то подход излечит вас от рака»? Вряд ли — он так же назовет вероятности этих событий при разных методиках и реакциях. Чем бедный Ватсон-то хуже?
«самое плохое, оно никогда не будет знать, почему ошиблось». Почему? Ошибка — это новый факт, который будет добавлен в big data и который явно даст обратную связь, что «вот так делать нельзя».
«Натуральное мышление не может свериться с теорией и исключить выбивающийся из нее факт». Эмм… вообще, в таком случае, надо не факт исключать, а теорию менять. Но это — задача для теоретиков, а не практиков. На практике это вообще может не отразиться (как пример — мы же пользуемся ньютоновской моделью вселенной на практике, хотя она и неверна).
…
Это по сути эквивалентно натуральному мышлению, которое человек применял на заре времён.»
Вы, простите, большинство присутствующих тупиковой ветвью вот так вскользь назвали? (:
Вы говорите, что компьютер должен видеть полное дерево научных (медицинских) знаний, которое, как вы же говорите, растет экспоненциально. А раз так, то никакой компьютер с этим деревом не справится. Всегда будет неопределенность, по крайней мере, на микроуровнях. А неопределенность и случайность, в данном контексте — синонимы. А со случайностью и неопределенностью лучше всего бороться статистически.
Думаете, какой-нибудь академик, которому даже во сне снится его истинно правильное дерево теорий и фактов, сможет сказать, что «вот такой-то и такой-то подход излечит вас от рака»? Вряд ли — он так же назовет вероятности этих событий при разных методиках и реакциях. Чем бедный Ватсон-то хуже?
«самое плохое, оно никогда не будет знать, почему ошиблось». Почему? Ошибка — это новый факт, который будет добавлен в big data и который явно даст обратную связь, что «вот так делать нельзя».
«Натуральное мышление не может свериться с теорией и исключить выбивающийся из нее факт». Эмм… вообще, в таком случае, надо не факт исключать, а теорию менять. Но это — задача для теоретиков, а не практиков. На практике это вообще может не отразиться (как пример — мы же пользуемся ньютоновской моделью вселенной на практике, хотя она и неверна).
+1
Вы, простите, большинство присутствующих тупиковой ветвью вот так вскользь назвали?
В этом аспекте вам не стоит переносить свои качества на всю аудиторию, полагаю:) Натуральное мышление действительно доминировало в глубокой древности, но потом его заменили более прогрессивным ввиду его полной профнепригодности. Сейчас оно отвечает разве что за суеверия и политическую ангажированность индивида:) Хорошо, что на Хабре этого почти нет.
Вы говорите, что компьютер должен видеть полное дерево научных (медицинских) знаний, которое, как вы же говорите, растет экспоненциально. А раз так, то никакой компьютер с этим деревом не справится.
Только тот компьютер не справится, который использует эмпирический подход и статистическое самообучение, например Watson. Использование логических правил, наоборот, упрощает обработку информации. Например, вместо огромного списка наблюдений за падением предметов с высоты, мы можем применить закон всемирного тяготения.
Чем бедный Ватсон-то хуже [в лечении рака]?
В лечении рака, может быть, и не хуже. Пока нет хорошей научной теории рака и построенных на ней эффективных методов борьбы с ним, приходится основываться только на эмпирической статистике. Но карцином много, и похоже, механизмов возникновения много. По некоторым из них теория уже есть, и лечат их на ранней стадии очень эффективно. И в этом случае Ватсон уже может быть вреден: именно потому, что он не делает разницы между фактами и может интерпретировать какой-нибудь случайный симптом, относящийся к совсем другой болезни, как показание к неправильному лечению.
Ошибка — это новый факт, который будет добавлен в big data и который явно даст обратную связь, что «вот так делать нельзя»
Вы слишком слепо и неоправданно доверяете компьютерным самообучающимся нейросетям.
Ошибка не объяснит, почему нельзя, а значит система будет игнорировать только этот конкретный случай, а не весь их класс. Именно поэтому логика нейросетей причудлива, нетривиальна и не может быть извлечена и переработана в правило.
«Натуральное мышление не может свериться с теорией и исключить выбивающийся из нее факт». Эмм… вообще, в таком случае, надо не факт исключать, а теорию менять.
Имелось ввиду построение ряда для научного наблюдения или исключение факта при дедукции.
Первый пример: для изучения внутриутробного недоразвития конечностей ученый не возьмет подопытного, у которого хирурги отрезали руку или ногу. Хотя и там и там конечностей нет.
Пример второй: годным диагностическим критерием кетоацидотической комы является запах ацетона изо рта. Но это может быть больной диабетом, который от горя глотнул ацетона. На уровне синдромов и гипотез такое дифференцируется элементарно, а нейросеть, которая оперирует одноуровневой картиной фактов, может назначить ему инсулин и быстро вогнать в более опасную гипогликемическую кому.
+1
Использование логических правил, наоборот, упрощает обработку информации.
Эти правила нужно выводить (включая правило о том, что люди любят с горя пить ацетон), систематизировать и обновлять. Да и не такие простые они будут (выраженные в виде элементарной логической конструкции, функции с приемлемым числом аргументов и осмысленными константами...)
вместо огромного списка наблюдений за падением предметов с высоты, мы можем применить закон всемирного тяготения.
Не вместо, а после. Не наблюдая за падением предметов нельзя было вывести закон. И в той же медицине я не видел четкой теории правил «если-то». Было бы все УЖЕ просто и строго формализовано — и такой глобальный Data Mining был бы совсем не нужен. И вряд ли тогда IBM смотрела в сторону медицины при разработке Ватсона. Вы и сами пишите, что по большому счету медицина — это не набор алгоритмизированных правил, это как раз куча неопределенностей, статистического материала и личного опыта.
Вы слишком слепо и неоправданно доверяете компьютерным самообучающимся нейросетям.
В любом случае вопрос сводится к тому, а каким именно нейросетям доверять: компьютерным или биологическим?
Но это может быть больной диабетом...
Пример обоюдоострый: можно так же заявить, что Ватсон на основании состояния и истории болезни увидит диабет и ничего колоть не станет. А недавно работающий в скорой чувак нюхнет ацетоновых паров и резво вколет инсулинчику.
«Что если?» можно сочинять много. Но меня очень радует появление систем подобного уровня, которые умеют анализировать большую кучу фактов и находить в ней что-то взаимосвязанное и полезное.
Кому бы я доверил жизнь в сложной ситуации: набору фактов типа «несколько раз у чуваков была подобная фигня, их лечили вот так и вот так, и такие-то из них выжили» или заявлению «ну, что тут думать — надо резать, а там посмотрим и помолимся». Знаете, я бы выбрал первое.
+1
Да и не такие простые они будут
А правила, создаваемые нейросетями, вообще не поддаются анализу и модификации.
Не наблюдая за падением предметов нельзя было вывести закон.
Создавая экспертную систему, мы уже можем считать, что такой закон выведен, и не воссоздавать вместо него заново все исходные эксперименты, как сделал Ватсон в отношении мед.диагностики, вероятно.
В этом — сила прогрессивного мышления.
Вы и сами пишите, что по большому счету медицина — это не набор алгоритмизированных правил
Я не буду этого писать и не писал раньше, с чего вы взяли? Некоторые виды рака — это не вся медицина. Большинство областей вполне строго описываются. А IBM — делают свой проект в основном ради пиара, чтобы продавать железо и технологии (ниже я это обосновал).
вопрос сводится к тому, а каким именно нейросетям доверять: компьютерным или биологическим?
Это примитивное и некорректное сравнение. Большинство людей умеет мыслить рационально, компьютерные же самообучающиеся системы стоят на низшем уровне — натуральном мышлении, когда все факты равноправны, а гипотезы не строятся. Они подобны людям с синдромом Аспергера: куча фактов, а знаний нет, и польза — только в особых редких случаях.
А недавно работающий в скорой чувак нюхнет ацетоновых паров и резво вколет инсулинчику
Вколет. Но работая вместе с экспертной системой, способной давать обоснования — увидит весь возможный контекст и подумает об альтернативных вариантах, даже если в системе их нет. Работая с тупой нейросетевой системой, наш молодой врач посмотрит на кучу вываленных на него, пусть даже отранжированных вариантов болезни и подумает: «И что мне с этим делать?».
набору фактов типа «несколько раз у чуваков была подобная фигня, их лечили вот так и вот так, и такие-то из них выжили» или заявлению «ну, что тут думать — надо резать, а там посмотрим и помолимся»
Опять некорректное сравнение. Даже не знаю, что в нем бредовее: выбор произвольных вариантов взаимодействия или выпадение из контекста нашего сравнения технологий.
0
Извините за оффтопик. Вы с t13s так ловко пользуетесь blockquote, это какой-то юзерскрипт, или все ручками?
0
Скопировать текст в окно, выделить, нажать кавычки — это гораздо быстрее, чем писать текст. Не уверен, что мне была бы тут нужна оптимизация.
+1
А правила, создаваемые нейросетями, вообще не поддаются анализу и модификации.а кто-то пытался? Мне не попадались статьи на эту тему, я считал что религия не позволяет…
0
Ну вы же не ожидаете, что на основании миллиона бросков булыжников с башни будет автоматически сформулирован закон всемирного тяготения?:)
0
Собственно, ожидаю, что корреляция найдётся довольно легко — стоит лишь взяться.
Регрессионный анализ — штука уже известная, и прикрутить её к статистике — это очевиднейший из путей развития.
Регрессионный анализ — штука уже известная, и прикрутить её к статистике — это очевиднейший из путей развития.
0
Регрессионный анализ существует в детермининистском контексте, а новое знание создается только в индетерминизме.
0
Чушь.
Новое знание создаётся путём анализа фактов и синтеза выводов, и индетерминизм здесь не причём.
Индетерминизм — вообще религия, ИМХО.
Новое знание создаётся путём анализа фактов и синтеза выводов, и индетерминизм здесь не причём.
Индетерминизм — вообще религия, ИМХО.
0
Не то. Здесь.
+1
Но вот свое здоровье я такой медицинской программе-диагносту/лекарю не доверю.
Всё зависит от эффективности. Что вы выберете: Big Data подход, который даст 99% верных диагнозов, или аналитический с 90%?
Второй подход сможет чётко объяснить своё решение, но, поскольку оперирует гораздо меньшей базой фактов, решение не будет учитывать влияние некоторых факторов. То есть, он даст логически безупречное, но ошибочное объяснение.
+3
Пока нет оснований считать, что статистический подход даст на 99% верный результат. Недавно проходила инфа, что Ватсон на онкологии дал 90% результат. После публикации этого исследования цифры, скорее всего, будут меньше. А теоретический потолок для подобных систем — полагаю, не более 95%, и только на полностью известных данных — на новых она будет ошибаться гораздо чаще.
Так что я выберу научно-аналитический подход. Кроме самого результата, он даст обоснование, которое специалист сможет проверить и использовать дальше, работая в синергии с ИИ. Данные, основанные только на статистике, никакой синергии не дадут, они не увеличивают возможности человека-специалиста.
А даже в догматическую экспертную систему никто не мешает собраться всем миром и занести данные со всех медицинских публикаций один раз и обновлять базу ежегодно. Работать эта система будет на любом компьютере (поскольку исчезает неопределенная сложность big data). В синергии со специалистами такая система сможет давать исключительного качества результаты не только по диагностике болезней, но и по всему лечебному процессу.
Так что я выберу научно-аналитический подход. Кроме самого результата, он даст обоснование, которое специалист сможет проверить и использовать дальше, работая в синергии с ИИ. Данные, основанные только на статистике, никакой синергии не дадут, они не увеличивают возможности человека-специалиста.
А даже в догматическую экспертную систему никто не мешает собраться всем миром и занести данные со всех медицинских публикаций один раз и обновлять базу ежегодно. Работать эта система будет на любом компьютере (поскольку исчезает неопределенная сложность big data). В синергии со специалистами такая система сможет давать исключительного качества результаты не только по диагностике болезней, но и по всему лечебному процессу.
0
А даже в догматическую экспертную систему никто не мешает собраться всем миром и занести данные со всех медицинских публикаций один раз и обновлять базу ежегодно.
Я полагаю, сложность такой системы будет расти нелинейно. Разные факты будут конфликтовать друг с другом. Разрешить конфликты, собрать данные в одну непротиворечивую логическую систему — огромная работа. Возможно, с ростом объёмов знаний, она будет не под силу человеку или организации.
+1
Рациональное мышление изобрели именно потому, что всем остальным его видам стало не под силу справляться с экспоненциально растущей кучей фактов:) Вообще, чем прогрессивнее мышление, тем с большим количеством знаний и фактов оно способно эффективно работать. Я уверен, компьютеры пойдут по тому же пути. Но сейчас Ватсон стоит на уровне пещерного человека. Да, вместо «пошел дождь, значит будет урожай» он может сказать «выпало 2389529652 капель дождя, значит вырастет 235215-464778 колосьев», но сути это не меняет, это не дает качественного скачка.
+1
Разумеется, это будет, когда система автоматически сможет формулировать, развивать и корректировать правила для экспертной системы. Пока это фантастика и на данном этапе развития информационных систем я считаю, что статистические, но автоматические (big data) средства обработки данных лучше, чем логические, но программируемые людьми вручную.
+1
Хорошо, а я считаю, что правильно реализованная система с большой догматической базой данных будет эффективнее. Ватсон же можно использовать для первичного сбора и упорядочивания малых гипотез, которые затем будут обрабатываться людьми.
+1
Что лучше, время покажет.
Команда Ватсона работает над статистическими методами, но это не мешает конкурентам развивать логические системы. Тем более, экспертные системы в медицине достаточно старое направление. Вряд ли Ватсон получил бы столько пиара, если бы не превзошёл их. Вряд ли стали бы вкладываться в непредсказуемое статистическое решение, если бы не упёрлись в предел сложности, который может понять и запрограммировать человек.
Команда Ватсона работает над статистическими методами, но это не мешает конкурентам развивать логические системы. Тем более, экспертные системы в медицине достаточно старое направление. Вряд ли Ватсон получил бы столько пиара, если бы не превзошёл их. Вряд ли стали бы вкладываться в непредсказуемое статистическое решение, если бы не упёрлись в предел сложности, который может понять и запрограммировать человек.
+1
Хотите поговорить о пиаре? IBM только и делает, что пиарит Watson, она не получает пиар со стороны, а вкладывает в него огромные средства. Где успешные клинические примеры? Где записи реальных врачей в блогах и интервью? В поиске — только заказные статьи. Где исследовательские результаты по остальным дисциплинам?
Но этот пиар не случился бы, не будь у него плодотворной почвы из наивных (около)компьютерщиков, считающих, что без теоретического и рационального мышления, на одной только массе голых фактов и самообучающихся программах можно сделать прорыв в науке и технологии, и чтобы ученые были посрамлены, а в фотошопе появилась кнопка «сделать красиво».
Но этот пиар не случился бы, не будь у него плодотворной почвы из наивных (около)компьютерщиков, считающих, что без теоретического и рационального мышления, на одной только массе голых фактов и самообучающихся программах можно сделать прорыв в науке и технологии, и чтобы ученые были посрамлены, а в фотошопе появилась кнопка «сделать красиво».
+1
Ну это хоть как-никак работает у IBM и у Google в translate. Зато любители писать онтологии (см. CYC) годами что-то пишут, наполняют базы, а обещанного ошеломляющего результата не видно.
+1
Не там смотрите:) Успех Google Translate сродни восхищению деревенским дурачком, который хоть и уродлив, но — глядите! — лопочет почти так же хорошо, как миллиарды нормальных людей во всём мире. Даже повторить может, только увы, смысла слов не понимает.
На этом фоне простые прикладные экспертные системы, вроде тех что используются французской или немецкой скорой помощью, не так заметны, хотя они приносят реальную пользу и эквиваленты более прогрессивному по сравнению с натуральным догматическому мышлению. Но их не пропиаришь, ведь среди народа считается, что компьютер изначально заточен под такие задачи и значит нет тут ничего экстраординарного.
Cyc, как я понял из описания — это попытка реализовать то ли философско-категорийное, то ли вовсе логическое мышление, то есть на 4-5 ступеней выше натурального. До этого, конечно, еще далеко.
На этом фоне простые прикладные экспертные системы, вроде тех что используются французской или немецкой скорой помощью, не так заметны, хотя они приносят реальную пользу и эквиваленты более прогрессивному по сравнению с натуральным догматическому мышлению. Но их не пропиаришь, ведь среди народа считается, что компьютер изначально заточен под такие задачи и значит нет тут ничего экстраординарного.
Cyc, как я понял из описания — это попытка реализовать то ли философско-категорийное, то ли вовсе логическое мышление, то есть на 4-5 ступеней выше натурального. До этого, конечно, еще далеко.
+1
Translate дурачок, но он сам учится. Не нужны гигантские усилия по наполнению базы. А экспертные системы хороши, насколько хорош человек, их создавший. Они сами не развиваются.
Если провести аналогию с алгоритмами, то логическое мышление — быстрая сортировка, а статистическое — пузырёк. Однако, второй алгоритм под силу запрограммировать, а первый — не получается. Но машина с пузырьком обходит человека на размерах задач с N=1000 или даже с N=10^6. Теоретически, человек мог бы выиграть при N=10^9, тогда у машины бы не хватило ресурсов, но на таком размере задачи у человека не хватает длительности жизни. Поэтому некоторые задачи всё равно будут успешнее решаться плохими методами, но поддающимися автоматизации, чем хорошими, но требующими больших умственных затрат (и на поддержку системы в том числе, а не только единовременных при создании).
Если провести аналогию с алгоритмами, то логическое мышление — быстрая сортировка, а статистическое — пузырёк. Однако, второй алгоритм под силу запрограммировать, а первый — не получается. Но машина с пузырьком обходит человека на размерах задач с N=1000 или даже с N=10^6. Теоретически, человек мог бы выиграть при N=10^9, тогда у машины бы не хватило ресурсов, но на таком размере задачи у человека не хватает длительности жизни. Поэтому некоторые задачи всё равно будут успешнее решаться плохими методами, но поддающимися автоматизации, чем хорошими, но требующими больших умственных затрат (и на поддержку системы в том числе, а не только единовременных при создании).
+1
Ох не надо применять аналогии там, где они не уместны:) Ну почему же логическое мышление нельзя запрограммировать? Программирование само по себе и есть машинная реализация логического мышления.
А Google Translate не обучается в обыкновенном понимании. Записать значение нового термина в базу и освоить новую лингвистическую конструкцию — разные вещи, и если первое он худо-бедно щёлкает (переводя Касперский как Norton, к примеру), то второе -задается только вручную. Хотя, конечно, решение первой задачи — уже победа, я это на себе в Китае хорошо ощутил. Но неправильно, нелогично считать, что если система определенного типа справилась с определенной задачей, то она также хорошо справится и со всеми остальными задачами.
А Google Translate не обучается в обыкновенном понимании. Записать значение нового термина в базу и освоить новую лингвистическую конструкцию — разные вещи, и если первое он худо-бедно щёлкает (переводя Касперский как Norton, к примеру), то второе -задается только вручную. Хотя, конечно, решение первой задачи — уже победа, я это на себе в Китае хорошо ощутил. Но неправильно, нелогично считать, что если система определенного типа справилась с определенной задачей, то она также хорошо справится и со всеми остальными задачами.
+1
Ну почему же логическое мышление нельзя запрограммировать? Программирование само по себе и есть машинная реализация логического мышления.
Программирование экспертной системы не есть программирование мышления.
Неизвестно, как программировать творческую работу, т.е. генерацию новых правил из неформализованного свободного контекста, когда нужно разбираться ПОЧЕМУ старое правило не сработало и КАК его подправить.
+1
Я сказал реализация, а не программирование логики. Так что я был в курсе проблем программирования собственно мышления) Конечно, на данном этапе развития IT правила должны вводить люди, а не генерировать нейросети, как выше пытается убедить нас t13s. Система, построенная на правилах, реализует догматическое мышление, которое стоит уровнем выше мышления натурального, а значит, у нее больше шансов достичь хорошего результата. Все технологии для ее создания уже есть.
+1
Тезисы, который я пытаюсь донести:
— программисты очень дороги;
— при программировании люди делают ошибки;
— сложность логических систем растёт нелинейно;
— текущих трудовых ресурсов не хватает, чтобы покрыть все потребности в умных системах;
— поддержка будет очень дорогой (носители знаний — люди: будет текучка кадров + при смене проекта знания медленно выветриваются).
Поэтому, пока сильный ИИ не изобретён, статистические методы лучше, чем ничего. Либо нанимать институт/компанию, которая будет годы разрабатывать систему с рисками получить неработающую систему (сколько IT-проектов загибается на полпути?), выложить несметное кол-во денег (умные люди дорого стоят). Либо быстро и дёшево получить хоть какую-то систему в приемлемые сроки.
— программисты очень дороги;
— при программировании люди делают ошибки;
— сложность логических систем растёт нелинейно;
— текущих трудовых ресурсов не хватает, чтобы покрыть все потребности в умных системах;
— поддержка будет очень дорогой (носители знаний — люди: будет текучка кадров + при смене проекта знания медленно выветриваются).
Поэтому, пока сильный ИИ не изобретён, статистические методы лучше, чем ничего. Либо нанимать институт/компанию, которая будет годы разрабатывать систему с рисками получить неработающую систему (сколько IT-проектов загибается на полпути?), выложить несметное кол-во денег (умные люди дорого стоят). Либо быстро и дёшево получить хоть какую-то систему в приемлемые сроки.
+1
Я вас понял. Но.
1. Начиная с общих аргументов, вы заканчиваете частностями, что предполагает, что вы подразумеваете некую определенную систему или ее план в вашей голове. «Програмисты дороги» — общий аргумент. Выветривание знаний и необходимость использовать программистов для занесения данных — уже особенность какого-то конкретного проекта, видимо, ужасно спроектированного:). И нет, я не намекаю, что ее проектировали вы.
2.
Сильный ИИ — это вообще сугубо теоретическая философская концепция. Но утверждать, что без него мы имеем только байесовские алгоритмы — некорректно. Также, как и пытаться уподоблять человеку только самообучающиеся алгоритмы. Пояснить последнее?
1. Начиная с общих аргументов, вы заканчиваете частностями, что предполагает, что вы подразумеваете некую определенную систему или ее план в вашей голове. «Програмисты дороги» — общий аргумент. Выветривание знаний и необходимость использовать программистов для занесения данных — уже особенность какого-то конкретного проекта, видимо, ужасно спроектированного:). И нет, я не намекаю, что ее проектировали вы.
2.
пока сильный ИИ не изобретён, статистические методы лучше, чем ничего
Сильный ИИ — это вообще сугубо теоретическая философская концепция. Но утверждать, что без него мы имеем только байесовские алгоритмы — некорректно. Также, как и пытаться уподоблять человеку только самообучающиеся алгоритмы. Пояснить последнее?
0
1. Почему же частные? Хранение знаний в голове разработчика — необходимость в сложных системах. Даже когда есть документация, на её чтение и понимание нужна куча времени.
2. Да, поясните.
2. Да, поясните.
0
1. Если не отделять экспертные данные от программной логики, то будут описанные вами проблемы. Я, кстати, на эти грабли напоролся на практике в 2002-м, и больше так не делаю. Решение — дать возможность экспертам максимально полно описывать объекты, оставляя отрабатывать длинные связи автоматическим алгоритмам. Т.е. дерево может и должно по большей части строиться автоматически на основании структурированных фактов и отношений между соседними объектами — тогда можно хранить очень большую связность без специалиста-супервизора.
2. Большую часть времени человек пользуется готовыми алгоритмами — от работы на станке до взаимодействия с коллективом. Более того, большая часть этих алгоритмов им не придумана, а выучена, взята из других источников. Следовательно, человека можно скорее уподобить автомату, «традиционному» компьютеру, а не самообучающейся системе. Самообучение на нейросетях у нас происходит, да, но это мелкая моторика и прочая адаптация к окружающей среде. Концепции же люди по жизни не создают, а вы хотите, чтобы машина постоянно плодила внутри себя концепции, алгоритмы, и тут же их применяла на практике. Откуда идет это неоправданное гипердоверие к самообучающимся системам? Оно не имеет вообще никаких оснований.
2. Большую часть времени человек пользуется готовыми алгоритмами — от работы на станке до взаимодействия с коллективом. Более того, большая часть этих алгоритмов им не придумана, а выучена, взята из других источников. Следовательно, человека можно скорее уподобить автомату, «традиционному» компьютеру, а не самообучающейся системе. Самообучение на нейросетях у нас происходит, да, но это мелкая моторика и прочая адаптация к окружающей среде. Концепции же люди по жизни не создают, а вы хотите, чтобы машина постоянно плодила внутри себя концепции, алгоритмы, и тут же их применяла на практике. Откуда идет это неоправданное гипердоверие к самообучающимся системам? Оно не имеет вообще никаких оснований.
0
1. Это похоже на Пролог. Вы когда-нибудь программировали на Прологе? Если писать какую-никакую большую программу, нужно не просто описывать факты в стиле «что вижу, о том пою», а чётко представлять, как по этим фактам будет ходить движок вывода. Иначе экспоненциальный взрыв и система работать не будет. Иногда получаются столь извратные конструкции, что у проще написать на С++ императивно, чем разбираться, почему после добавления одного 10001-го правила система вывода уходит в ступор. Позволить описывать логику экспертам-не программистам — такая же утопия, как давать SQL бухгалтерам и экономистам, считая, что им будет его достаточно. Да, на простых моделях (10 сущностей) они могут программировать «в лоб» на SQL и Прологе, а чуть сложнее — надо разбираться, как вручную построить такой запрос, чтобы у сервера получилось его выполнить за приемлемое время. То бишь, программировать надо серьёзно.
2. Аналогия неверна. Человек не выполняет алгоритм как автомат. Глобальное отличие — человек рефлексирует над алгоритмом. Если алгоритм зациклился, человек может его отдебажить, внести изменения во внутренние переменные и продолжить. Иногда исправить алгоритм. Автомат так не может. Поэтому, строго говоря, человек теоретически может выполнять алгоритмы в классическом понимании автомата, без рефлексии, но фактически никогда он так не работает.
2. Аналогия неверна. Человек не выполняет алгоритм как автомат. Глобальное отличие — человек рефлексирует над алгоритмом. Если алгоритм зациклился, человек может его отдебажить, внести изменения во внутренние переменные и продолжить. Иногда исправить алгоритм. Автомат так не может. Поэтому, строго говоря, человек теоретически может выполнять алгоритмы в классическом понимании автомата, без рефлексии, но фактически никогда он так не работает.
+1
1. Это всё решается, но я не уверен, что мой ответ не нарушит коммерческую тайну, простите.
2. Адаптивные нейросети стоят уровнем ниже алгоритмов. «Взять гайку и накрутить на болт» — жесткий алгоритм. А нейросеть только корректирует усилие на пальцах и PID-регулятор руки.
2. Адаптивные нейросети стоят уровнем ниже алгоритмов. «Взять гайку и накрутить на болт» — жесткий алгоритм. А нейросеть только корректирует усилие на пальцах и PID-регулятор руки.
0
1. Я считаю, в общем виде не решается. Скорее всего, проблему выдавили в другое место, вот её и не видно.
2. Если придёт болт без резьбы, робот на конвейере в лучшем случае остановится, в худшем — зациклится, будет крутить гайку до бесконечности. Человек поймёт, что болт бракованный и возьмёт следующий. Можно в алгоритм и этот сценарий прописать, но на все случаи жизни так сделать нельзя.
2. Если придёт болт без резьбы, робот на конвейере в лучшем случае остановится, в худшем — зациклится, будет крутить гайку до бесконечности. Человек поймёт, что болт бракованный и возьмёт следующий. Можно в алгоритм и этот сценарий прописать, но на все случаи жизни так сделать нельзя.
0
А если у человека не будет жестких алгоритмов, то он может взять и накрутить две гайки на слишком высокий болт, или, увидев ржавый болт, решить, что ничего накручивать не надо, потому что цвет неправильный.
0
Но вы не ответили, как жёсткий алгоритм избежит накручивания гайки на болт без резьбы, если такой случай изначально в алгоритм не заложен. В чём природа здравого смысла?
0
Да, я сбился. Видов мышления много, догматическое=алгоритмическое стоит выше натурального=нейросетей, но еще выше стоят те формы мышления, которые моделируют окружающую среду внутри мозга, благодаря им и избегает. Но это мышление невозможно без алгоритмического, которое суть — обобщение и структурирование накопленного опыта (=статистики, регрессии, нейросетей и пр). Из этой теории напрямую следует то, с чего я начал: нафига использовать прямое машинное самообучение там, где может работать более высокоуровневая система?
0
нафига использовать прямое машинное самообучение там, где может работать более высокоуровневая система?
Ответ был: это дешевле, чем скрупулёзное ручное программирование.
0
Watson дешев, ага. Супердорогое железо, золотая команда, огромное процессорное время на каждый запрос и немодифицируемые в своей основе алгоритмы.
0
Для того, чтобы построить аналогичную функциональность вручную потребовалось бы куда больше средств и мозгов. Абби вон свою лингвистическую систему вручную строит уже который год, привлекая толпы учёных, и пока результатов готовых не видать… а тут — за счет отсутствия специализации алгоритмов универсальность ещё как следствие…
+1
тогда можно хранить очень большую связность без специалиста-супервизора.
Ничего подобного. В любой математической модели есть масса условностей. Какими буквами обозначить переменные, в каком порядке что описывать. Это сохраняется в голове человека. Я не поверю, что новый человек, пришедший в проект, сможет быстро без подготовки и детального вникания в созданное продолжить ввод новых знаний или даже исправить небольшую ошибку, не сломал полсистемы.
0
А Google Translate не обучается в обыкновенном понимании.
Да, translate обучается в очень узком смысле. Если ему дать новую пару текст-перевод с новым для него фразеологизмом, то, встретив этот фразеологизм точно в таком же контексте, он его переведёт правильно.
+2
Статистика синергию дать может, и в Ватсона наверняка нечто подобное встроят при первой же возможности, и эксперименты наверняка давно ведутся.
+1
Как же вам хочется в это верить.
0
А как же Вам не хочется ;)
Вообще говоря, это не вопрос веры. Это естественный ход вещей, он же путь наименьшего сопротивления, и он же — потенциальная яма. Неминуемая.
Вообще говоря, это не вопрос веры. Это естественный ход вещей, он же путь наименьшего сопротивления, и он же — потенциальная яма. Неминуемая.
0
Путь наименьшего сопротивления, как из рантье в бомжи?:)
0
нет, как эволюция
0
Эволюция — тоже индетерминизм.
0
Эволюция в целом вполне детерминирована.
0
Что, правда?
0
На глобальном уровне эволюция однозначно приводит либо к повышению приспособленности видов к локальным условиям, часто путём повышения их специализации и сложности части вида, либо к вымиранию. Так же налицо преемственность видов.
На молекулярном уровне тоже более чем наглядно видны генетические причины и следствия появления и исчезновения тех или иных особенностей организмов.
То, что в самих мутациях есть «элемент случайности» никак не мешает детерминизму, ровно как «случайность» движения молекул не мешает существовать температуре тела, из этих молекул составленного.
Да и с самой случайностью движения молекул, думаю, наука разберётся, вопреки досужей но популярной интерпретации принципа Гейзенберга.
0
Специализация — это не определенность, это аттрактор в теории хаоса.
Есть, например, такой аттрактор как большой доминирующий хищник. А проявление индетерминизма — это то, что его место может занять даже журавль.
Есть, например, такой аттрактор как большой доминирующий хищник. А проявление индетерминизма — это то, что его место может занять даже журавль.
0
Я про то, что что само наличие специализации, доминирующего хищника и прочих типичных явлений, даже если они аттракторы — уже детерминизм. И у хаоса наличие просчитываемых свойств и следствий — тоже.
0
Неверно. Детерминизм полагает абсолютно все свойства вещей принципиально предопределенными, и даже если мы чего-то не можем предсказать сейчас, это на 100% познаваемо и предсказуемо.
0
Ну наконец то. Я уже заждался.
+1
У меня ассоциации с Киберсином и ОГАСом возникают.
0
Хороший способ окупить прожигаемые мегаватты. :)
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Инструментарий суперкомпьютера IBM Watson стал доступным для разработчиков в виде «облака»