Pull to refresh

Comments 16

UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
Статья хорошая, но ИМХО относится не столь к машинному обучению, сколь ко всему математическому предсказательному аппарату (теория вероятностей, дифференциальные уравнения, машинное обучение и пр.), для которого справедливы все 5 пунктов статьи.

Если говорить об ограничении/применимости машинного обучения для конкретной задачи — если задачу можно свести к формуле Байеса (т.е. по известным данным D определить параметры(веса) θ, наилучшим образом описывающие эти данные P( θ | D )), то ее можно решить методами машинного обучения.
Неплохо сведено вместе в чём слабость современного подхода всё представлять мат функциями. Забили на старую добрую идею под названием кибернетика где результат обучения — точная обьектная модель и теперь понимают что они куда то там упёрлись.
препятствуют решению всех проблем человечества

Подмена понятий. Препятствуют копрорациям больше заробатывать, маркетологам лучше таргетировать рекламу и да, самоуправляемым машинам аккуратнее ездить. Думаю машинное обучениие создаст не меньше проблем, чем решит, так как рынок заставит компании использовать ИИ самым бессовестным способом, как это уже стало, например, с телевиденьем.
Препятствуют копрорациям больше заробатывать, маркетологам лучше таргетировать рекламу и да, самоуправляемым машинам аккуратнее ездить.

Ты не видишь перспектив. Упомянутое — это игрушки.

так как рынок заставит компании

Или наоборот — при должном использовании, ИИ сделает рынок ненужным, но такого очевидно не будет, к счастью тех кто тут минусует. Иногда такое впечатление что обфускация современных технологий в игрушки делается специально чтобы держать толпу в состоянии обезьян.

самым бессовестным способом, как это уже стало, например, с телевиденьем.

с рекламой которую тыкают в нос например.
Но это мелочи. Чего стоит только дата майнинг с возможность просмотра всего трафика
Про интерпретируемость верно подмечено. Я бы в пример привел тот же GAN. Хоть вокруг этого много хайпа (аля FaceApp со своим старением), но задачи компьютерного зрения эти модели никак не решают, т.к. остаются черным ящиком.
Вот недавно прочитал новость (нем.) — ИИ распознает на ЭКГ фибрилляцию предсердий. На ЭКГ, на котором человек не смог ничего распознать. Тренирован 180 тыс. данных. Как алгоритм распознает не известно.
Так вот вопрос: «А целесообразно ли верить утверждению, которое невозможно обьяснить?»

Люди начинают верить черному ящику. Вот где страшно становится. Я понимаю, что в большинстве случаев черный ящик дает верные утверждения. Но и гороскоп редко «ошибается».

Вместо того чтобы пытаться понять и обьяснить (классическая задача науки) мы делаем сложный черный ящик для предсказаний и уже не пытаемся ничего понять. Разве это не деградация?
Вместо того чтобы пытаться понять и обьяснить (классическая задача науки) мы делаем сложный черный ящик для предсказаний и уже не пытаемся ничего понять. Разве это не деградация?

Не обобщайте личный опыт на весь мир. На ICML и NIPS (ныне NeurIPS) уже не то что доклады, а целые отдельные секции есть по теме интерпретируемости ML-моделей. И там есть очень даже хорошие результаты, позволяющие даже в нейросетках (пусть пока и не очень сложных) иногда разбираться. Нет никакой деградации, есть научный подход и развитие.
и как они это делают? Есть такое что семантику слоя можно заставить быть какой хочешь обучая его через один фк на выход или разные выходы, или смотреть конво карту как картинку и всё.
и как они это делают?

Не уверен, что смогу качественно передать мысли в коротком ответе, так что лучше либо посмотрите доклады с конференций, либо тут: arxiv.org/search/?query=Interpretability&searchtype=all

Есть такое что семантику слоя можно заставить быть какой хочешь обучая его через один фк на выход или разные выходы, или смотреть конво карту как картинку и всё.

Если это преподносится как утверждение, то это точно «не всё». Даже несколько лет назад умели худо-бедно интерпретировать отдельные LSTM-ячейки при обработке текста. Я согласен с тем, что пока ещё есть куча областей, где модель — чёрный ящик. Но пару лет назад чёрных ящиков было больше.

Посыл моего комментария не в том, что «уже всё круто», а в том, что «работы ведутся, на проблему не забили, её считают важной».
Можно взять много фотографий преступников, натренировать на них сеть и она будет «определять» подозреваемых по их физиономии. Как быть с такими «применениями»? Тебя будут «подозревать» потому, что черный ящик считает тебя подходящим под один ему ведомый шаблон. Вот что страшно. То, что пытаются обьяснить, так это хорошо, но пока одни пытаются, другие применяют. И как скоро сломается благоразумие под натиском маркетинга? Ведь это так удобно, и кажется просто панацеей. Купил программу и пользуешься. Она за тебя принимает решения. Шикарно. Одни сэкономленные доллары в глазах.
Понятно, что есть масса примеров для «нейтрального» применения — например выбраковка изделий на производстве. Тут как везде, смотря для чего применять. Может стать и опасным оружием и хорошим подспорьем. Вот что заставляет задуматься.
Можно взять много фотографий преступников, натренировать на них сеть и она будет «определять» подозреваемых по их физиономии.

плюсанул бы если смог. Записал это как пример бессмысленной закономерности))
И кстати. Очень очень хороший ИИ сам определил бы какие функции осмысленны а какие нет
В базах данных маммографии много изображений, но у них есть одна серьезная проблемы, которая вызвала значительные проблемы в последние годы — почти все рентгеновские снимки сделаны у белых женщин. Это может показаться не таким уж большим делом, но на самом деле было показано, что темнокожие женщины на 42 процента чаще умирают от рака молочной железы из-за широкого спектра факторов, которые могут включать различия в выявлении и доступе к медицинской помощи. Таким образом, обучение алгоритму в первую очередь для белых женщин в этом случае отрицательно влияет на темнокожих женщин.

В этом конкретном случае требуется большее количество рентгеновских снимков темнокожих пациентов в базе данных обучения, больше признаков, относящихся к причине повышения вероятности на 42 процента, и чтобы алгоритм был более справедливым за счет стратификации набора данных вдоль соответствующих осей.

Посмотрел в оригинал — там то же самое написано, аж удивительно…
Вот так незаметно, из-за «верую ибо абсурдно» попыток SJW утверждать, что «все люди — инкубаторские, каждый абсолютно равен другому, нет никаких рас, пола и возраста», биология будет брать свою «плату за убеждения» в виде человеческих жизней…
«Кто виноват, если моя самоуправляемая машина кого-то убьет на дороге?»
Владелец критичных данных, прямо влиявших на возникновение инцидента, последним принимавший решение об использовании/применении/допуске этой машины (для этого придётся держать буфер и сохранять в нём последнюю цепочку ответственных, что максимально автоматизировать применение ответственности — и да, поэтому, за её несение придётся ещё и доплачивать всем, кроме самого «конечного» пользователя). Другого варианта просто не дано (кроме уже полюбившегося традиционного принудительного назначения «козла отпущения»).

«Нейронная сеть не понимает второй закон Ньютона, или что плотность не может быть отрицательной — нет никаких физических ограничений.»
Бред. Нейросеть можно обучить тому, что некоторые параметры не могут выходить за какие-то пределы значений. Ровно также, как это хранит в мозгу и сам человек (и — да, у нас в голове тоже не 100% детерминированность, со всеми вытекающими).
Sign up to leave a comment.

Articles

Change theme settings