Comments 10
тренированная нейросеть — это апроксимация, а ИИ — это нечеткая логика, выборка решений из дерева с подключением апроксимации при необходимости, в ИИ — сеть только часть
Это помогает хоть как-то различать эти два термина, которые иначе размазаны маркетологами.
В данном случае я бы лично хотел чтобы последнее слово всегда оставалось за врачем. Т.е. чтоб описанная система была бы ML, которая помогает врачу принять правильное решение.
Хотя кто знает, может лет через 10, когда доказательная медицина докажет что нейросеть лечит лучше чем обычный врач, то может я и доверю свое здоровье такому ИИ. А ренгенологи станут младшим медицинским персоналом ))))
И польза подобных скриннингов довольно сомнительна: высок риск гипердиагностики и ненужного лечения.
Ну так эти ребята с первой попытки на небольшой выборке добились статистически значимого улучшения диагностики, в частности некоторое снижение ложноположительных результатов. Так что в конечном итоге вопросов к качеству скрининга должно стать куда меньше.
Проблема этого подхода, что в маммографии нет диагноза «рак/не рак» по рентгену.
Есть сильно более обширное дерево решений, в рамках которого пока что не существуют размеченных датасетов. Когда врач однозначно говорит «рак», то обычно там уже всё плохо.
Процентах в 20 вообще по мамограмме нельзя ничего сказать, в таком случае скрининг идёт через УЗИ.
Не сказать что нельзя применять результат обучения нейронной сети в реальном скрининге. Но надо очень много думать над тем как внедрять в существующие стандарты метрику которая написана вне их рамок.
Кстати, если я правильно понимаю что Google сделал, то они сильно по более простому датасету обучали чем та работа которую упоминал я.
Так добавят УЗИ и потребные тесты. Наверняка маркеры то се тоже никто не отменял, как и корреляции с gentest. 23&me у них не просто так существует. Опять же историю болезни научится читать — тексты давно распознают по смыслу.
Цель то в пределе массовый прескрининг делать совсем автоматом без врача а привлекать когда посложней или всплывает что.
Для всех манипуляций изначально же техник требуется и оборудование -а это другие деньги нежели врач. И страховкам попроще -а значит дешевле.
Причем она не зрением может понимать, а посложней, просто по данным,- оптическое представление ей не требуется и данных у нее больше чем у врача с глазами. Наверняка тонкие перепады на фотке вообще не визуализируются ввиду малых отличий. Самолет же не машет крыльями — ну и здесь будет так же. Причем наверняка приборы можно подточить для нейросети (и то что врачу с глазами не годно -или он для них не годен) — либо мерять станут невидимое, либо мерять станет дешевле, так как лишнего не надо и часть оборудования отбрасывается.
Вот только неверно говорить, что у сетки меньше информации, чем у людей. Не совсем так — сетке во время обучения скармливали данные из будущего, а вот получает ли их человек и насколько вообще средний специалист в состоянии их эффективно накапливать — вопрос.
Нейросеть DeepMind от Google научилась точнее врачей диагностировать рак молочной железы