Как стать автором
Обновить

Новая эра диагностики: Как с помощью ИИ можно диагностировать рак кожи на ранней стадии

Время на прочтение6 мин
Количество просмотров3K
Всего голосов 24: ↑22 и ↓2+23
Комментарии14

Комментарии 14

Приятного прочтения! :)

Шутка как-то не очень ...

Шутка? Вроде обычная формальность, которую во все статьи вставляют

Тревожные сойдут с ума и перегрузят ИИ в конце концов.

Зато ипохондрики не будут из-за каждого родимого пятна или гемангиомы к врачу бегать.

Эра? Новая?

"This image database contains a total of 200 dermoscopic images of melanocytic lesions, including 80 common nevi, 80 atypical nevi, and 40 melanomas."

Можно ли нормально что-то исследовать и обучить ИИ на 200 фотографиях? Неужели нет нормальных наборов фотографий кожных образований хотя-бы в десятки тысяч образцов? Что мешает собрать такой набор? Через одного врача за месяц проходит под сотню образцов, а в нормальном онкологическом центре можно собрать десятки тысяч и тогда уже работать.

У меня самого недавно обнаружили кожную онкологию, ттт, не сильно зловредную и вырезали, надеюсь без дальнейших последствий.
У вас немного писимистичное представление о том, сколько на самом деле есть доступных материалов в онкоклиниках. Во первых, до недавнего времени никто эти фото не собирал в некие коллекции для последующего машинного обучения. Я прошел три онколога, и несколько иных врачей, так или иначе связанных с онкологией, и никто по внешнему виду моего случая, так и не смог поставить примерный диагноз, поэтому шли по варианту максимальному - как при меланоме. И что самое парадоксальное, и потом, когда уже делали анализ по "стеклышкам", ставили два разных вида онкологии. Так что, это очень субъективный процесс, и он доступен только для очень хорошо подготовленных медицинских центров. И то, при условии, колоссальной предварительной работы по сбору данных, их подготовке и обработке. А это деньги. И очень и очень не маленькие. Поэтому это уровень или очень богатых мед\фарм компаний, или же дело государства.
Во вторых, любые попытки систематизировать и автоматизировать работу на стадии диагностики достойны только самой большой похвалы! В любом раскладе, я буду очень благодарен любым разработкам, которые помогут в диагностики любых видов рака, не важно на чем они базируются. Ибо лучше испугаться и не обнаружить при проверке, чем отмахнуться, и загнуться за пол года.

Зря вы утруждали себя писанием стольких букв. Первый же запрос в интернете даёт примеры общедоступных наборов данных с онкологическими изображениями:

130 тысяч картинок: https://www.kaggle.com/datasets/obulisainaren/multi-cancer

десятки наборов данных по разным видам рака: https://www.rcpath.org/profession/guidelines/cancer-datasets-and-tissue-pathways.html

ну и ещё куча других - просто не буду всё сюда переписывать

Почему же зря? Наборы это хорошо! Другое дело, что набор-набору рознь. Учитывая, что помимо самих изображений, тут ещё важна и достоверность и вообще точное описание к каждому изображению, такое как: точный типа онкологии, степени дифференцированости опухоли, точно подтвержденная стадия опирающаяся на послеоперационное исследование образца опухоли и ещё многих факторов, без которых потеряется достоверность и точность такого рода наборов.
Не спорю, найти картинки сейчас наверное не так уж и проблематично. Проблематичнее построить модель ИИ, которая бы как можно меньше ошибалась в своей диагностике. А потом ещё и дообучитть её в чем она конкретно ошибается, дабы исправить подобные ошибки на будущее. Поэтому, наверное локально собранные наборы пусть и не столь репрезентативны из-за количества возможных вариаций опухолей, но зато обладают куда большим сопутствующим набором данных, для построения последующих векторных БД, которые будут опираться не только на саму картинку, ну а допустим и на другие факторы: пол, рост, вес и разного анамнеза, которые сомнительно что доступны для таких открытых баз.

Обучение ИИ начинается с данных. Нет данных - и говорить не о чем. Поэтому и моя исходная реплика - 200 картинок это крайне мало. Вся последующая работа будет бесполезна, пока не собран нормальный набор данных.

Еще раз, повторю свою мысль: такая нейросеть должна выдавать диагноз не просто по одному снимку, но и по куче сопутсвующих медицинских фактов. Ни один нормальный онколог, не возьмется прямо сразу утверждать, у вас меланома, если она допустим ещё первой или даже второй степени. Про всякие плоскоклеточные виды опухоли вообще молчу! На этих стадиях они вполне себе могут быть похожи на какие нибудь кератомы, невсусы, или другие пигментозные новообразования. Нужны сопутствующие медицинские данные, чтобы нейронные связи устанавливались не только по схожести самого внешнего вида, но и по другим векторам, которые на первый взгляд могут быть совсем не очевидными, но выявиться именно путем нейрообучения ИИ. И тут просто картинки мало чем могут помочь.
Опять же - приведу свой пример. Мне два опытных врача - онколога при осмотре поставили диагнозом меланому. Два других (кстати не онкологи в общем то, но встречавшихся с нею не раз у своих пациентов), её так же отвергли и сказали что это вообще не похоже на онкологию. В итоге оказалось что это и не меланома, и в тоже время онкология, но совершенно другого класса, которая слава богу была на нулевой стадии и не агрессивной формы. Но опять же, это установили уже по биопсии послеоперационного материала. И то - со второго раза. Поэтому, даже очень крупный набор исходных фото, может дать такой же большой набор ложных диагнозов, если при этом помимо фото не даются иные вводные данные, позволяющие перейти на более высокий уровень связей между конкретным случаем, и статистикой по установленным уже ранее диагнозам. А вот с этим, скорее всего и будет проблема у крупных наборов просто картинок с диагностированными опухолями.

Так под набором данных подразумевается не просто набор картинок, а набор всех признаков, которые нужны для распознавания. Допустим, если к изображению врачу нужны ещё анализы, то и ИИ тоже нужны анализы. И возвращаясь к началу - 200 образцов это крайне мало. Причём, чем больше признаков, тем больше образцов надо.

На самом деле можно просто начать с варианта когда ИИ будет просто находить и маркировать все подозрительные места. Как это сейчас делается в радиологии.

И потом уже развивать всё это дело.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий