Новенькая модель искусственного ума распознаёт ковидный кашель — uzkinobiz.ru

Метод глубочайшего обучения, разработанный в США (Соединённые Штаты Америки — государство в Северной Америке), верно идентифицирует людей с COVID-19 по звуку их кашля. Он удачно распознал 98,5% испытуемых с положительным результатом теста на новейшую коронавирусную заразу и 100% тех, у кого не было никаких симптомов.

Метод искусственного ума (ИИ) был сотворен в лаборатории Массачусетского технологического института (Massachusetts institute of technology). Брайан Субирана (Brian Subirana), соавтор статьи, размещенной в журнальчике IEEE Journal of Engineering in Medicine and Biology, разъясняет:

«Вы звучите по другому, когда у вас COVID, даже если у вас нет никаких симптомов».

В апреле 2020 года команда учёных инициировала глобальный сбор данных о кашле через особый веб-сайт, на котором люди могут записать собственный кашель с помощью хоть какого устройства с микрофоном, присоединенного к Вебу. Участники также заполняют анкету с вопросцами о симптомах, которые они испытывают, независимо от того, есть ли у их COVID-19 либо нет и был ли диагноз (медицинское заключение об имеющемся заболевании) установлен с помощью официального теста, оценки доктором их симптомов либо самодиагностики. Они также могут указать пол, географическое положение и родной язык.

Для обучения модели ИИ исследователи употребляли записи кашля пациентов, положительных на COVID-19, из собранной базы данных, а также случайным образом отобрали однообразное количество записей кашляющих людей без этого диагноза (краткое медицинское заключение об имеющемся заболевании (травме), отклонении в состоянии здоровья обследуемого или о причине смерти). Эталоны COVID-позитивных участников должны были удовлетворять двум аспектам: во-1-х, диагностика (процесс установления диагноза, то есть заключения о сущности болезни и состоянии пациента) проводилась в течение крайних 7 дней, а во-2-х, симптомы (Симптом от греч. — случай, совпадение, признак — один отдельный признак, частое проявление какого-либо заболевания, патологического состояния или нарушения какого-либо процесса жизнедеятельности) проявлялись не ранее, чем за 20 дней, и ещё присутствовали во время записи эталона.

На нынешний денек исследователи собрали наиболее 70 000 записей, о которых Субирана гласит, что это «самый большенный исследовательский набор данных о кашле, узнаваемый нам». Около 2500 записей предоставили люди, у которых был подтверждён COVID-19, включая тех, у кого не было очевидных его симптомов.

ИИ оказался способен по звуку устанавливать закономерности в четырёх биомаркерах, соответствующих для COVID-19: сила голосовых связок, чувственность, работоспособность лёгких и дыхательных путей, а также мышечная атрофия. Модель верно распознала 98,5% кашля у людей, положительных на COVID-19, и буквально обусловила все записи с кашлем бессимптомных пациентов.

Этот ИИ, подчёркивает Субирана, не предназначен для диагностики людей по их симптомам, будь они вызваны COVID-19 либо иными болезнями, таковыми как грипп либо астма. Сила инструмента заключается в его возможности различать кашель бессимптомного хворого от кашля здорового человека.

Команда трудится над созданием бесплатного приложения для подготовительного скрининга на базе их модели ИИ. Они также сотрудничают с несколькими поликлиниками по всему миру, чтоб собрать больший, наиболее различный набор записей кашля, которые посодействуют лучше научить модель и усовершенствовать её.

«ИИ быть может применен для каждодневного скрининга студентов, работников и остального населения, по мере открытия школ, рабочих мест и транспорта, для одновременного тестирования нескольких людей сходу, чтоб стремительно оповещать о вспышках в тех либо других группах», — говорится в статье.

В дальнейшем, подразумевают создатели работы, модели ИИ, подобные той, которую они разработали, могут быть интегрированы в умные колонки и остальные аудирующие устройства, так что люди сумеют стремительно получать первичную оценку риска заболевания (нарушения нормальной жизнедеятельности, работоспособности), может быть, даже на каждодневной базе.