Консалтинговая группа "Текарт" - центр компетенции "Робототехника".

Подробнее...
Основное меню
Категории новостей
Логотип

Новая модель снижает предвзятость и повышает доверие к процессу принятия решений с помощью ИИ

Исследователи University of Waterloo разработали новую модель объяснимого искусственного интеллекта (Explainable Artificial Intelligence, XAI), позволяющую уменьшить предвзятость и повысить доверие и точность в процессе принятия решений и организации знаний на основе машинного обучения.

Медицина - одна из областей, где необъективные результаты машинного обучения чреваты серьезными последствиями. Сотрудники больниц и медицинские работники опираются на наборы данных, содержащие тысячи медицинских записей, и сложные компьютерные алгоритмы для принятия важнейших решений по уходу за пациентами. Машинное обучение используется для сортировки данных, что позволяет экономить время. Однако отдельные группы пациентов с редкой симптоматикой могут остаться незамеченными, а неправильно помеченные данные и аномалии могут повлиять на результаты диагностики. Такая необъективность и запутанность шаблонов приводит к ошибочным диагнозам и несправедливым результатам в здравоохранении для отдельных групп пациентов.

Благодаря новому исследованию, проведенному под руководством д-ра Эндрю Вонга, профессора Университета Ватерлоо, инновационная модель призвана устранить эти барьеры путем распутывания сложных закономерностей в данных, чтобы связать их с конкретными глубинными причинами, на которые не влияют аномалии и неправильно помеченные данные. Это может повысить доверие и надежность XAI.

"Это исследование представляет собой значительный вклад в область XAI, - сказал Вонг. - Анализируя огромное количество данных о связывании белков, полученных с помощью рентгеновской кристаллографии, моя команда выявила статистику физико-химических закономерностей взаимодействия аминокислот, которые были замаскированы и перемешаны на уровне данных из-за запутанности множества факторов. Мы впервые показали, что запутанная статистика может быть распутана и дать правильное представление о глубоких знаниях, упущенных на уровне данных, с помощью научных доказательств".

Это открытие привело Вонга и его команду к разработке новой модели XAI, получившей название Pattern Discovery and Disentanglement (PDD).

"С помощью PDD мы стремимся преодолеть разрыв между технологиями ИИ и человеческим пониманием, чтобы обеспечить надежное принятие решений и раскрыть глубокие знания из сложных источников данных", - сказал доктор Пэйюань Чжоу, ведущий исследователь в команде Вонга.

Профессор Энни Ли, соавтор и сотрудник University of Toronto, специализирующийся на обработке естественного языка, предвидит огромную ценность вклада PDD в принятие клинических решений.

В различных тематических исследованиях PDD демонстрирует способность предсказывать результаты лечения пациентов на основе их истории болезни. Система PDD также может обнаруживать новые и редкие закономерности в наборах данных. Это позволяет как исследователям, так и практикам обнаруживать неверные метки или аномалии в машинном обучении.

Полученный результат показывает, что медицинские работники могут ставить более надежные диагнозы, подкрепленные строгой статистикой и объяснимыми закономерностями, для более точных рекомендаций по лечению различных заболеваний на разных стадиях.

Исследование "Theory and rationale of interpretable all-in-one pattern discovery and disentanglement system" опубликовано в журнале npj Digital Medicine.

Иллюстрация: Unsplash/Steve Johnson

Теги: ИИ

Комментарии

(0) Добавить комментарий

Ищите команду разработчиков? Не можете найти робота для своих нужд? Пишите нам!

Для обратной связи укажите ваш E-mail, он будет доступен только администратору. Так вы сможете оперативно узнать, когда ответ на ваш вопрос будет опубликован



Новые комментарии

Портативный робот-резак – мечта домашнего мастера (+видео)
Гость
22.04.2024
02:33:22
Можно купить в Новосибирске и сколько стоит