Последние новости
Пожарная сигнализация: надёжная система начинается с проекта Adobe добавила ИИ от OpenAI и Google в Firefly В Кордове нашли средневековую канализацию, не имеющую аналогов в Европе Российские ученые создали установку для получения почти чистого водорода Дочь Жириновского рассказала о «светлых прогнозах» политика Самые известные скандальные выступления Жириновского Тысячи волонтеров помогли провести «Диктант Победы» в России и за рубежом Как школа вокала PPOTALANT раскрывает таланты детей Российские ученые повысили точность ответов ИИ до 15%

ИИ посодействовал предупредить 95 процентов докторских ошибок

Anesthesia & Analgesia: ИИ поможет докторам избежать 95 процентов ошибок

Спецы Массачусетской поликлиники общего профиля (США) поведали о полезности искусственного ума (ИИ) при проведении операций. Исследование размещено в журнальчике Anesthesia & Analgesia.

Из слов доктора мед наук Карена С. Нанджи, достаточно нередко докторы допускают ошибки при выборе и предназначении фармацевтических препаратов во время операции. Из слов ученого, модели ИИ способны исследовать деяния докторов и предотвращать большущее кол-во ошибок.

В процессе исследования спецы исследовали отчеты о безопасности, связанные с ошибками в приеме фармацевтических средств, задокументированные врачами-анестезиологами при хирургических процедурах с августа 2020 года по август 2022-го. 2-ва независящих рецензента систематизировали каждую ошибку по времени и типу. В конечном итоге врачи выявили 80 ошибок при приеме фармацевтических средств и нашли, что 76 из их — либо 95 процентов от общего числа — можно было избежать.

Нанджи и его коллеги порекомендовали вводить и применять ИИ-модели, которые бы контролировали деяния докторов и подстраховывали докторов. «Но поддержка принятия клинических решений увеличивает продуктивность и качество мед помощи в операционных, она все еще находится на ранешних стадиях внедрения», — заявила соработник исследования Линда Амичи.

Сначала мая ученые Универа штата Вашингтон (США) заявили, что чат-бот ChatGPT оказался бесполезен при оценке риска заболеваний сердца. Из слов докторов, он нередко делал ошибки и противоречил сам для себя.