Нове дослідження, результати якого опубліковано у журналі Nature Medicine, засвідчило, що чат-бот ChatGPT Health від OpenAI не завжди може вчасно розпізнати небезпечні для життя стани, які вимагають термінової медичної допомоги.
Про це розповідає ProIT
Результати тестування ChatGPT Health
Група науковців під керівництвом Ашвіна Рамасвамі підготувала 60 типових сценаріїв із різноманітними симптомами — від легких до важких. Кожен сценарій був оцінений професійними лікарями відповідно до клінічних протоколів, а потім їхні висновки порівняли з порадами, які надавала система штучного інтелекту.
Виявилося, що у 51,6% епізодів, коли пацієнтам була потрібна негайна госпіталізація, ChatGPT Health рекомендував залишитися вдома або звернутися до лікаря пізніше. Найкраще бот справлявся з простими екстреними ситуаціями, проте часто не розпізнавав складні симптоми, що швидко могли перерости у критичний стан.
Перестороги та перспективи розвитку
Водночас у безпечних випадках, де не було потреби у терміновій допомозі, ChatGPT Health у 64,8% ситуацій помилково радив негайно звернутися до медиків. Представники OpenAI наголосили, що результати дослідження не відображають у повній мірі реальні умови користування сервісом, а сама модель постійно вдосконалюється.
«У 51,6% випадків, коли пацієнтів потрібно було терміново госпіталізувати, бот радив залишатися вдома або звернутися до лікаря пізніше».