В Україні тривають випробування інноваційних гуманоїдних роботів-солдатів Phantom MK-1, розроблених компанією Foundation. Ці бойові роботи тестуються у реальних умовах на фронті, що дає змогу виробникам перевірити їхню ефективність на практиці.
Про це розповідає ProIT
Можливості Phantom MK-1 та особливості застосування
Phantom MK-1 здатні виконувати широкий спектр завдань – від транспортування боєприпасів і запасів до проведення розвідувальних операцій. Особливо ефективно роботи проявляють себе там, де звичайні дрони безсилі, наприклад, у підземних бункерах чи захищених укриттях. За словами співзасновника Foundation Майка Леблана, ці роботи імітують тепловий сигнал людини, що може вводити в оману супротивника і забезпечувати додаткову тактичну перевагу.
Розробники прагнуть створити роботизовану платформу, здатну використовувати різні види озброєння, які зазвичай застосовують люди. Випробування Phantom MK-1 вже відбуваються не лише в Україні, а й на виробничих майданчиках у різних частинах світу — від Атланти до Сінгапуру. Крім того, компанія Foundation має контракти з армією, ВМС і повітряними силами США та веде переговори щодо залучення роботів до охорони південного кордону США.
“Війна на українському фронті стала повномасштабною війною роботів, де люди лише підтримують техніку”, — зазначив Майк Леблан під час відвідин України у лютому разом із двома Phantom MK-1.
Переваги та виклики автономних бойових систем
У компанії Foundation переконані, що впровадження гуманоїдних роботів може підвищити рівень глобальної безпеки, оскільки їхнє використання здатне зменшити тактичну перевагу тієї чи іншої сторони конфлікту. Водночас згідно з протоколами Пентагону, остаточні рішення щодо дій роботів мають ухвалювати виключно люди, а не автоматизовані системи.
Разом із тим, експерти наголошують на певних ризиках і недоліках автономних систем. Такі роботи є складними у виробництві та експлуатації, збирають значні обсяги даних, які можуть потрапити до ворога у разі захоплення. Крім того, штучний інтелект не завжди коректно оцінює бойову обстановку — іноді виникають так звані “галюцинації”, коли ШІ помилково інтерпретує ситуацію. Фахівці попереджають, що створення смертельних автономних систем є вкрай небезпечним, адже помилки штучного інтелекту можуть призводити до фатальних рішень.