В Украине продолжаются испытания инновационных гуманоидных роботов-солдат Phantom MK-1, разработанных компанией Foundation. Эти боевые роботы тестируются в реальных условиях на фронте, что позволяет производителям проверить их эффективность на практике.
Об этом сообщает ProIT
Возможности Phantom MK-1 и особенности применения
Phantom MK-1 способны выполнять широкий спектр задач – от транспортировки боеприпасов и запасов до проведения разведывательных операций. Особенно эффективно роботы проявляют себя там, где обычные дроны бессильны, например, в подземных бункерах или защищенных укрытиях. По словам соучредителя Foundation Майка Леблана, эти роботы имитируют тепловой сигнал человека, что может вводить в заблуждение противника и обеспечивать дополнительное тактическое преимущество.
Разработчики стремятся создать роботизированную платформу, способную использовать различные виды оружия, которые обычно применяют люди. Испытания Phantom MK-1 уже проводятся не только в Украине, но и на производственных площадках в различных частях мира — от Атланты до Сингапура. Кроме того, компания Foundation имеет контракты с армией, ВМС и воздушными силами США и ведет переговоры о привлечении роботов к охране южной границы США.
“Война на украинском фронте стала полномасштабной войной роботов, где люди лишь поддерживают технику”, — отметил Майк Леблан во время визита в Украину в феврале вместе с двумя Phantom MK-1.
Преимущества и вызовы автономных боевых систем
В компании Foundation убеждены, что внедрение гуманоидных роботов может повысить уровень глобальной безопасности, поскольку их использование способно уменьшить тактическое преимущество той или иной стороны конфликта. В то же время согласно протоколам Пентагона, окончательные решения о действиях роботов должны принимать исключительно люди, а не автоматизированные системы.
Вместе с тем, эксперты подчеркивают определенные риски и недостатки автономных систем. Такие роботы являются сложными в производстве и эксплуатации, собирают значительные объемы данных, которые могут попасть к врагу в случае захвата. Кроме того, искусственный интеллект не всегда корректно оценивает боевую обстановку — иногда возникают так называемые “галлюцинации”, когда ИИ ошибочно интерпретирует ситуацию. Специалисты предупреждают, что создание смертельных автономных систем является крайне опасным, так как ошибки искусственного интеллекта могут приводить к фатальным решениям.