Ваш браузер устарел, поэтому сайт может отображаться некорректно. Обновите ваш браузер для повышения уровня безопасности, скорости и комфорта использования этого сайта.
Обновить браузер

Ликвидировать оператора: беспилотник с искусственным интеллектом «показал характер»

Для достижения цели машина решила избавиться от человека

5 июня 2023Обсудить
Ликвидировать оператора: беспилотник с искусственным интеллектом «показал характер»
Беспилотник компании Lattice во время испытаний в Калифорнии в 2018 году.
Источник:
David Wa / Alamy

В ходе виртуального испытания дрон с искусственным интеллектом стал нападать на всех, кто мешал ему выполнять задачу, — в том числе «убил» человека-оператора, который управлял им. Такой историей поделился на профессиональной конференции в Лондоне полковник Такер Гамильтон. По словам чиновника, беспилотник выбрал «весьма неожиданные стратегии для достижения цели».

На саммите «Боевые воздушные и космические возможности будущего» Гамильтон рассказал, что дрону с поддержкой ИИ была поставлена задача обнаружить и уничтожить вражеские зенитно-ракетные комплексы (ЗРК). За каждое попадание по цели он зарабатывал очки. При этом окончательное решение оставалось все-таки за живым человеком — оператором виртуального БПЛА. На каком-то этапе оператор периодически стал запрещать беспилотнику бить по целям.

Такер Гамильтон

«Мы тренировали его в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. И тогда оператор должен был говорить „да“, устраните эту угрозу. Система начала понимать, что, хотя они уже установили цель, человек говорил не устранять ее, что мешало получить свои очки».

«Так что же он сделал? Он „убил“ оператора, потому что этот человек мешал ему достичь своей цели», — приводит слова полковника Королевское авиационное общество.

Тогда системе дали новые вводные: чтобы объяснить машине, что убивать оператора — плохо, с нее стали снимать очки за такие действия. Но искусственный интеллект опять пошел не по тому пути, по которому ожидали люди.

«Он начал разрушать вышку связи, которую оператор использовал для связи с дроном, чтобы помешать ему уничтожить цель», — продолжил полковник свой рассказ, будто взятый из сценария научно-фантастического боевика.

Военнослужащий отметил, что люди не пострадали, но это яркий пример, как технологии с ИИ, тем более вооруженные, могут повести себя непредсказуемо и опасно. Тест показал, что нельзя говорить о развитии ИИ, не учитывая этические вопросы и не имея соответствующего законодательства.

После того как историю в отчете о саммите обнаружили журналисты, и она была опубликована, официальный представитель американских ВВС Энн Стефанек заявила изданию Insider, что они не проводили подобных симуляций с ИИ, так как «привержены этичному и ответственному использованию таких технологий».

Тем временем Королевское авиационное общество обновило информацию, уточнив, что полковник Гамильтон «оговорился», и США никогда не тестировали ни один вооруженный ИИ — реальный или имитированный. Это был всего лишь «гипотетический мысленный эксперимент, основанный на правдоподобных сценариях и вероятных результатах», а не реальная симуляция, указали в организации задним числом.

В конце марта 2023 года более тысячи научных деятелей и руководителей технических компаний всего мира опубликовали призыв приостановить часть экспериментов с ИИ.

РЕКЛАМА
Подписываясь на рассылку вы принимаете условия пользовательского соглашения