Ваш браузер устарел, поэтому сайт может отображаться некорректно. Обновите ваш браузер для повышения уровня безопасности, скорости и комфорта использования этого сайта.
Обновить браузер

«Даже создатели не могут их контролировать»: кто и зачем призывает остановить эксперименты с нейросетями?

В Сети появилось открытое письмо с требованием прекратить на полгода создание новых «цифровых умов»

29 марта 2023Обсудить
«Даже создатели не могут их контролировать»: кто и зачем призывает остановить эксперименты с нейросетями?
Источник:
Johan Swanepoel / Alamy

Письмо с призывом остановить разработки в области искусственного интеллекта опубликовано на портале futureoflife.org. На момент написания новости под ним 1123 подписи руководителей международных компаний, сотрудников отрасли, университетских профессоров и неравнодушных граждан разных стран. Среди подписантов в том числе основатель Neuralink, гендиректор Twitter миллиардер Илон Маск и соучредитель Apple Стив Возняк.

Почему нейросети опасны?

Системы, чей интеллект способен конкурировать с человеческим, могут представлять серьезные риски для общества и человечества, считают авторы послания. В последние месяцы лаборатории по созданию ИИ оказались «втянуты в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», — говорится в письме.

«Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти численностью, перехитрить и заменить устаревших нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — задаются вопросами авторы послания.

Мощные системы ИИ, по мнению подписантов, следует разрабатывать только тогда, когда мы уверены, что их эффект будет положительным, а риски управляемыми.

К чему призывают авторы?

Поставившие свои имена под письмом хотят, чтобы все лаборатории искусственного интеллекта в мире немедленно приостановили подготовку более мощных, чем GPT-4, систем, минимум на полгода. За это время нужно разработать и внедрить протоколы безопасности, исполнение которых будут контролировать внешние независимые эксперты, рассуждают авторы послания.

Нынешние мощные нейросети должны стать «более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными», перечисляют авторы.

Ученые напоминают, что ранее человечество уже остановило такие опасные исследования, как клонирование человека и евгеника. Теперь снова настало время задуматься о последствиях неконтролируемых научных разработок, отмечают инженеры.

Недавно, напомним, физики-ядерщики впервые за несколько лет сдвинули стрелки Часов Судного дня.

РЕКЛАМА
Подписываясь на рассылку вы принимаете условия пользовательского соглашения