Письмо с призывом остановить разработки в области искусственного интеллекта
Почему нейросети опасны?
Системы, чей интеллект способен конкурировать с человеческим, могут представлять серьезные риски для общества и человечества, считают авторы послания. В последние месяцы лаборатории по созданию ИИ оказались «втянуты в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», — говорится в письме.
«Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти численностью, перехитрить и заменить устаревших нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — задаются вопросами авторы послания.
Мощные системы ИИ, по мнению подписантов, следует разрабатывать только тогда, когда мы уверены, что их эффект будет положительным, а риски управляемыми.
К чему призывают авторы?
Поставившие свои имена под письмом хотят, чтобы все лаборатории искусственного интеллекта в мире немедленно приостановили подготовку более мощных, чем GPT-4, систем, минимум на полгода. За это время нужно разработать и внедрить протоколы безопасности, исполнение которых будут контролировать внешние независимые эксперты, рассуждают авторы послания.
Нынешние мощные нейросети должны стать «более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными», перечисляют авторы.
Ученые напоминают, что ранее человечество уже остановило такие опасные исследования, как клонирование человека и евгеника. Теперь снова настало время задуматься о последствиях неконтролируемых научных разработок, отмечают инженеры.
Недавно, напомним, физики-ядерщики впервые за несколько лет сдвинули стрелки Часов Судного дня.