Команда исследователей из Государственного университета Северной Каролины(США)
Когда человек принимает чисто практическое решение, он исходит из того, сколько пользы принесут результаты. Когда же нужно сделать выбор, более сложный с моральной точки зрения, мы учитываем и другие факторы.
Например, люди в основном считают ложь изначально плохой. Однако если медсестра обманет пациента, чтобы успеть его спасти или отдать приоритет другому больному, которому требуется более срочное лечение, большинство сочтет эту ложь приемлемой.
Но возможное для человеческого мозга недоступно искусственному интеллекту. Например, роботам для ухода за больными, пожилыми и другими категориями людей, который нуждаются в физической помощи и контроле за здоровьем. Но по роду деятельности им придется столкнуться с ситуациями, когда нужно будет руководствоваться моралью и этикой для вынесения суждения.
Как объяснить роботу, какому пациенту первому оказать помощь первую очередь? Например, один человек находится без сознания и умрет, если не помочь срочно. Но и другой, с более легкими травмами, требует немедленного внимания.
Должен ли робот вообще лечить пациента без сознания, если он не просит помощи и не может дать согласие на манипуляции? Для ИИ, который запрограммирован на четкое соблюдение норм и прав, это может стать нерешаемой задачей.
Чтобы ИИ мог принимать более гибкие решения, руководствуясь моралью, этика обрела черты математической формулы.
Формула подразумевает ряд разветвленных путей решения в разных ситуациях. Проект пока сосредоточен только на технологиях для медицины и ботах-помощниках, которые взаимодействуют с людьми, но авторы отмечают, что работа направлена на широкий спектр технологий.
Совместная деятельность ИИ и человека потребует в будущем усилий специалистов по этике и инженеров, и от этого зависит наше будущее, считают разработчики.