Разработчики Claude ищут способы внедрить моральные принципы в искусственный интеллект, обращаясь за помощью к религиозным лидерам. После серии закрытых дискуссий с представителями христианства в США компания Anthropic расширила диалог, приняв участие в межрелигиозном форуме Faith-AI Covenant, чтобы найти универсальный подход к этике нейросетей.
Компания Anthropic пытается решить фундаментальную проблему: как научить языковую модель принимать решения в ситуациях, где нет однозначного ответа. Вместо жестких алгоритмов разработчики опираются на «конституцию» — свод принципов, управляющих поведением бота. Однако попытки создать универсальную систему ценностей внутри индустрии буксуют, так как разработчики осознали невозможность навязать миру единый моральный стандарт.Встречи с религиозными лидерами, которые координирует швейцарская организация Interfaith Alliance for Safer Communities, направлены на поиск общих этических закономерностей. Подобные дискуссии уже прошли в Нью-Йорке, а в планах компании — расширить географию на Китай, Кению и ОАЭ. В проекте участвует британский политик Джоанна Шилдс, а эксперты, такие как глава Humane Intelligence Румман Чоудхури, связывают этот тренд с крахом наивных ожиданий Кремниевой долины о создании «безупречной» этики для всех.





Комментарии (0)
Пока нет комментариев. Будьте первым!