Mariia Shalabaieva/Unsplash
Компания OpenAI анонсировала формирование новой исследовательской группы Collective Alignment, которая займется разработкой системы для сбора и учета общественного мнения при принятии решений о поведении моделей искусственного интеллекта компании.
Что известно
По словам разработчиков, Collective Alignment позволит обеспечить соответствие будущих моделей ИИ ценностям и ожиданиям общества.
Создание команды стало результатом запущенной в прошлом году программы грантов, в рамках которой финансировались эксперименты по внедрению общественного контроля и “демократических процессов” в управление системами ИИ.
Теперь OpenAI публикует код и результаты работ грантополучателей. В дальнейшем команда Collective Alignment займется интеграцией перспективных прототипов в продукты и сервисы компании.
Разработчики заявляют, что инициатива призвана сделать ИИ OpenAI максимально полезным и безопасным для общества. Однако некоторые эксперты отмечают наличие коммерческого интереса и риски регуляторного лоббирования со стороны компании.