Mariia Shalabaieva/Unsplash
Компания OpenAI провела исследование, чтобы оценить риски использования своей новой модели GPT-4 для создания биологического оружия. Результаты показали, что доступ к возможностям ИИ обеспечивает “по крайней мере незначительное” увеличение эффективности сбора информации для разработки биоугроз.
Что известно
В эксперименте участвовали 50 биологов и 50 студентов. Им предложили найти информацию о культивировании и распространении опасных веществ. Половина испытуемых получила доступ к специальной версии GPT-4 без ограничений, другая использовала обычный интернет.
Сравнение результатов показало некоторое увеличение точности и полноты ответов в группе с доступом к ИИ. Исследователи OpenAI сделали вывод о существовании “по крайней мере незначительного” риска использования модели для сбора данных о создании биооружия.
Ранее эксперты и политики высказывали опасения по поводу потенциального применения чат-ботов для разработки биологических угроз. В октябре президент США поручил Минэнерго следить, чтобы системы ИИ не представляли опасности в химической и биологической сферах. Теперь команда OpenAI занимается минимизацией подобных рисков по мере развития технологий ИИ.