OpenAI предупреждает о рисках новых ИИ в создании биологического оружия

29.03.2026
По словам Йоханнеса Хайдеке, руководителя отдела систем безопасности компании, уже грядущие модели, являющиеся преемниками текущей «рассуждающей» системы (o3), могут оказаться на этом уровне. В связи с этим OpenAI сообщила о планах усилить тестирование безопасности, чтобы уменьшить вероятность того, что их модели будут способствовать созданию биологического оружия. Компания выражает озабоченность тем, что без необходимых мер новые модели могут позволить людям с ограниченными знаниями в науке получить доступ к информации, необходимой для воспроизводства уже известных угроз. При этом в OpenAI уточнили, что речь идет не о создании абсолютно новых биологических угроз, а о возможности воспроизводства существующих. Сложность в ограничении использования ИИ заключается в том, что те же технологии, способные привести к важным медицинским открытиям, могут быть использованы и в вредных целях. Таким образом, подчеркивается необходимость создания практически идеальных систем для тестирования безопасности. К тому же, в Госдуме ранее предложили отменить домашние задания в школах в связи с развитием нейросетей.