OpenAI сообщает, что развернула новую систему для мониторинга своих последних моделей рассуждений AI, o3 и o4-mini, на предмет подсказок, связанных с биологическими и химическими угрозами. Система направлена ​​на то, чтобы не допустить, чтобы модели предлагали советы, которые могли бы научить кого-то выполнять потенциально опасные атаки, согласно отчету по безопасности OpenAI.

Читать далее Источник