OpenAI запустила Aardvark — ИИ-агента на базе GPT-5 для автоматического анализа уязвимостей в коде
Aardvark, специализированный агент OpenAI, способен подключаться к репозиториям, находить уязвимости, воспроизводить их в изолированной среде и предлагать патчи. Система начала как внутренний инструмент разработчиков, теперь доступна партнёрам в приватной бете.
OpenAI представила Aardvark — автономного ИИ-агента, построенного на модели GPT-5, предназначенный для анализа безопасности исходного кода. Агент может: — подключаться к Git-репозиториям; — сканировать код на наличие уязвимостей (CWE, OWASP Top 10); — выявлять слабые места: небезопасные вызовы, ошибки управления памятью, SQL-инъекции, XSS; — объяснять суть проблемы простым языком; — генерировать исправления, совместимые с архитектурой проекта; — проверять корректность патча в песочнице, не требуя участия разработчика.
Система изначально разрабатывалась как внутренний инструмент. Разработчики OpenAI использовали её для автоматизированного аудита собственных проектов, включая API-интерфейсы, микросервисы и компоненты Sora. После успешных тестов, где Aardvark обнаружил десятки критических уязвимостей, ранее пропущенных статическими анализаторами, компания приняла решение вывести агента за пределы своей экосистемы.
На текущем этапе Aardvark доступен в рамках приватной беты ограниченному кругу партнёрских организаций. Участники получают доступ к агенту через API, который интегрируется в CI/CD-конвейеры. При каждом коммите система проводит полный анализ изменений и отправляет отчёт в канал команды или систему управления задачами.
В отличие от традиционных решений, Aardvark не просто сигнализирует о проблемах — он работает как полноценный участник процесса. Он не только предлагает правку, но и доказывает её эффективность: запускает тесты, проверяет поведение до и после внедрения, сравнивает производительность и безопасность. Это снижает нагрузку на DevSecOps-инженеров и ускоряет цикл устранения угроз.
Проект Aardvark — часть более широкой тенденции: переход от универсальных ИИ-ассистентов к специализированным агентам, которые решают конкретные профессиональные задачи. Если раньше модели применялись для дополнения, то теперь они берут на себя функции, требующие экспертного анализа, логики и понимания контекста.
То, что считалось недоступным для ИИ — аудит кода, верификация уязвимостей, работа в изолированной среде — теперь становится возможным благодаря комбинации сверхмощной LLM, точной инструктивной настройке и глубокой интеграции с инфраструктурой разработки.
Пока Aardvark не заменяет человека — он усиливает его. Его выводы требуют проверки, особенно в сложных архитектурах. Но он уже сейчас позволяет сократить время между появлением бага и его исправлением с дней до минут.
Это — не финал пути, а первый шаг: к миру, где ИИ-агенты становятся постоянными участниками процессов обеспечения информационной безопасности, а не временными помощниками.