ИИ ускоряет разработку кода в 4 раза — и умножает риски безопасности в 10

Программисты, использующие ИИ-ассистенты, пишут в разы больше кода, но вместе с ним — в десятки раз больше скрытых угроз. Эксперты предупреждают: без дополнительных мер защиты вы просто меняете скорость на уязвимость.
ИИ-ассистенты вроде Claude Code, GPT-5 и Gemini 2.5 Pro помогают разработчикам писать код в три-четыре раза быстрее. Но, как выяснила компания Apiiro, специализирующаяся на анализе безопасности приложений, эта скорость имеет обратную сторону: количество потенциальных проблем безопасности в таком коде вырастает в десять раз.

Исследование охватило десятки тысяч репозиториев с участием разработчиков из компаний Fortune 50. Результаты оказались тревожными: ИИ не создаёт одну конкретную уязвимость — он системно умножает риски. Среди них — использование небезопасных шаблонов, встраивание открытых библиотек с известными проблемами и, что особенно опасно, хранение секретов (например, API-ключей) прямо в коде.
С декабря 2024 по июнь 2025 года количество таких рисков в анализируемых репозиториях выросло в десять раз. При этом ИИ действительно снижает количество синтаксических и логических ошибок — на 76% и 60% соответственно. Но взамен он в 1,5 раза чаще допускает архитектурные просчёты и в 3,2 раза чаще закладывает основу для будущих уязвимостей, включая те, что могут привести к повышению привилегий.

Ещё одна особенность — ИИ склонен генерировать крупные пул-реквесты. Это затрудняет ревью кода: чем больше объём изменений, тем выше шанс, что критическая ошибка останется незамеченной.

Как отмечает Итай Нуссбаум, менеджер по продукции Apiiro: «ИИ исправляет опечатки, но создаёт бомбы с часовым механизмом». Его рекомендация для руководителей: если вы внедряете ИИ в процесс разработки, параллельно внедряйте и ИИ-инструменты для анализа безопасности (AppSec). Иначе рост производительности обернётся ростом рисков.

Дополнительные данные подтверждают тревогу: разработчики, полагающиеся на ИИ, вдвое чаще оставляют конфиденциальные данные в открытом доступе. А исследования университетов США и Канады показывают: чем больше итераций кода проходит через ИИ, тем ниже его общая безопасность — модели «впитывают» не только лучшие практики, но и устойчивые ошибки из обучающих данных.

При этом не все исследования сходятся: аналитики METR, например, пришли к выводу, что ИИ-ассистенты в среднем снижают производительность программистов на 19%. Но даже в этом случае вопрос безопасности остаётся открытым — и критически важным для бизнеса.
© 8.09.2025

Контакты:
info@smartinfra.ru
105118, г. Москва,
ул. Буракова, 27 к3,
3 этаж, офис 322

© 2025