Сгенерированные нейросетями пароли оказались предсказуемыми и взламываются за часы
Исследование Irregular показало, что Claude, ChatGPT и Gemini создают пароли с устойчивыми шаблонами. Энтропия таких комбинаций составляет 20–27 бит вместо ожидаемых 98–120, что делает их уязвимыми для перебора.
Компания Irregular, специализирующаяся на ИИ-безопасности, провела исследование качества паролей, генерируемых крупными языковыми моделями. Анализ Claude Opus 4.6, OpenAI GPT-5.2 и Google Gemini 3 Flash показал, что создаваемые комбинации, внешне выглядящие как сложные, на деле содержат предсказуемые паттерны и могут быть взломаны методом перебора за несколько часов.
При тестировании Claude в 50 диалогах модель запросили сгенерировать пароль. Из полученных вариантов лишь 30 оказались уникальными, 18 раз модель выдала одну и ту же строку. Подавляющее большинство паролей начиналось и заканчивалось одними и теми же символами. При этом ни в одном из вариантов не встречалось повторяющихся символов, что свидетельствует об отсутствии настоящей случайности. Аналогичная согласованность, особенно в начале строки, была зафиксирована у ChatGPT и Gemini.
Тест с моделью генерации изображений Google Nano Banana Pro, которой поручили создать изображение стикера с паролем, выявил те же повторяющиеся шаблоны. Независимая проверка The Register с использованием Gemini 3 Pro частично подтвердила результаты: при запросе «высокой сложности» и «большого количества символов» модель следовала устойчивым закономерностям, однако на запрос «случайный буквенно-цифровой код» она выдала действительно случайную комбинацию. Примечательно, что Gemini сопровождала сгенерированные пароли предупреждением о небезопасности и рекомендацией использовать менеджеры паролей.
Irregular оценила энтропию 16-символьных паролей от LLM двумя методами. Статистический анализ символов дал значение около 27 бит, метод логарифмических вероятностей — около 20 бит. Для сравнения: энтропия действительно случайного пароля той же длины оценивается в 98–120 бит. Столь низкие значения означают, что такие пароли поддаются взлому на обычном компьютере за несколько часов.
В компании подчеркнули, что проблема носит фундаментальный характер: LLM оптимизированы для генерации предсказуемых, статистически правдоподобных результатов, что прямо противоречит требованиям к криптостойкой случайности. Разработчикам рекомендовано проверять любые пароли, полученные от нейросетей, и заменять их на сгенерированные специализированными средствами.
Исследование актуально на фоне прогнозов генерального директора Anthropic Дарио Амодея о том, что в ближайшем будущем ИИ будет писать большую часть программного кода, что потенциально может привести к массовому использованию слабых паролей в приложениях.