Модели контролируют соблюдение ADRs

Пока в научных лабораториях и постфактум

В феврале 2026 появилось исследования Evaluating Large Language Models for Detecting Architectural Decision Violations, выявляющее, способность больших языковых моделей контролировать соблюдение архитектурных решений. И способность такую у LLM исследователи, в общем и целом, подтвердили. Можно ли доверять результатам такого исследования? Априори нет. Давайте разберемся с дизайном

В качестве исходной выборки взяли известный список репозиториев с github из исследования Using Architecture Decision Records in Open Source Projects – An MSR Study on GitHub Я недавно о нем рассказывал в своем видео Модернизация процесса проектирования (ссылка с 25 минуты)

Обновили список, выяснив какие из репозиториев доступны на текущий момент , выбрали из них те, где больше 30 тыс. строчек кода, больше тысячи коммитов и где ADRs напоминали какой-либо из известных форматов. В общем, в итоге получилось 109 репозиториев и 980 файлов ADRs, внутри которых исследователи насчитали 1317 решений, а дальше началась магия. Читать далее Модели контролируют соблюдение ADRs