AI

ИИ-ассистент для юридической фирмы: как RAG-система сокращает поиск по кодексам с часов до секунд

Средний юрист тратит 3–4 часа в день на поиск по кодексам и судебной практике — это 15–20 часов в неделю рутины вместо работы с клиентами. Мы в VibeLab построили RAG-систему для российской юрфирмы, которая находит релевантные нормы и прецеденты за 8–12 секунд с точностью 94%. Результат — экономия 12 часов в неделю на каждого юриста и возврат инвестиций за 4 месяца. Разбираем архитектуру, метрики и подводные камни внедрения.

Георгий

11 марта 2026 г.


Article imageBase64 view

Как ИИ меняет работу юристов: от ручного поиска к автоматизации за секунды

Рынок LegalTech в России растёт на 25–30% ежегодно. По оценкам РБК, к 2025 году его объём превысил 8 млрд рублей. Но большинство юридических фирм до сих пор работают с правовыми базами так же, как 15 лет назад: открывают КонсультантПлюс или Гарант, вводят ключевые слова, листают десятки документов, вручную отбирают релевантные нормы.

Проблема не в самих базах — они полные и актуальные. Проблема в интерфейсе взаимодействия. Keyword-поиск требует от юриста точно знать, какие термины использованы в нужном документе. «Возмещение убытков при расторжении договора поставки» и «взыскание ущерба при отказе от исполнения контракта на поставку товаров» — это один и тот же запрос, но классический поиск обработает их по-разному.

Когда к нам обратилась юридическая фирма из Москвы (45 юристов, специализация — коммерческое право и арбитраж), задача звучала конкретно: сократить время поиска по нормативной базе и судебной практике минимум вдвое. Мы сократили его в 10–15 раз. Ниже — полный разбор: от архитектуры до расчёта ROI.

Что такое RAG-система и почему классический поиск не работает для права

Retrieval-Augmented Generation (RAG) — это архитектурный паттерн, при котором языковая модель не генерирует ответ «из головы», а сначала находит релевантные фрагменты в базе знаний, а затем формулирует ответ на их основе. Для юриста это принципиально: каждое утверждение системы подкреплено ссылкой на конкретную норму или судебное решение.

Сравним подходы к поиску:

КритерийКонсультантПлюс / ГарантRAG-система
Тип поискаПо ключевым словамСемантический (по смыслу)
Обработка синонимовЧастичная (тезаурус)Полная (embeddings)
Формат ответаСписок документовСтруктурированный ответ со ссылками
Перекрёстный анализРучнойАвтоматический
Время на запрос15–40 минут8–12 секунд

КонсультантПлюс и Гарант остаются основой — как источники данных. Но поисковый интерфейс к ним можно радикально улучшить, поставив поверх семантический слой.

Как работает семантический поиск по юридическим текстам

Классический поиск сопоставляет слова в запросе со словами в документе. Семантический поиск работает иначе: он преобразует и запрос, и документы в числовые векторы (embeddings), которые отражают смысл, а не набор символов.

Процесс выглядит так:

  1. Подготовка базы. Тексты кодексов, федеральных законов, судебных решений разбиваются на фрагменты (chunks) по 512–1024 токена с перекрытием в 10–15%. Для юридических текстов мы используем «умный» chunking — разбивку по статьям и пунктам, а не по фиксированному количеству символов. Это сохраняет логическую целостность нормы.

  2. Векторизация. Каждый фрагмент превращается в вектор размерностью 1536 (для моделей OpenAI) или 1024 (для open-source моделей). Вектор — это «координата» смысла в многомерном пространстве. Фрагменты с близким смыслом оказываются рядом, даже если написаны разными словами.

  3. Индексация. Векторы сохраняются в векторную базу данных (в нашем случае — pgvector как расширение PostgreSQL). Это позволяет искать ближайших «соседей» по смыслу за миллисекунды.

  4. Поиск. Запрос юриста тоже превращается в вектор. Система находит 10–20 ближайших фрагментов из базы и передаёт их языковой модели вместе с запросом.

  5. Генерация ответа. LLM формулирует ответ, опираясь строго на найденные фрагменты. Каждое утверждение сопровождается ссылкой: номер статьи, название закона, реквизиты судебного решения.

Для юридических текстов критично качество embeddings. Общие модели (например, text-embedding-3-large) справляются с 85–90% запросов. Оставшиеся 10–15% — это специфическая терминология, где мы дообучали embedding-модель на корпусе из 50 000+ юридических документов. Это подняло точность поиска с 87% до 94%.

Почему LLM без RAG даёт галлюцинации в юридическом контексте

Вот конкретный пример. Запрос: «Какой срок исковой давности по требованию о признании оспоримой сделки недействительной?»

GPT-4 без RAG ответил: «Срок исковой давности составляет 3 года с момента, когда лицо узнало о нарушении своего права (ст. 196 ГК РФ)». Это неверно. Статья 196 — про общий срок исковой давности, но для оспоримых сделок действует специальная норма.

RAG-система VibeLab ответила: «Срок исковой давности по требованию о признании оспоримой сделки недействительной и о применении последствий её недейс