Регламент ЕС об искусственном интеллекте, или EU AI Act, для бизнеса — прежде всего риск-ориентированная система комплаенса. Он не означает, что ИИ теперь запрещен по умолчанию. Важно другое: для чего именно используется система, какую роль играет ваша компания и не попадает ли конкретный сценарий в зоны запрещенных практик, GPAI или высокорискового ИИ.[2][
3][
5]
Для компаний, которые работают с рынком ЕС, предлагают там цифровые продукты или используют ИИ в европейском контексте, это лучше воспринимать не как абстрактную новость из Брюсселя, а как управленческую задачу: составить карту ИИ-систем, назначить ответственных и заранее понять, какие сроки относятся к каждому случаю.
Что меняет EU AI Act на практике
Главный вопрос смещается с простого: можно ли нам использовать ИИ? — к более точному: как классифицировать этот конкретный сценарий применения?
Например, внутренний инструмент для краткого пересказа документов оценивается иначе, чем система, которая предварительно сортирует резюме, анализирует показатели сотрудников или готовит решения, влияющие на людей. Источники описывают EU AI Act как поэтапный подход: сначала запрещенные практики, затем обязанности для моделей общего назначения — GPAI, после этого основная часть требований к высокорисковым системам и позднее отдельные ИИ-системы в уже регулируемых продуктах.[1][
2][
3][
5]
Для бизнеса удобно начать с трех вопросов:
- Сценарий применения: что именно делает ИИ, с какими данными работает и влияет ли на решения о людях?
- Роль компании: вы используете систему как эксплуатант или deployer, поставляете ИИ-систему как provider либо разрабатываете или предоставляете GPAI-модель?[
2][
5][
8]
- Риск: речь идет о запрещенной практике, GPAI, высокорисковом ИИ или менее чувствительном применении?[
1][
2][
3][
5]
Основные сроки, которые стоит держать в календаре
Эта таблица не заменяет юридическую оценку, но помогает понять, с чего начинать планирование.
| Срок | Что становится актуальным | Что это значит для компании |
|---|---|---|
| С февраля 2025 года | Запрещенные ИИ-практики | В первую очередь нужно исключить сценарии, которые могут попасть в запрещенные категории. Эта фаза нацелена на наиболее вредные практики ИИ уже на раннем этапе применения регламента.[ |
| С августа 2025 года | Обязанности для GPAI-моделей | Поставщикам моделей общего назначения нужно проверить специальные требования к GPAI. Один из источников также указывает, что GPAI-продукты, не выпущенные до августа 2025 года, должны следовать новым правилам с августа 2025 года.[ |
| Со 2 августа 2026 года | Многие требования к высокорисковому ИИ | Для высокорисковых ИИ-систем из Annex III полный комплаенс-режим применяется со 2 августа 2026 года. Один из источников называет эту дату ключевой для многих компаний.[ |
| 2027/2028 годы, в зависимости от продуктового режима | Некоторые высокорисковые ИИ-системы в регулируемых продуктах | Для высокорисковых ИИ-систем, встроенных в уже регулируемые продукты, один из источников описывает более длинные переходные периоды до 2027 и 2028 годов — в зависимости от применимого продуктового режима.[ |
Как провести первичную оценку: сценарий, роль, риск
1. Не начинайте с названия инструмента
Один и тот же ИИ-инструмент может использоваться по-разному. Поэтому сначала нужно описать не бренд и не модную функцию, а реальную цель: помогает ли система писать тексты, анализирует ли клиентов, отбирает ли кандидатов, оценивает ли людей, управляет ли безопасностью или влияет на доступ к услугам.
Особенно рано стоит проверить ИИ в чувствительных областях. Источники называют биометрию, критическую инфраструктуру, образование, занятость и государственные услуги среди сфер, где вопросы высокорискового ИИ могут возникать особенно часто.[3]
2. Определите свою роль
Компания может иметь разные роли в разных проектах. Если вы покупаете готовый ИИ-сервис и используете его внутри, вы часто будете прежде всего эксплуатирующей организацией, то есть deployer. Если вы выводите на рынок собственный продукт с ИИ-функцией, могут появиться обязанности поставщика. Если вы разрабатываете или предоставляете модель общего назначения, добавляются вопросы GPAI.[2][
5][
8]
Это важно, потому что обязанности зависят не только от риска системы, но и от того, предоставляете ли вы ИИ другим, используете ли его сами или выступаете поставщиком модели.[2][
5][
8]
3. Оцените вероятную категорию риска
Для первичной сортировки можно использовать четыре шага:
- Исключить запрещенные практики. Если сценарий попадает в запрещенную категорию, это не вопрос на будущее, а немедленный риск.[
2][
5]
- Проверить связь с GPAI. Вы сами предоставляете модель общего назначения или только используете чужую модель внутри конкретного приложения?[
3][
5]
- Проверить высокорисковый контекст. Относится ли сценарий к чувствительной сфере или влияет на решения о людях?[
1][
3]
- Проверить продуктовый режим. Встроен ли ИИ в уже регулируемый продукт, для которого могут действовать специальные переходные сроки?[
1]
Что бизнесу стоит сделать уже сейчас
Создать реестр ИИ
Первый практический шаг — полный реестр ИИ-систем. В него должны попасть не только крупные стратегические проекты, но и внутренние ассистенты, купленные SaaS-функции, автоматизации, собственные продуктовые возможности и используемые модели.
Минимально полезный реестр должен включать:
- название инструмента или системы;
- цель применения и подразделение;
- внутреннее или внешнее предоставление;
- типы используемых данных;
- людей или группы, которых может затронуть система;
- влияние на решения;
- поставщика, внутреннего владельца и ответственные команды;
- первичную оценку: запрещенная практика, GPAI, потенциально высокорисковый сценарий или более низкий риск.
Такой реестр нужен не ради формальности. Он дает основу, чтобы по каждому сценарию последовательно проверить роль компании и категорию риска.[2][
3][
5]
Приоритизировать чувствительные сценарии
Не все ИИ-приложения требуют одинакового внимания. В первую очередь стоит разобрать системы, которые оценивают людей, влияют на доступ к возможностям или услугам либо используются в чувствительных областях: биометрии, критической инфраструктуре, образовании, занятости и государственных услугах.[3]
На практике в эту зону часто попадают HR-инструменты, предварительный отбор кандидатов, оценка эффективности, приложения рядом с безопасностью и системы, которые готовят решения о людях. Но будет ли конкретный случай действительно высокорисковым, зависит от точного процесса и роли вашей компании.[1][
3]
Подготовить управление и документацию
Для высокорисковых систем источники называют такие требования, как управление рисками, техническая документация и оценка соответствия. Какие именно задачи ложатся на вашу компанию, зависит от роли и конкретной системы.[8] Для высокорисковых систем из Annex III полный комплаенс-режим становится актуальным со 2 августа 2026 года.[
1]
Разумная подготовка включает:
- назначить ответственных в бизнес-подразделениях, IT, защите данных, юридической функции и комплаенсе;
- ввести процесс согласования новых ИИ-инструментов;
- запрашивать у поставщиков техническую документацию, сведения о рисках и договорные гарантии;
- документировать цель, данные, риски, человеческий контроль и изменения системы;
- спорные случаи заранее выносить на юридическую оценку.
Не откладывать ИИ-грамотность
ИИ-грамотность — не только тема для высокорисковых систем. Один из источников описывает требования к AI literacy как широкую обязанность для поставщиков и эксплуатирующих организаций независимо от уровня риска: даже организации с минимально рискованными ИИ-системами должны учитывать требования к ИИ-грамотности и избегать запрещенных практик.[2]
В практическом смысле это означает, что сотрудники, которые выбирают, настраивают или используют ИИ, должны понимать ограничения системы, типичные ошибки и ситуации, когда нужна человеческая проверка.
Три типичных бизнес-сценария
Сценарий 1: компания использует ИИ-ассистент только внутри
Ключевой вопрос — для чего он используется. Внутренняя работа с текстами или помощь в поиске информации оцениваются иначе, чем применение в HR, оценке людей, доступе к услугам или других чувствительных процессах. Но такие инструменты все равно стоит включить в реестр ИИ, а при низком риске остаются важными ИИ-грамотность и понятные правила использования.[2]
Сценарий 2: компания делает SaaS-продукт с ИИ-функцией
Здесь нужно понять, может ли компания считаться поставщиком ИИ-системы и не попадает ли функция в высокорисковый контекст. Для высокорисковых систем с 2026 года особенно значимыми становятся управление рисками, техническая документация и вопросы оценки соответствия.[1][
8]
Сценарий 3: ИИ используется в рекрутинге, скоринге или клиентской поддержке
Рекрутинг и другие процессы, связанные с занятостью, стоит проверять особенно рано: занятость названа среди сфер, где могут возникать вопросы высокорискового ИИ.[3] В скоринге и клиентской поддержке многое зависит от того, просто ли ИИ помогает сотруднику или фактически готовит, влияет на принятие либо автоматизирует решения о людях. Без описания процесса такую систему нельзя надежно классифицировать.
Чек-лист на ближайшие недели
- Собрать все ИИ-применения. Зафиксировать инструменты, модели, продуктовые функции и автоматизации.
- Провести первичную сортировку сценариев. Сначала исключить запрещенные практики, затем проверить связь с GPAI и возможные высокорисковые случаи.[
2][
3][
5]
- Определить роль компании. По каждому сценарию понять, вы эксплуатант, поставщик ИИ-системы или поставщик GPAI-модели.[
2][
5][
8]
- Поставить в приоритет чувствительные области. Рано оценить HR, биометрию, критическую инфраструктуру, образование, государственные услуги и процессы, близкие к принятию решений о людях.[
3]
- Проверить поставщиков. Для купленного ИИ запросить документацию, информацию о рисках, обновлениях и договорных обязательствах.
- Выстроить управление. Назначить ответственных, согласования, обучение и документацию.
- Спланировать подготовку к высокорисковым системам. Для потенциальных систем из Annex III считать 2 августа 2026 года центральной контрольной датой.[
1]
Вывод
Главный вопрос по EU AI Act для бизнеса звучит не так: можно ли нам использовать ИИ? Гораздо важнее другое: какой конкретный сценарий у нас есть, какую роль мы играем и какой срок к нему относится?
Если компания использует несколько внутренних ИИ-инструментов, нагрузка может быть умеренной. Но реестр ИИ, правила использования и ИИ-грамотность все равно важны и в ряде случаев прямо актуальны.[2] Если же вы применяете ИИ в чувствительных областях, предлагаете ИИ-продукт или предоставляете GPAI-модели, откладывать проверку до 2026 года рискованно.[
1][
3][
5]




