Новости

Эксперты и депутаты в России обсуждают проект госрегулирования ИИ

Он запрещает системы с «неприемлемым уровнем риска», вводит маркировку контента и ответственность разработчиков за вред, нанесенный нейросетями.
Основатель компании «Нейросети» Сергей Курьян дал интервью и прокомментировал эту новость для платформы «РР»:
Разработка законопроекта — шаг в правильном направлении. Но крайне важно, чтобы регулирование было гибким, адаптивным и открытым для диалога с ИТ-сообществом. Без этого возможно торможение одной из самых перспективных отраслей. Регуляция ИИ — не про контроль ради контроля, а про установление доверия между обществом, бизнесом и технологиями.
— Нужна ли регуляция ИИ и контента, сгенерированного нейросетями?
— Да, регуляция необходима, но с определёнными оговорками. Искусственный интеллект уже сейчас оказывает существенное влияние на общество, экономику, образование, медиа и даже политику. Без четких правил возможны следующие риски:
  • Дезинформация и дипфейки. Контент, созданный ИИ, может быть неотличим от реального. Это создает угрозу распространения фальсификаций.
  • Нарушения авторских прав. Модели ИИ обучаются на огромных массивах данных, зачастую без согласия правообладателей.
  • Этические вопросы. Как определить ответственность за действия ИИ? Кто виноват, если автономный алгоритм нанес вред?
ИИ-контент нуждается в маркировке и регулировании — но в не запретах, а в прозрачных механизмах контроля.
— Что важно учесть при регулировании ИИ?
1. Определения и терминология
Закон должен четко определять, что считается ИИ, какие виды моделей подпадают под регулирование (например, генеративные модели), а какие — нет.

2. Принцип риск-ориентированности
Не стоит вводить единые жесткие требования для всех систем. ИИ, который пишет рекламные тексты — не то же самое, что ИИ в медицине или в управлении автотранспортом. Нужен дифференцированный подход.

3. Требования к прозрачности
Пользователь должен знать, когда он взаимодействует с ИИ, а не с человеком. Для генеративного контента уместна обязательная маркировка ("сгенерировано ИИ").

4. Ответственность
Важно понимать, кто несет ответственность — разработчик, поставщик, владелец модели или пользователь.

5. Гармонизация с международными практиками
Нельзя создавать замкнутую юрисдикцию — бизнес и технологии глобальны. Закон должен быть совместим с Европейским AI Act, инициативами в Китае и США.
— Как не ограничить развитие технологий?
  • Поддержка sandboxes: Создание безопасных "песочниц" для тестирования ИИ-продуктов без риска блокировок или штрафов.
  • Инновационный мораторий: Для стартапов — временное освобождение от регулирования до достижения определенного масштаба.
  • Инвестиции в открытые модели: Поощрение разработки открытых и прозрачных ИИ, которые можно проверять и улучшать.
  • Образование и компетенции: Регуляторы должны разбираться в технологиях, а не только в праве — иначе закон быстро устареет.
Ознакомиться с полным материалом статьи можно здесь:
Наука и образование