Переходный период законопроекта об искусственном интеллекте (ИИ) и разъяснения Верховного суда (ВС) РФ помогут правильно квалифицировать преступления с применением технологий, сказала адвокат, доцент кафедры интеграционного права и прав человека МГИМО Екатерина Торкунова. «Переходный период следует использовать для апробации в экспериментальном правовом режиме, а также для разработки постановления Пленума Верховного суда РФ, который разъяснит судам особенности квалификации преступлений, совершенных с использованием искусственного интеллекта, и стандарты оценки добросовестности разработчиков, операторов», — уточнила Торкунова в рамках V Академических слушаний, посвященных проблемам правового регулирования технологий ИИ в России. Она отметила, что комплексный подход с материальным, административным и уголовным регулированием позволит обеспечить безопасность личности, общества и государства, не ограничивая при этом инновационную активность. Спикер предложила, чтобы обязательное согласование с уполномоченными органами касалось только доверенных моделей ИИ, объектов критической инфраструктуры и обработки информации ограниченного доступа. При этом акты о мерах государственной поддержки и внедрении технологий в коммерческом секторе не должны требовать такого согласования, если это не предусмотрено законом. Она также отметила, что нужно скорректировать нормы об ответственности разработчиков, операторов и владельцев сервисов, чтобы сохранялась презумпция невиновности и учитывались только случаи, когда они заведомо знали о преступном использовании своих технологий. Кроме того, Торкунова призвала ввести уголовную ответственность за удаление или скрытие предупреждений о применении ИИ в синтезированном аудио- и видеоконтенте, если это используется для преступлений, и обязать операторов предоставлять правоохранительным органам информацию для расследований. В эту среду в Москве проходят V Всероссийские Академические слушания, посвященные уголовно-правовой защите от дипфейков и противодействию использованию искусственного интеллекта в преступных целях. Эксперты обсуждают борьбу с рисками в области внедрения цифровых технологий, их регулирование, а также распределение ответственности между разработчиками, платформами и пользователями. Мероприятие организовано АНО «Белый Интернет» совместно с МГИМО МИД РФ. Подписаться на канал РАПСИ в MAX >>> - Россия
- Северо-Западный
-
Центральный
- Белгородская область
- Брянская область
- Владимирская область
- Воронежская область
- Ивановская область
- Калужская область
- Костромская область
- Курская область
- Липецкая область
- Москва
- Московская область
- Орловская область
- Рязанская область
- Смоленская область
- Тамбовская область
- Тверская область
- Тульская область
- Ярославская область
- Южный
- Северо-Кавказский
- Приволжский
- Уральский
- Сибирский
- Дальневосточный
Выбрать субъект
Центральный федеральный округ
- Все субъекты
- Белгородская область
- Брянская область
- Владимирская область
- Воронежская область
- Ивановская область
- Калужская область
- Костромская область
- Курская область
- Липецкая область
- Москва
- Московская область
- Орловская область
- Рязанская область
- Смоленская область
- Тамбовская область
- Тверская область
- Тульская область
- Ярославская область
Эксперт предлагает дождаться разъяснений Верховного суда по преступлениям с ИИ
Переходный период законопроекта об искусственном интеллекте (ИИ) и разъяснения Верховного суда (ВС) РФ помогут правильно квалифицировать преступления с применением технологий, сказала адвокат, доцент кафедры интеграционного права и прав человека МГИМО Екатерина Торкунова. «Переходный период следует использовать для апробации в экспериментальном правовом режиме, а также для разработки постановления Пленума Верховного суда РФ, который разъяснит судам особенности квалификации преступлений, совершенных с использованием искусственного интеллекта, и стандарты оценки добросовестности разработчиков, операторов», — уточнила Торкунова в рамках V Академических слушаний, посвященных проблемам правового регулирования технологий ИИ в России. Она отметила, что комплексный подход с материальным, административным и уголовным регулированием позволит обеспечить безопасность личности, общества и государства, не ограничивая при этом инновационную активность. Спикер предложила, чтобы обязательное согласование с уполномоченными органами касалось только доверенных моделей ИИ, объектов критической инфраструктуры и обработки информации ограниченного доступа. При этом акты о мерах государственной поддержки и внедрении технологий в коммерческом секторе не должны требовать такого согласования, если это не предусмотрено законом. Она также отметила, что нужно скорректировать нормы об ответственности разработчиков, операторов и владельцев сервисов, чтобы сохранялась презумпция невиновности и учитывались только случаи, когда они заведомо знали о преступном использовании своих технологий. Кроме того, Торкунова призвала ввести уголовную ответственность за удаление или скрытие предупреждений о применении ИИ в синтезированном аудио- и видеоконтенте, если это используется для преступлений, и обязать операторов предоставлять правоохранительным органам информацию для расследований. В эту среду в Москве проходят V Всероссийские Академические слушания, посвященные уголовно-правовой защите от дипфейков и противодействию использованию искусственного интеллекта в преступных целях. Эксперты обсуждают борьбу с рисками в области внедрения цифровых технологий, их регулирование, а также распределение ответственности между разработчиками, платформами и пользователями. Мероприятие организовано АНО «Белый Интернет» совместно с МГИМО МИД РФ. Подписаться на канал РАПСИ в MAX >>> Главное в регионе
14:52, 25 марта 2026
Недопустимо называть жертвами операторов мошеннических колл-центров — Сидоренко 
