Использование искусственного интеллекта (ИИ) в преступлениях может потребовать введения отдельных специальных составов для уголовной ответственности, сказал статс-секретарь — заместитель директора Росфинмониторинга Герман Негляд. «Если говорить об уголовно-правовой реакции, то возникает много вопросов. Это либо корректировка действующих составов, то есть включение в виде отягчающего обстоятельства использования искусственного интеллекта и нейросетей, либо это введение отдельных специальных составов, которые связаны с использованием искусственного интеллекта и дипфейков», — уточнил Негляд в рамках V Академических слушаний, посвященных проблемам правового регулирования технологий ИИ в России. Кроме того, он задался вопросом о необходимости привлекать к ответственности, в том числе уголовной, должностных лиц и операторов инфраструктуры, если они не внедряют защитные механизмы и игнорируют риски злоупотребления искусственным интеллектом. Спикер также напомнил о росте доли социальной инженерии. «По данным Интерпола, мошенничество с использованием искусственного интеллекта приносит в 4,5 раза больше прибыли, чем традиционные методы», — обратил внимание Негляд. Он указал, что за последние несколько лет число преступлений с использованием информационно-коммуникационных технологий в России постоянно росло, однако в конце прошлого года благодаря пакету «Антифрод» этот рост удалось замедлить. При этом, несмотря на снижение количества преступлений, материальный ущерб увеличился на 6% и достиг 189,5 миллиарда рублей. «Уголовно-правовое воздействие сыграло свою роль, потому что ряд экспертов говорят, что поправки, которые были в 187-й статье УК РФ, повлияли на снижение такого вида преступности», — отметил Негляд. Спикер привел пример мошенничества с использованием дипфейка, когда финансовое ответственное лицо крупной компании после видеоконференции с «руководством» перевел злоумышленникам 25 миллионов долларов, подчеркнув, что такая новая реальность требует реагирования. В эту среду в Москве проходят V Всероссийские Академические слушания, посвященные уголовно-правовой защите от дипфейков и противодействию использованию искусственного интеллекта в преступных целях. Эксперты обсуждают борьбу с рисками в области внедрения цифровых технологий, их регулирование, а также распределение ответственности между разработчиками, платформами и пользователями. Мероприятие организовано АНО «Белый Интернет» совместно с МГИМО МИД РФ. Подписаться на канал РАПСИ в MAX >>> - Россия
- Северо-Западный
-
Центральный
- Белгородская область
- Брянская область
- Владимирская область
- Воронежская область
- Ивановская область
- Калужская область
- Костромская область
- Курская область
- Липецкая область
- Москва
- Московская область
- Орловская область
- Рязанская область
- Смоленская область
- Тамбовская область
- Тверская область
- Тульская область
- Ярославская область
- Южный
- Северо-Кавказский
- Приволжский
- Уральский
- Сибирский
- Дальневосточный
Выбрать субъект
Москва
- Все субъекты
- Белгородская область
- Брянская область
- Владимирская область
- Воронежская область
- Ивановская область
- Калужская область
- Костромская область
- Курская область
- Липецкая область
- Москва
- Московская область
- Орловская область
- Рязанская область
- Смоленская область
- Тамбовская область
- Тверская область
- Тульская область
- Ярославская область
Росфинмониторинг допускает введение отдельных спецсоставов за преступления с ИИ
Использование искусственного интеллекта (ИИ) в преступлениях может потребовать введения отдельных специальных составов для уголовной ответственности, сказал статс-секретарь — заместитель директора Росфинмониторинга Герман Негляд. «Если говорить об уголовно-правовой реакции, то возникает много вопросов. Это либо корректировка действующих составов, то есть включение в виде отягчающего обстоятельства использования искусственного интеллекта и нейросетей, либо это введение отдельных специальных составов, которые связаны с использованием искусственного интеллекта и дипфейков», — уточнил Негляд в рамках V Академических слушаний, посвященных проблемам правового регулирования технологий ИИ в России. Кроме того, он задался вопросом о необходимости привлекать к ответственности, в том числе уголовной, должностных лиц и операторов инфраструктуры, если они не внедряют защитные механизмы и игнорируют риски злоупотребления искусственным интеллектом. Спикер также напомнил о росте доли социальной инженерии. «По данным Интерпола, мошенничество с использованием искусственного интеллекта приносит в 4,5 раза больше прибыли, чем традиционные методы», — обратил внимание Негляд. Он указал, что за последние несколько лет число преступлений с использованием информационно-коммуникационных технологий в России постоянно росло, однако в конце прошлого года благодаря пакету «Антифрод» этот рост удалось замедлить. При этом, несмотря на снижение количества преступлений, материальный ущерб увеличился на 6% и достиг 189,5 миллиарда рублей. «Уголовно-правовое воздействие сыграло свою роль, потому что ряд экспертов говорят, что поправки, которые были в 187-й статье УК РФ, повлияли на снижение такого вида преступности», — отметил Негляд. Спикер привел пример мошенничества с использованием дипфейка, когда финансовое ответственное лицо крупной компании после видеоконференции с «руководством» перевел злоумышленникам 25 миллионов долларов, подчеркнув, что такая новая реальность требует реагирования. В эту среду в Москве проходят V Всероссийские Академические слушания, посвященные уголовно-правовой защите от дипфейков и противодействию использованию искусственного интеллекта в преступных целях. Эксперты обсуждают борьбу с рисками в области внедрения цифровых технологий, их регулирование, а также распределение ответственности между разработчиками, платформами и пользователями. Мероприятие организовано АНО «Белый Интернет» совместно с МГИМО МИД РФ. Подписаться на канал РАПСИ в MAX >>> 


