В России хотят запретить ИИ с "угрожающим уровнем риска"
Fri, 11 Apr 2025 16:20:30
"Неприемлемый уровень риска" от ИИ можно трактовать как риск, связанный с жизнью и здоровьем граждан, национальной безопасностью, объяснил в интервью радио Sputnik руководитель образовательный программы "Искусственный интеллект и моделирование когнитивных процессов" МИФИ.
В России эксперты и депутаты обсуждают проект госрегулирования ИИ, пишет РБК, ссылаясь на пять источников, знакомых с инициативой, которая запрещает системы с "неприемлемым уровнем риска", вводит маркировку контента и ответственность разработчиков за вред, нанесенный нейросетями. Руководитель образовательный программы "Искусственный интеллект и моделирование когнитивных процессов" МИФИ рассказал радио Sputnik, что означает "неприемлемый уровень риска" от нейросетей для России.
"Под неприемлемым уровнем риска, скорее всего, понимается использование разнообразных моделей искусственного интеллекта при разработке информационных систем или автоматизированных систем в критических областях, то есть это области, которые связаны с жизнью и здоровьем граждан, с неприемлемым экономическим риском, риском нацбезопасности и так далее", – объяснил Роман Душкин.
Также под "неприемлемым риском" можно понять, что генеративная модель, не должна советовать пользователю противоправные действия или нанесение вреда самому себе, добавил эксперт.
"Как минимум это должно маркироваться с другой стороны, инженеры работают над тем, чтобы повышать уровень точности, и чтобы пользователю отдавался выровненный контент, значит, приведённый в соответствие с местным законодательством", – заключил Роман Душкин.