11 апреля, 09:05
Технологии
Фото: 123RF/vectorfusionart
В России предложили ввести запрет на разработку искусственного интеллекта (ИИ) с повышенным, или неприемлемым, риском безопасности. Об этом сообщает РБК со ссылкой на источники.
Соответствующее предложение выдвинула группа юристов, сотрудников консалтинговых компаний и представителей рынка по развитию ИИ. Они разработали проект, согласно которому в России может появиться законодательное регулирование для искусственного интеллекта.
В рамках инициативы в том числе можно будет маркировать ИИ по степени потенциальной опасности: системы с неприемлемым, высоким, ограниченным и минимальным риском.
Также авторы проекта предложили ввести запрет на создание и применение ИИ повышенного уровня риска, который может стать опасным как для личности и общества, так и для государства, а также нарушать базовые права и свободы человека.
Помимо этого, проектом планируется ввод обязательной государственной регистрации и сертификации систем, которые представляют высокий уровень риска в таких областях, как здравоохранение, транспорт, финансы и правоохранительная деятельность. Для систем с более низким уровнем риска будет определен внутренний контроль качества и добровольная сертификация.
Собеседники издания заявили, что инициатива уже была вынесена на обсуждение в Госдуме, "Деловой России" и на отраслевых дискуссионных площадках.
С предложением разработать единые правила маркировки контента, созданного с помощью нейросетей, выступал ранее депутат Законодательного собрания Санкт-Петербурга Павел Крупник. В обращении к главе Минцифры Максуту Шадаеву он заявил, что злоумышленники начали использовать ИИ для создания контента с целью совершения правонарушений.
Депутат призвал Шадаева изучить возможность ввода маркировки для сгенерированных или измененных фото, видео, аудио при помощи сообщений-плашек для "избежания потенциально общественно опасных ситуаций".
Более половины москвичей используют ИИ для решения личных задач