Использование ИИ может привести к тюремному заключению: Российская газета

Использование ИИ может привести к тюремному заключению: Российская газета

Использование искусственного интеллекта в рабочих процессах, особенно при обработке конфиденциальной информации, может нести риски для сотрудника.

Например, непреднамеренная загрузка персональных данных клиентов, таких как имена, адреса и другие личные сведения, в систему ИИ может привести к серьезным последствиям.

«Юридические лица, индивидуальные предприниматели, которые используют личную информацию граждан в своей деятельности, относятся к операторам персональных данных. По закону у них есть ряд обязанностей, за невыполнение которых грозит штраф, а иногда и уголовная ответственность», — пояснил «Российской газете» юрист, руководитель Центра правопорядка в г. Москве и Московской области Александр Хаминский.

В настоящее время наблюдается тенденция активного внедрения искусственного интеллекта в бизнес-процессы многих организаций. ИИ становится ценным инструментом для анализа больших массивов информации, позволяя оперативно обрабатывать данные и извлекать необходимые сведения.

Тем не менее, применение искусственного интеллекта при работе с личной информацией граждан может привести к юридическим последствиям, включая административные штрафы и уголовное преследование.

«Оператором, осуществляющим действия (операции) с персональными данными с точки зрения закона, может быть как государственный орган, так и юридическое, а также физическое лицо. Работодатель по умолчанию является оператором персональных данных и обязан соблюдать все требования и запреты на обработку таких данных», — отметил юрист.

Как правило, инструменты на основе искусственного интеллекта разрабатываются и поддерживаются внешними компаниями. Передача личной информации сторонним организациям, как правило, требует получения предварительного письменного разрешения от владельца этой информации.

Однако, существуют законодательно определенные исключения, когда согласие не требуется. К ним относятся ситуации, когда информация передается государственным учреждениям (например, в налоговую инспекцию или Социальный фонд) или когда существует риск для жизни или здоровья сотрудника.

«Если посмотреть политику обработки персональных данных ведущих мировых платформ ИИ, то станет ясно, что такие компании не только с удовольствием собирают персональные данные, но и активно используют их в своей деятельности. В 2020 году для создания генеративной текстовой системы ИИ был проведен обзор миллионов страниц постов, книг и веба в целом, в том числе и персональных данных, которыми пользователи делятся онлайн. Из-за этого ChatGPT попал под временный запрет в Италии, обратив на себя внимание надзорных органов в сфере защиты данных. Таким образом, передача персональных данных, умышленная или случайная, для обработки ИИ будет заведомо являться нарушением закона», — уточнил Хаминский.

Единственным случаем, когда подобная передача допустима, является наличие письменного разрешения от самого работника.

«Так, в соответствии с ч. 8 ст. 13.11 КоАП РФ невыполнение оператором при сборе персональных данных обязанности по обеспечению записи, систематизации, накопления, хранения персональных данных граждан с использованием баз данных, находящихся на территории Российской Федерации, влечет наложение административного штрафа от одного миллиона до шести миллионов рублей. Если же должностное лицо компании неправомерно получило доступ к персональным данным работников и использует эти данные для передачи на платформы ИИ, то ему грозит уже уголовная ответственность по ст. 272.1 УК РФ, предусматривающая наказание в виде лишения свободы на срок до шести лет со штрафом в размере до одного миллиона рублей», — констатировал Хаминский.

Загрузка ...