Нейросети получили настолько стремительное распространение, что ни общество не успело в полной мере осознать сущность, принципы работы и риски искусственного интеллекта, ни право не успело за столь существенными трансформациями в сфере информационных технологий.
Какие этические и правовые риски могут возникнуть при использовании нейросетей в управлении персоналом?
Функционирование нейросетей является предметом необходимого регулирования нескольких отраслей права: авторского, о защите персональных данных, коммерческой тайны, информационного. Работа нейросети может затрагивать основополагающие права и свободы человека, декларированные в Основном законе страны.
Развитие цифровизации неизбежно, и нам остается только попытаться установить рамки, правила, которые позволили бы использовать достижения искусственного интеллекта во благо, а не во вред, минимизировать риски, связанные с утечкой личных данных, принятием некорректных решений на основе алгоритмов искусственного интеллекта. Порой от этих решений зависит если не судьба, то весьма значимые в жизни человека события и факты.
Нейросети в последние годы активно используются в сфере управления персоналом, в том числе при анализе резюме кандидатов, подборе программ обучения, в психологии. При таком использовании возникают риски как правового, так и этического характера.
В банках искусственный интеллект почти повсеместно принимает решения о выдаче кредитов заемщикам на основании математических алгоритмов. Аналогичным образом алгоритмы могут использоваться для принятия решений о трудоустройстве кандидатов. Искусственный интеллект давно проводит анализ поступивших резюме на соответствие требованиям вакансий, может обзвонить потенциальных кандидатов, задать уточняющие вопросы, проанализировать их и принять необходимые решения. Вместе с тем применяемые алгоритмы могут содержать некорректные установки и решение нейросети окажется дискриминационным в отношении определенного круга лиц. Так, известен случай, когда алгоритм обучался на базе выборки резюме, в которых мужчин оказалось больше, чем женщин, ввиду чего искусственный интеллект приходил к выводу о том, что кандидаты-мужчины предпочтительнее.
Остро стоит вопрос о защите персональных данных соискателей. Как известно, в резюме соискатель указывает довольно подробную информацию о себе, которая может быть использована искусственным интеллектом, в том числе в процессе обучения системы. Представляется разумным запрос согласия соискателя на использование искусственного интеллекта при анализе и обработке персональных данных кандидата, указанных в резюме, согласие на «общение» с нейросетью при постановке дополнительных вопросов и получении недостающей информации о кандидате.
Популярность в последнее время набирает применение искусственного интеллекта в психологии, оценке эмоционального состояния сотрудников, в целях подбора программы обучения и оценки компетенций. Вместе с развитием искусственного интеллекта возрастают и риски, связанные с его применением.
11 мая 2023 г. в Европарламенте приняты первые Правила прозрачности и управления рисками для искусственного интеллекта. Правилами установлен запрет на использование систем искусственного интеллекта в таких сферах, как:
— системы удаленной биометрической идентификации в реальном времени в общедоступных пространствах;
— системы биометрической категоризации, использующие чувствительные характеристики (например, пол, раса, этническая принадлежность, статус гражданства, религия, политические взгляды);
— системы распознавания эмоций в правоохранительных и судебных органах, на рабочих местах и в учебных заведениях;
— неизбирательное удаление биометрических данных из социальных сетей или использование видеозаписей с камер видеонаблюдения для создания баз данных распознавания лиц (нарушающее права человека, в том числе на неприкосновенность частной жизни).
Что касается российского законодательства, определение искусственного интеллекта можно найти в п. 3.17 ГОСТ Р 43.0.5-2009 «Информационное обеспечение техники и операторской деятельности. Процессы информационно-обменные в технической деятельности. Общие положения». Согласно указанной норме искусственный интеллект — моделируемая (искусственно воспроизводимая) интеллектуальная деятельность мышления человека.
В Национальной стратегии развития искусственного интеллекта на период до 2030 года, утвержденной Указом Президента РФ от 10.10.2019 N 490 «О развитии искусственного интеллекта в Российской Федерации» искусственный интеллект определяется как комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Здесь же указывается, что создание универсального (сильного) искусственного интеллекта, способного, подобно человеку, решать различные задачи, мыслить, взаимодействовать и адаптироваться к изменяющимся условиям, является сложной научно-технической проблемой, решение которой находится на пересечении различных сфер научного знания — естественно-научной, технической и социально-гуманитарной. Решение этой проблемы может привести не только к позитивным изменениям в ключевых сферах жизнедеятельности, но и к негативным последствиям, вызванным социальными и технологическими изменениями, которые сопутствуют развитию технологий искусственного интеллекта.
Несмотря на резкое распространение работы искусственного интеллекта в разных сферах жизни общества, человеку трудно принять тот факт, что решения во взаимодействии с ним принимает не человек, а алгоритм с неизвестной программой и мотивацией. Машинное обучение характеризуется рядом особенностей. Для поиска вычислительной системой непредвзятого решения требуется ввести репрезентативный, релевантный и корректно размеченный набор данных. Алгоритмы работы нейронных сетей крайне сложны для интерпретации и, следовательно, результаты их работы могут быть подвергнуты сомнению и отменены человеком. Отсутствие понимания того, как искусственный интеллект достигает результатов, является одной из причин низкого уровня доверия к современным технологиям искусственного интеллекта и может стать препятствием для их развития.
В мире существенно увеличилась доля организаций, которые применяют искусственный интеллект для повышения эффективности бизнес-процессов, в том числе в сфере управления персоналом. По данным опросов, проведенных консалтинговыми компаниями, в развитых странах 50 — 60 процентов всех крупных организаций используют искусственный интеллект.
По итогам 2023 года в Российской Федерации созданы необходимые правовые условия для достижения целей, выполнения основных задач и реализации мер, предусмотренных Стратегией, в том числе принят Кодекс этики в сфере искусственного интеллекта, создана Комиссия по реализации Кодекса.
А. Алексеевская Адвокат, магистр экономики