Технологии искусственного интеллекта (ИИ) становятся все более распространенными и все более значимыми в современном мире. Они успешно удовлетворяют различные потребности, начиная от генерации текстов и изображений до организации коммуникаций и распознавания звука и видео. Важно отметить, что современные технологии ИИ стали не только быстрее, но и доступнее. Процессы генерации контента и распознавания происходят практически мгновенно, что делает использование ИИ более эффективным и удобным.
Более того, снижение стоимости и упрощение в использовании делают эти технологии доступными для широкой аудитории, их внедрение и распространение только усиливаются. Весь этот прогресс выдвигает важные правовые вопросы, связанные с защитой прав граждан в контексте использования технологий ИИ.
Один из ведущих экспертов в этой области — Виктор Наумов, главный научный сотрудник Института государства и права Российской академии наук, профессор Московского государственного юридического университета, управляющий партнер офиса компании Nextons в Санкт-Петербурге, руководитель проекта «Сохраненная культура». Он поделился своим мнением о проблемах, сопутствующих быстрому развитию и внедрению технологий ИИ.
Боты, основанные на ИИ, все успешнее заменяют людей в различных областях. Мы сталкиваемся с этим каждый день, например, при звонке в большую компанию или обращении в поддержку банка. Боты и программы все чаще выполняют роль операторов, их целью часто является максимальная автоматизация общения, иногда до такой степени, что собеседник может даже не заметить, что общается не с человеком, а с машиной.
Хотя эффективность и удобство таких технологий очевидны, необходимо учитывать психологический аспект и желание людей общаться именно с другими людьми. Необходимо понимать, что влияние ИИ на общество гораздо шире, чем у большинства других технологий, и при всей мощи и оперативности цифровых технологий мы не всегда осознаем, какие социокультурные изменения могут ожидать нас в будущем из-за широкого внедрения ИИ.
Создается впечатление, что пропаганда цифровых технологий создает прямой доступ к потребителям, и важно провести комплексное анализ и оценку того, какие изменения, как положительные, так и отрицательные, могут произойти в обществе в ближайшие годы.
Проблемы этики, безопасности данных, защиты частной жизни и другие вопросы становятся все более актуальными при обсуждении широкого внедрения технологий ИИ. Необходимо учитывать и адекватно реагировать на вызовы, которые эти технологии представляют для нашего общества и обеспечить баланс между использованием и защитой прав и интересов граждан.
Во время и после звонков ботов многие не подозревают, что их коммуникационные навыки могут быть уступать роботам, будь то добропорядочный бот, нацеленный на продажи, или же злоумышленный, задействованный для манипуляций или мошенничества.
При взаимодействии с искусственным интеллектом, способным распознавать речь и интонации, убедить человека в определенных действиях сегодня проще, чем несколько лет назад.
В правовой сфере давно существует концепция «слабой стороны», направленная на защиту тех, кто, находясь в условиях формального равенства, обладает ограниченными ресурсами и возможностями.
К сожалению, применение этой концепции к пользователям технологий пока не является широко распространенным.
Законодательство также не требует обязательной идентификации использования искусственного интеллекта и не предписывает четко определять, взаимодействует ли собеседник с человеком или с бездушным роботом, цель которого сводится обычно к увеличению прибыли его владельца за счет эмоциональной реакции человека.
Однако все вышеперечисленное — не самое беспокоящее явление.
В настоящее время особенно опасны «нечестные» роботы, применяющие технологии дипфейков, преднамеренно имитирующие голос и внешность известных личностей.
Чаще всего такие роботы используются для мошенничества, и обнаружить такие преступления чрезвычайно сложно из-за их разнообразия и ограниченных ресурсов у правоохранительных органов.
Законодательство не успевает за уровнем общественной опасности, не предоставляя защиты для голоса человека, слабо охраняя его визуальный образ (хотя нормы присутствуют в Гражданском кодексе и законодательстве о персональных данных) и цифровой профиль.
Существует множество факторов, влияющих на текущую ситуацию в области генерации дипфейков. Одним из таких факторов является доступность различных программных решений для создания дипфейков, причем нередко такие решения можно найти даже бесплатно. Качество работы этих программ значительно улучшилось за последние годы, однако мы, кажется, игнорируем данное обстоятельство и уделяем очень мало внимания цифровой гигиене.
Важно отметить, что существует некоторая «толерантность» по отношению к развитию технологий, и говорить о возможных негативных последствиях цифровизации может показаться устаревшим. В современной общественной памяти все больше созданных искусственным интеллектом контента. Многие копирайтеры и дизайнеры обращают внимание на решения ИИ, используя их в своей работе. Существуют случаи, когда целые книги создаются с помощью нейросетей, включая российских авторов. Также были известны случаи использования нейросетей для написания выпускных работ, даже среди студентов. Голливудские сценаристы также столкнулись с новыми технологиями и протестовали против них.
Борьба с технологическими изменениями кажется бесполезной, поскольку они уже тесно встроились в информационное общество. Однако важно определить, как общество относится к этому явлению, учитывая, что использование искусственного интеллекта в работе должно быть прозрачным и честным. В сфере науки и образования, где ценится творческая самостоятельность, до сих пор нет ясной линии разграничения, когда использование ИИ внутри квалификационных работ становится проблемой и нарушением этических норм. Этот вопрос требует внимания и разъяснения со стороны образовательных институтов и регулирующих органов в России.
Автор выступает против использования искусственного интеллекта в творчестве и предлагает создание «зон творчества, свободных от ИИ». В статье «Надцифрою во“лжи”» от 28 августа 2023 года он поднимает вопросы интеллектуальной собственности в контексте создания контента с помощью ИИ.
Главной опасностью считается то, что массовое использование ИИ для создания контента может сделать творчество элитарным и недоступным для большинства людей. Вместо этого им предлагается дешевая «сладкая цифровая морковка» - специально созданный контент, подстраивающийся под желания конкретного индивидуума.
По мнению автора, резкое увеличение контента, создаваемого ИИ, может привести к деградации творческих профессий, уменьшить интерес к культурному наследию и снизить творческие способности человека. Он призывает к осознанному отношению к цифровой трансформации и нахождению решений для смягчения негативных последствий.
Право может стать одним из инструментов защиты интересов человека и общества в условиях все более широкого проникновения ИИ в нашу жизнь. Однако проблема заключается в том, что рост и распространение технологий делают использование ИИ неизбежным, вызывая опасения и тревогу у некоторых людей.
Массированное внедрение технологий ИИ в область медиа и развлечений демонстрирует их значимость, недооцениваемую многими. Именно в этой сфере технологии ИИ могут стать наиболее востребованными и влиятельными. Невероятно важно понимать, что страсть к новым технологиям не должна затмевать уважение к правам и ценностям человека.
В противном случае рискует возникнуть общество, где интерес к технологиям превысит уважение к индивидуальности и человеческим принципам.
В России одним из главных сторонников говорить о защите прав и свобод человека в цифровом мире является СПЧ. Два с половиной года назад они опубликовали отчет, в котором осветили текущую ситуацию с правами человека в цифровой среде.
Для того чтобы эффективно реагировать на изменения, необходимо постепенно вводить специальные законы, включая законы о искусственном интеллекте, которые не только поддерживают развитие этой области, но и обеспечивают защиту прав человека. Недавно был принят законопроект о страховании рисков в области искусственного интеллекта, однако он продемонстрировал свою недостаточность.
Нормативные акты в этой области принимаются медленно и, как правило, с уклоном в пользу интересов крупных корпораций и бизнеса, при этом упоминания об этике, к сожалению, не всегда играют ключевую роль в российском обществе. Также неясно, как современные геополитические процессы влияют на развитие технологий и использование искусственного интеллекта.
В данной ситуации важно установить в законе право человека отказаться от использования цифровых технологий и роботов, чтобы сохранить возможность обращаться к традиционным методам там, где это необходимо. Также важно иметь право знать о том, где и как используются современные технологии в целях обеспечения прозрачности и контроля.