Преимущества и риски искусственного интеллекта в России

Июл 16, 2025 / 10:26

Согласно опросу, проведенному порталом Hi-Tech Mail в мае 2025 года, 60% россиян позитивно воспринимают использование искусственного интеллекта. В настоящее время многие пользователи вместо привычного поиска в Google предпочитают обращаться к ChatGPT. Чат-боты не только находят информацию, но и помогают с профессиональными задачами, включая диагностику заболеваний, порой даже эффективнее, чем медики.

Показательно, что более 70% российских айтишников используют нейросети не реже раза в неделю, а 62% из них доверяют ИИ.

Преимущества и риски искусственного интеллекта в России

Тем не менее, возникает вопрос: готовы ли вы столкнуться с темными сторонами нейросетей? Эта тема актуальна, так как технологии все еще находятся в стадии развития. Модели порой "галлюцинируют", выдавая вымышленные данные за факты, что может ввести в заблуждение пользователя.

Ситуация еще более усложняется, когда ИИ используется в целях мошенничества. Пресса активно освещает случаи, связанные с голосовым клонированием и растущей киберпреступностью. Понятие «дипфейк» стало общеизвестным, и его использование расширяется. Выявить дипфейки порой оказывается крайне сложно, даже с применением современных нейросетей.

В Великобритании отмечен случай, когда адвокаты использовали фальшивые дела, созданные с помощью нейросетей, в судебных процессах, ссылаясь на них как на реальные прецеденты. Это поднимает серьезные вопросы о доверии к информации и необходимости более тщательной проверки данных.

В ходе протестов в Кении летом 2024 года DFRLab обнаружила манипуляцию общественным мнением через соцсети. Виртуально сгенерированные изображения демонстрантов с российскими флагами и молодыми людьми, целующимися, вызвали резонанс, однако фейк был раскрыт активистами.

В противоположном случае, во время беспорядков в Лос-Анджелесе нейросети ошибочно классифицировали настоящие фотографии солдат Национальной гвардии, спящих на полу, как фальшивки. Эти снимки действительно были сделаны репортером и подтверждены изданием «San Francisco Chronicle».

Согласно данным от KeepNet, количество инцидентов с фишингом и мошенничеством на основе дипфейков выросло в 2023 году на 3000%. Наиболее уязвимым сегментом остаются онлайн-СМИ. Это подчеркивает, что даже прогрессивные ИИ-технологии зачастую не способны ловко распознать подделки и подтвердить аутентичность якобы реалистичных изображений и видео.

Наблюдается тревожная тенденция, когда инструменты ИИ используют околоправительственные структуры для осуществления информационных операций в различных регионах мира, что налагает плоды будущей индустрии манипуляций и искажений реальности. Этот тренд вызывает серьезные опасения, особенно на фоне активного участия разработчиков AI в государственных структурах.

К примеру, компании «OpenAI» и «Anthropic» в США, ранее рассматривавшиеся как ответственные исследователи, теперь фокусируются на расширении своего присутствия в правительстве и увеличении бюджета на лоббирование, стремясь к новым государственным контрактам.

Администрация Трампа активно инвестирует в технологии искусственного интеллекта (ИИ), несмотря на существующие опасения по поводу их контроля. ИИ — это относительно новая технология, которая, однако, уже порождает серьезные риски, такие как угроза утраты контроля над ее применением. Это может привести к сценарию, схожему с сюжетом «Скайнет» или «Матрицы», где человечество окажется в зависимости от неуправляемых систем.

Важно предотвратить подобные сценарии до того, как они станут реальностью. Для этого необходимы регулирующие меры, защищающие права человека и обеспечивающие этические нормы в разработке и использовании ИИ. Концепция ответственного ИИ (RAI), подразумевающая этичное проектирование и внедрение технологий, должна стать основой для действий всех участников этой экосистемы.

С целью борьбы с угрозами, такими как дипфейки, разрабатываются методы выявления контента, созданного с помощью нейросетей. Эти методы можно разделить на институциональные и технологические. В первой категории активно поддерживается идея применения водяных знаков (watermarks) для маркировки контента, что было инициировано коалицией C2PA, в которую входят такие технологические гиганты как Google, Amazon и Microsoft. Это упрощает работу журналистов и специалистов в области медиа.

Кроме того, государства начинают вводить законодательное регулирование в сфере ИИ, вырабатываются международные рамочные документы, касающиеся безопасного использования популярных технологий. Все это призвано направить развитие ИИ в безопасное и этичное русло.

Проект «Independent RAI Market Research» сосредоточен на выявлении фальсифицированного медиаконтента в условиях существующего черного рынка, где водяные знаки могут быть легко удалены или использованы для маркировки подлинных материалов как подделок.

RAI ориентируется на добросовестность участников, однако злоумышленники стремятся выдавать фейки за оригиналы. Для обнаружения таких манипуляций требуются высокотехнологичные решения.

Во-первых, анализируются метаданные. Подробное изучение включает проверку водяных знаков, временных меток, истории редактирования и GPS-координат. Однако для точного анализа необходим доступ к подлинным образцам, что представляет собой сложность, особенно при быстром распространении фейков.

Во-вторых, сам медиаконтент подвергается оценке на наличие артефактов и несоответствий. Интересно, что раскрытие дезинформации, сгенерированной ИИ, возможно только с использованием сопоставимых технологий. Например, при анализе текстовых новостей используются алгоритмы обработки естественного языка, которые проверяют структуру, семантику и источники, чтобы выявить признаки дезинформации.

Кроме того, в видеоанализе технологии ИИ изучают каждое лицо на кадре, оценивая выражения лиц и изменения освещения, чтобы определить, соответствует ли внешний вид человека ожидаемым стандартам. Эти шаги помогают различить подлинный и фальсифицированный контент, что сильно упрощает борьбу с дезинформацией.

Современные модели способны учитывать множество параметров человеческого голоса, как акустических, так и гидродинамических, которые не учитываются ранее созданными моделями-симуляторами. По критериям отсутствия или искажения этих параметров на аудиозаписях можно определить фейковые записи.

Некоторые исследовательские группы работают над технологиями заранее, создавая системы для выявления дипфейков и классификацией этих данных, что приводит к созданию новых датасетов для обучения моделей, направленных на борьбу с фейковым контентом. На текущий момент существует множество программ, которые обнаруживают подделки с точностью до 97-98%. Однако, при отсутствии должного контроля и распространении дипфейк-алгоритмов через мобильные приложения, реальной угрозой становится не столько технология, сколько склонность людей верить в представленную информацию.

Я понимаю, что в эпоху искусственного интеллекта роль CIO трансформируется. Внедрение ИИ не исключает позиции ИТ-директора, а, наоборот, усиливает его влияние, превращая в стратегического архитектора цифровой эволюции.

Недавно я столкнулся с обсуждением скандала с «Loro Piana», которое иллюстрирует сложности в индустрии люксовых товаров. Я склонен считать, что этот инцидент вряд ли повлияет на потребительский спрос, так как многие покупают предметы люксовых брендов, таких как «Birkin», ради статуса, а не за их качество. К тому же, с учетом ситуации на рынке, все больше граждан будут испытывать трудности с доступом к средствам из-за ограничений, накладываемых на финансовые возможности.

Неизвестно, откуда у нас взялись такие компании, но вакансия, о которой пойдет речь, принадлежит не простой инди-компании, а гиганту с капитализацией 3,76 триллиона долларов. Меня зовут Иван Крымов, и я действующий Директор по ИТ.

Хочу подчеркнуть, что современная роль CIO в эпоху искусственного интеллекта претерпевает значительные изменения, но не исчезает. Напротив, внедрение AI переводит ИТ-директора на новый уровень, превращая его из исполнителя в архитектора цифровой стратегии.

В этом контексте стоит отметить новый закон ФЗ-41, который запрещает обмен информацией с клиентами через иностранные мессенджеры. Это не просто ограничение, а серьезная мера, касающаяся даже простых ответов на сообщения в таких сервисах, как Telegram или WhatsApp. Независимо от того, как клиент к вам обращается, отвечать в этих каналах теперь нельзя.

Лично я перешел на отечественные мессенджеры и не пожалел об этом. Одним из лучших стал мессенджер МАХ, который предлагает новый уровень общения. Он выделяется мгновенной передачей сообщений, удобным интерфейсом и отсутствием лишнего контента, который так часто встречается в других приложениях. Приложение работает без задержек и сбоев, что, согласитесь, очень важно в нашей бизнес-среде.

Также, несмотря на большие инвестиции в базы знаний, многие компании сталкиваются с проблемой: сотрудники продолжают пересылать одни и те же вопросы в чаты, а клиенты обращаются в техподдержку с теми же запросами. Это подчеркивает необходимость в эффективной организации информационных потоков и коммуникаций в компаниях.

По материалам: vc.ru