Искусственный интеллект и применение его в коммуникациях – одна из популярных тем. Однако любая новая цифровая технология кроме блага несёт также риски и угрозы. Возможности искусственного интеллекта будут развиваться в том направлении, в котором его программирует его создатель.
Искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру (в том числе информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений
ФЗ от 24.04.2020 N 123-ФЗ
Создание контента программными продуктами, использующими технологии искусственного интеллекта уже прочно вошло в нашу жизнь. Искусственный интеллект сейчас применяется в различных сферах, включая:
И это далеко не полный список областей, где искусственный интеллект уже активно применяется или имеет потенциал для внедрения. Кстати, даже данная статья частично написана при помощи ИИ.
Нас с вами, тех кто работает в медиапространстве, в первую очередь интересуют возможности и риски новых технологий позволяющих создавать аудио и визульный контент. В открытом доступе масса бесплатных и платных интернет-ресурсов, предлагающих генерацию контента. Всего полчаса и у вас на руках подобное рекламное видео.
- Машинное обучение и анализ данных - для обработки больших объемов данных, выявления закономерностей и предсказания тенденций.
- Робототехника и автономные системы - для создания роботов и автоматизированных систем, способных выполнять задачи без прямого контроля человека.
- Медицина и здравоохранение - для диагностики заболеваний, составления индивидуальных планов лечения и оптимизации работы медицинских учреждений.
- Финансовые технологии - для автоматизации торговых операций, анализа финансовых рынков и предоставления инвестиционных рекомендаций.
- Промышленный интернет вещей (IIoT) - для оптимизации производственных процессов, мониторинга оборудования и предотвращения простоев.
- Развлечения и образование - для создания виртуальных ассистентов, обучающих систем и игровых платформ с элементами искусственного интеллекта.
- Транспорт и логистика - для управления транспортными потоками, оптимизации маршрутов и автоматизации складских операций.
- Безопасность - для распознавания лиц, голосов и объектов, а также для анализа поведения пользователей в сети для предотвращения кибератак.
- Сельское хозяйство и экология - для мониторинга состояния почв, предсказания погоды и оптимизации использования ресурсов.
- Потребительский сектор - для персонализации рекламы и предложений, улучшения обслуживания клиентов и оптимизации цепочек поставок.
И это далеко не полный список областей, где искусственный интеллект уже активно применяется или имеет потенциал для внедрения. Кстати, даже данная статья частично написана при помощи ИИ.
Нас с вами, тех кто работает в медиапространстве, в первую очередь интересуют возможности и риски новых технологий позволяющих создавать аудио и визульный контент. В открытом доступе масса бесплатных и платных интернет-ресурсов, предлагающих генерацию контента. Всего полчаса и у вас на руках подобное рекламное видео.
Однако, технологии синтеза изображений с открытым исходным кодом, такие как, например, Stable Diffusion, позволяют с легкостью создавать и деструктивный контент, включая порнографию. Поскольку модели искусственного интеллекта открыто доступны и их часто можно запускать локально, будет сложно осуществлять контроль за производством деструктивного контента нейросетями. При этом крупные проекты, такие как российский продукт Kandinsky, западные Midjourney, DALL-E, и Adobe Firefly имеют встроенные фильтры, запрещающие создание деструктивного контента.
Дипфейк - это синтетические носители информации, обработанные цифровым способом и позволяющие подменять лица или другие элементы на видео или изображениях, синтезировать голос с помощью искусственного интеллекта. Дословно переводится как «глубокая подделка», что наиболее точно отвечает сути технологии – манипуляции внешностью лица путём глубокой генерации.
Дипфейк может использоваться для создания фальшивых видео, где люди выглядят или говорят иначе, чем на самом деле. Дипфейки создаются с помощью различных программ и алгоритмов, которые обучаются на больших объемах данных. Технология может использоваться как в законных, так и в незаконных целях, например, для распространения ложной информации или манипулирования общественным мнением.
Кстати, бесконтрольное употребление технологии дипфейков для производства порнографии, в том числе детской, также активно обсуждается в профессиональных сообществах. Инструменты искусственного интеллекта могут быстро и легко создавать подделки с лицами ваших детей, взятых их открытых социальных сетей. Уровень проблемы наглядно показывает и частота запросов. Если поисковые запросы «дипфейк» в Яндексе составили 177 тыс. в месяц, то «дипфейк порно» - 52 тысяч в месяц.
Наше законодательство, как правило, не успевает за прогрессом, в связи с чем длительное время подобные нарушения могут быть безнаказанными. С 2019 года идут в работы в законодательном секторе по разработке правовых норм, регулирующих применение ИИ. Но, так как сфера использования нейросетей ширится с каждым днём, необходимо более оперативно вводить нормы, регулирующие понятия ИИ, дипфейка, позволяющие регулировать, а также привлекать к ответственности лиц, использующих технологии ИИ для производства деструктивного контента.
Более 80% юристов настаивают на необходимости законодательного регулирования дипфейков в России, а свыше 89% из них считают, что самой популярной проблемой с массовым использованием этих технологий может стать распространение ложной информации. Об этом говорится в исследовании образовательной платформы Moscow Digital School, входящий в Ultimate Education.
Абсолютное большинство опрошенных юристов (89,3%) отметили распространение ложной информации как основную проблему при массовом использовании технологии дипфейк в России, 73,2% выделили нарушение неимущественных прав граждан, в том числе права на имя, 73,2% — нарушение авторских и смежных прав, 58,9% — риск, связанный с нарушением закона о защите персональных данных, а 39,3% отметили нарушение закона о рекламе: юристы считают, что использование дипфейков для создания рекламы или продвижения товаров и услуг может привести к штрафам и искам для компаний. Также ряд респондентов обратили внимание на проблему уголовного характера, они отметили, что сегодня увеличилось использование дипфейков в качестве способа совершения преступлений.
Кстати, вопрос с контролем контента, созданного ИИ, встаёт всё острее. Уже отцы-основатели нейронки DALLE-E из компании OpenAI возвестили о работе над продуктом, который будет определять сгенерировано то или иное изображение их нейросетью или нет. Ещё ряд западных компаний ведут изыскания в данном направлении, привлекая крупные инвестиции. Например, Reality Defender заявила о планах вложить 15 млн долларов в инструменты для обнаружения дипфейков и другого контента, созданного искусственным интеллектом. По данным зарубежных аналитиков в этом году в Интернет было размещено в три раза больше подделок видео и в восемь раз больше подделок голоса по сравнению с аналогичным периодом 2022 года.
Рост объема дипфейков во многом объясняется коммерциализацией генеративных инструментов искусственного интеллекта. Клонирование голоса или создание поддельного изображения или видео - то есть изображения или видео, с помощью цифровых манипуляций убедительно заменяющих сходство с человеком, — раньше стоило от сотен до тысяч долларов и требовало ноу-хау в области обработки данных. За последние несколько лет голососинтезирующие и генерирующие изображения платформы позволили злоумышленникам проводить кампании по глубокой подделке практически бесплатно.
Новизна и трендовость стимулировали и крупные компании попробовать дипфейк в своих рекламных продуктах. Наверняка вам запомнилась реклама Мегафона с "участием" Брюса Уиллиса. А кто-то наверняка посмотрел дипфейк-сериал "ПМЖэйсон".
Наше законодательство, как правило, не успевает за прогрессом, в связи с чем длительное время подобные нарушения могут быть безнаказанными. С 2019 года идут в работы в законодательном секторе по разработке правовых норм, регулирующих применение ИИ. Но, так как сфера использования нейросетей ширится с каждым днём, необходимо более оперативно вводить нормы, регулирующие понятия ИИ, дипфейка, позволяющие регулировать, а также привлекать к ответственности лиц, использующих технологии ИИ для производства деструктивного контента.
Более 80% юристов настаивают на необходимости законодательного регулирования дипфейков в России, а свыше 89% из них считают, что самой популярной проблемой с массовым использованием этих технологий может стать распространение ложной информации. Об этом говорится в исследовании образовательной платформы Moscow Digital School, входящий в Ultimate Education.
Абсолютное большинство опрошенных юристов (89,3%) отметили распространение ложной информации как основную проблему при массовом использовании технологии дипфейк в России, 73,2% выделили нарушение неимущественных прав граждан, в том числе права на имя, 73,2% — нарушение авторских и смежных прав, 58,9% — риск, связанный с нарушением закона о защите персональных данных, а 39,3% отметили нарушение закона о рекламе: юристы считают, что использование дипфейков для создания рекламы или продвижения товаров и услуг может привести к штрафам и искам для компаний. Также ряд респондентов обратили внимание на проблему уголовного характера, они отметили, что сегодня увеличилось использование дипфейков в качестве способа совершения преступлений.
Кстати, вопрос с контролем контента, созданного ИИ, встаёт всё острее. Уже отцы-основатели нейронки DALLE-E из компании OpenAI возвестили о работе над продуктом, который будет определять сгенерировано то или иное изображение их нейросетью или нет. Ещё ряд западных компаний ведут изыскания в данном направлении, привлекая крупные инвестиции. Например, Reality Defender заявила о планах вложить 15 млн долларов в инструменты для обнаружения дипфейков и другого контента, созданного искусственным интеллектом. По данным зарубежных аналитиков в этом году в Интернет было размещено в три раза больше подделок видео и в восемь раз больше подделок голоса по сравнению с аналогичным периодом 2022 года.
Рост объема дипфейков во многом объясняется коммерциализацией генеративных инструментов искусственного интеллекта. Клонирование голоса или создание поддельного изображения или видео - то есть изображения или видео, с помощью цифровых манипуляций убедительно заменяющих сходство с человеком, — раньше стоило от сотен до тысяч долларов и требовало ноу-хау в области обработки данных. За последние несколько лет голососинтезирующие и генерирующие изображения платформы позволили злоумышленникам проводить кампании по глубокой подделке практически бесплатно.
Новизна и трендовость стимулировали и крупные компании попробовать дипфейк в своих рекламных продуктах. Наверняка вам запомнилась реклама Мегафона с "участием" Брюса Уиллиса. А кто-то наверняка посмотрел дипфейк-сериал "ПМЖэйсон".
Итак, искусственный интеллект уже призван для борьбы с искусственным интеллектом, помогая организациям, платформам и правительствам определять, является ли материал реальным или им манипулируют.
Использование ИИ требует от нас, специалистов пиара и маркетинга, новых цифровых навыков и глубоких знаний возможностей применения ИИ в современных технологиях коммуникаций. Требует осознания рисков и ответственности перед потребителем при использовании этих технологий
Использование ИИ требует от нас, специалистов пиара и маркетинга, новых цифровых навыков и глубоких знаний возможностей применения ИИ в современных технологиях коммуникаций. Требует осознания рисков и ответственности перед потребителем при использовании этих технологий