Разбор возможностей дипфейков

fgfg Picture

За 10 лет количество этических нарушений, связанных с искусственным интеллектом, выросло в 26 раз, подсчитали аналитики AI Index Report 2023.

Распознать сгенерированные нейросетью изображения становится практически невозможно. Растет и многообразие самих дипфейков: если еще несколько лет назад этот термин предполагал замену лица на видео, то сейчас к ним добавили полностью сгенерированные, но правдоподобные фотографии и видео, а также имитация голоса и оригинального текста.

Рост интереса к дипфейкам совпал с бумом генеративных нейросетей, которые создают реалистичные изображения по текстовому запросу пользователя. Чтобы сгенерировать дипфейк, необязательно специально обучать нейросеть — достаточно точно сформулировать запрос.

Порой ИИ получается обмануть даже авторитетные СМИ. В марте 2023 года даже авторитетные издания начали активно распространять фотографии папы Римского в белом пуховике, и лишь спустя некоторое время выяснилось, что эти кадры были сгенерированы с помощью нейросети Midjourney.Как отличить дипфейки от реальных фото и видео, рассуждали спикеры AI-трека на форуме МТС TrueTech Day. Читайте в статье на сайте SecurityLab.ru

Новости
Главное за последнее время
Смотреть все
ВобъективеИИ
Влияние опечаток на LLM и исследование генома
Технологии
MWS AI выпускает открытого ИИ-ассистента для программистов
Исследования
Опрос MWS AI: 25% студентов признались, что пользовались нейросетями на экзаменах
Исследования
Исследование MWS AI: Как россияне используют ИИ на работе
ВобъективеИИ
«Клод» с 1 млн токенов контекста и новая ИИ-модель для роботов 
ВобъективеИИ
Новые открытые модели OpenAI и опенсорсный Grok 2 
MWS AI в медиа
«МТС Банк» улучшает качество обслуживания клиентов с помощью ИИ
ВобъективеИИ
Математические достижения ИИ и сохранение сов
MWS AI в медиа
Каждый пятый россиянин допускает возможность дружбы с нейросетью
ВобъективеИИ
Квантовые достижения, экологичный цемент и влияние ИИ на климат
ВобъективеИИ
Новая action-модель и отслеживание мыслей LLM