Разбор возможностей дипфейков

fgfg Picture

За 10 лет количество этических нарушений, связанных с искусственным интеллектом, выросло в 26 раз, подсчитали аналитики AI Index Report 2023.

Распознать сгенерированные нейросетью изображения становится практически невозможно. Растет и многообразие самих дипфейков: если еще несколько лет назад этот термин предполагал замену лица на видео, то сейчас к ним добавили полностью сгенерированные, но правдоподобные фотографии и видео, а также имитация голоса и оригинального текста.

Рост интереса к дипфейкам совпал с бумом генеративных нейросетей, которые создают реалистичные изображения по текстовому запросу пользователя. Чтобы сгенерировать дипфейк, необязательно специально обучать нейросеть — достаточно точно сформулировать запрос.

Порой ИИ получается обмануть даже авторитетные СМИ. В марте 2023 года даже авторитетные издания начали активно распространять фотографии папы Римского в белом пуховике, и лишь спустя некоторое время выяснилось, что эти кадры были сгенерированы с помощью нейросети Midjourney.Как отличить дипфейки от реальных фото и видео, рассуждали спикеры AI-трека на форуме МТС TrueTech Day. Читайте в статье на сайте SecurityLab.ru

Новости
Главное за последнее время
Смотреть все
ВобъективеИИ
Влияние опечаток на LLM и исследование генома
Технологии
MWS AI выпускает открытого ИИ-ассистента для программистов
ВобъективеИИ
Новая action-модель и отслеживание мыслей LLM
Решения
MTS AI выпустила корпоративных ИИ-помощников для поиска по документам и аналитики
Исследования
Более 60% россиян уже не могут отличить дипфейк от фотографии
ВобъективеИИ
Bring Your Own AI и новый метод обучения LLM от Alibaba
ВобъективеИИ
Язык дельфинов и самодетоксикация LLM
ВобъективеИИ
ИИ-хакеры и новые конкуренты DeepSeek
Исследования
Исследование MTS AI: У 70% программистов есть претензии к ИИ-ассистентам для написания кода, но большинство признает их пользу
Технологии
MTS AI выводит на рынок нового ИИ-ассистента для разработчиков