Фейковые видео от ИИ Nvidia нельзя отличить от реальных

7 декабря 2017, 22:04 | Мир и человек, Досуг 162
Поделиться:

Недавно оказалось, что искусственный интеллект Nvidia может открыть ящик пандоры. Недавно оказалось, что существует неконтролируемый метод машинного обучения, который меняет содержание видео, которое он взял. Речь идет об изменении цвета кожи или одежды человека, погодные условия, время суток, добавить транспортные средства и многое другое.

Специалисты объясняют, что ранее в методах машинного обучения использовались большие объемы данных. А из-за этого ИИ долго не мог научиться видеть закономерности и паттерны. Поэтому были попутки научить искусственный интеллект видеть раскраски или картинки, где каждый элемент представляет собой типичную задачу, такую как цветовая заливка, изменение цвета и многое другое.

Такое умение, с одной стороны, может открыть значительные возможности для работы с видео-файлами. Но это пугает людей. Ведь если ИИ умеет делать фейковые видео, которые обычному человеку не распознать, то можно создать любой компромат и любой информационный повод.



Автор статьи:

ЧИТАЙТЕ ТАКЖЕ

Комментарии

Новости партнеров

Загрузка...
Loading...

МЫ В СОЦИАЛЬНЫХ СЕТЯХ

сделать стартовой