ГОСОРГАНЫГОСОРГАНЫ
Флаг Четверг, 12 декабря 2024
Минск-Уручье Сплошная облачность -2°C
Все новости
Все новости
Общество
15 января 2020, 11:05

Эксперты обеспокоены несовершенством технологий распознавания deepfakes

Виталий Демиров
Виталий Демиров

15 января, Минск /Корр. БЕЛТА/. Эксперты обеспокоены несовершенством технологий распознавания deepfakes. Речь об этом шла во время очередного заседания проекта "Экспертная среда" - "Deepfakes: новый вызов информационной безопасности" в пресс-центре БЕЛТА.

Аналитик Белорусского института стратегических исследований (БИСИ) Виталий Демиров подчеркнул, что воздействие deepfakes и fake news на политику, общество, бизнес становится гораздо более ощутимым, а новые технологии, которые пытаются усилить этот эффект, - более заметными. "В то же время сейчас пока нет завершенных техрешений, которые бы помогали распознавать deepfakes", - выразил обеспокоенность эксперт. Когда они появятся, важно, чтобы распознавание таких роликов шло достаточно быстро. Если обличение будет запаздывать, то видео успеет вызвать эффект в соцсетях.

По словам Виталия Демирова, для создания фейковых роликов не нужно глубоких познаний в программировании. "Уже есть пакет готовых программ, с помощью которых путем определенных манипуляций можно это делать", - сказал он. Процесс пока достаточно длительный по времени. Например, на монтаж 40-секундного видео сейчас может уходить неделя и больше. "Для ролика такой длины среднего качества может потребоваться, условно говоря, виртуальная машина с четырьмя видеокартами, каждая из которых должна быть примерно на 8-16 ГБ. Понятно, что для простого человека это пока не очень доступно", - отметил аналитик БИСИ. Впрочем, при желании приобщиться может любой, были бы деньги и время. Кроме того, эксперты прогнозируют, что, как и любые другие технологии, эта тоже со временем будет дешеветь и становиться проще в использовании.

Виталий Демиров
Виталий Демиров

Deepfakes - это технологии искусственного синтеза человеческого изображения, основанные на использовании нейросетей и искусственного интеллекта, позволяющие создавать высокореалистичные фото- и видеоизображения людей либо модифицировать фото- и видеоматериалы. Ярким примером служит ролик, где экс-президент США Барак Обама оскорбляет нынешнего американского лидера Дональда Трампа. Видео появилось в апреле 2018 года на ресурсе BuzzFeed. В конце создатели рассказывают, что это подделка, показывая возможности технологий создания фейковых новостей.-0-

Новый выпуск проекта "Экспертная среда" - "Deepfakes: новый вызов информационной безопасности" смотрите здесь.

Топ-новости
Свежие новости Беларуси