Новости

Эксперты "Перезвони сам" объяснили, как отличить ИИ-фото и видео от настоящих

Фото: портал мэра и правительства Москвы

Контент, созданный искусственным интеллектом, становится все более реалистичным, однако у него по-прежнему остаются характерные признаки – искаженная анатомия, нарушение логики повествования и другие. Об этом рассказали эксперты проекта "Перезвони сам", передает портал мэра и правительства столицы.

"В большинстве случаев пользователи публикуют ИИ-контент в интернете для развлечений, например создают в социальных сетях аккаунты персон, которых не существует, и публикуют в них сгенерированные изображения. Но и злоумышленники могут использовать технологию, чтобы обмануть, ввести в заблуждение или совершить преступление", – ответили в пресс-службе столичного департамента информационных технологий.

Специалисты пояснили, что тексты, написанные нейросетями, обычно выглядят грамотно и структурировано, но при внимательном чтении в них можно заметить повторяющиеся мысли, логические несостыковки и недостоверные факты. Кроме того, таким материалам нередко не хватает личного опыта, оригинальной позиции и живых примеров.

Эксперты посоветовали обращать внимание и на источник публикации. Особое внимание следует уделять анонимным каналам, рассылкам от неизвестных адресов, а также массовым рассылкам в нестандартное время. Кроме того, можно проверить авторство текста через специальные ИИ-детекторы.

При анализе фотографий стоит вглядываться в детали, так как ИИ-изображений чаще всего выдают проблемы с анатомией – неестественный взгляд, лишние пальцы, искаженная форма ушей, странные складки одежды и нелогичное расположение предметов в кадре.

Также подозрение могут вызвать неестественные тени, ошибки в надписях, размытые логотипы и отсутствие метаданных файла (сведений о времени съемки, устройстве или месте создания снимка). Как и в случае с текстами, ИИ-детекторы или сами нейросети могут помочь определить, является ли изображение фотографией или продуктом искусственного интеллекта.

Сгенерированные видеоролики чаще всего выдает несовпадение речи с движением губ. Кроме того, на искусственное происхождение ролика могут указывать неестественная мимика, неподвижный взгляд, странная реакция зрачков на свет, хаотичные жесты и визуальные артефакты, например, исчезающие предметы или искаженные детали.

Эксперты порекомендовали особенно внимательно относиться к роликам, где известные люди делают громкие заявления. Их подлинность можно проверить, сравнив его с прошлыми выступлениями человека.

Также в рамках инициативы "Перезвони сам" разработан бесплатный телеграм-бот "Стопфейк", предназначенный для обнаружения синтезированной речи и индикаторов мошенничества в сообщениях. Используя искусственный интеллект, сервис анализирует текстовые сообщения, скриншоты и аудиофайлы, оценивая вероятность мошеннических действий.

Ранее россиян предупредили, что аферисты могут начать рассылать фишинговые ссылки и вредоносные программы под видом открыток к 9 Мая. Особенно опасны APK-файлы, так как они предлагают скачать на телефон приложение, через которое злоумышленники впоследствии смогут получить доступ к гаджету.

Мошенники начали рассылать столичным автовладельцам сообщения о штрафах за парковку