Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
Россия +7 (909) 261-97-71
27 Июня в 15:14

В России создали инструмент, защищающий голосовые данные от создания дипфейков

Россия +7 (909) 261-97-71
0 1023
Подпишитесь на нас в Telegram

Российские исследователи разработали алгоритм защиты персональных данных в голосовом формате. Он позволяет защитить подкасты, интервью, трансляции и другие аудиозаписи от несанкционированного сбора биометрии и анализа при помощи ИИ. Об этом сообщили в пресс-службе Института искусственного интеллекта AIRI.

Алгоритм уже опубликован в открытом доступе.

Ученые отмечают, что сейчас в глобальной сети размещено множество публично доступных аудиозаписей. Злоумышленники или недобросовестные компании могут использовать их, чтобы автоматически собирать голосовые биометрические данные и на их базе создавать различные дипфейки. Это особенно опасно для публичных лиц и авторов контента, чьи выступления можно легко найти в интернете.

За последние годы разработчики создали несколько систем «анонимизации» голоса, которые позволяют бороться с этой проблемой. Многие из них значительно ухудшают качество аудиозаписи и не всегда эффективны с аудиозаписями короткой или большой длины. Алгоритм, созданный исследователям, лишен этих недостатков. Он использует в своей работе математические подходы, ранее применявшиеся в визуальном анализе.

В сообщении подчеркивают, что эти подходы одновременно максимально «обезличивают» аудиоданные и минимально влияют на качество звука, его четкость и совместимость подобных записей с ИИ-системами, которые распознают содержание речи. Алгоритм одинаково хорошо работает на аудиофайлах любой длины: от коротких цитат до длинных лекций.

Руководитель Лаборатории безопасного ИИ AIRI-МТУСИ Олег Рогов отметил, что их цель – усилить методологию защиты «цифрового следа» людей в публичном пространстве, а в первую очередь – их голосовой идентичности.

Разработанное решение позволяет свободно делиться аудиоконтентом, значительно снижая вероятность того, что голос станет сырьем для несанкционированного сбора биометрических данных или создания дипфейков, – добавил Олег Рогов.

Эффективность работы нового решения исследователи проверили на популярном наборе аудиозаписей голосов знаменитостей (VoxCeleb2), который часто используется при разработке голосовых систем ИИ и подготовке дипфейков. Опыты продемонстрировали, что новый подход успешно защищает данные, как и другие существующие алгоритмы, но при этом сохраняет высокое качество звука. Ученые надеются, что их разработка поможет владельцам онлайн-площадок защитить авторов контента от несанкционированного сбора биометрии с аудиозаписей.

Напомним, что в России зафиксировали новую мошенническую схему: звонить якобы с соцопросом и записывать голоса для дипфейков. В начале этого года МТС разработала сервис для выявления дипфейков.

Оригинал новости на SEOnews

Источник: ТАСС

0 комментариев
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.

Отправьте отзыв!
X | Закрыть