А. Неукрытый: «В большинстве случаев дипфейки представляют угрозу для общества»
Об этом президент НАЦЭ заявил в программе «Интервью 24» на телеканале «Крым 24»
20 Сентября 2024
В условиях стремительного развития технологий и их повсеместного внедрения в нашу жизнь, вопросы безопасности становятся всё более актуальными. Одним из вызовов современности являются дипфейки — технология создания реалистичных подделок аудио- и видеозаписей с помощью искусственного интеллекта. Президент Национальной ассоциации цифровой экономики Андрей Неукрытый в программе «Интервью 24» на телеканале «Крым 24» рассказал о том, как противостоять кибермошенничеству и дипфейкам.
«Дипфейки могут использоваться для различных целей, но в большинстве случаев они представляют угрозу для общества. Имитация голоса может быть использована для мошенничества, шантажа или дезинформации. Это нарушает законодательство, в том числе о защите персональных данных.
В первую очередь, на видео необходимо обращать внимание на мимику, фон. Обычно на фейках контур изображения имеет неточности. Но надо понимать, что дипфейки и имитация голоса основываются на нейросетях, а эта технология постоянно обучается и совершенствуется. Поэтому всегда надо перепроверять информацию в официальных источниках», – отметил эксперт.
Андрей Неукрытый также отметил, что сейчас готовятся изменения в федеральный закон №152-ФЗ «О персональных данных». В частности, они будут касаться регулирования понятия «дипфейк», возможных вариантов использования дипфейков, а также предусматривать ответственность за незаконное использование.
Подробнее здесь: https://crimea24tv.ru/content/intervyu-24-andrey-neukritiy-vipusk-za-18/
«Дипфейки могут использоваться для различных целей, но в большинстве случаев они представляют угрозу для общества. Имитация голоса может быть использована для мошенничества, шантажа или дезинформации. Это нарушает законодательство, в том числе о защите персональных данных.
В первую очередь, на видео необходимо обращать внимание на мимику, фон. Обычно на фейках контур изображения имеет неточности. Но надо понимать, что дипфейки и имитация голоса основываются на нейросетях, а эта технология постоянно обучается и совершенствуется. Поэтому всегда надо перепроверять информацию в официальных источниках», – отметил эксперт.
Андрей Неукрытый также отметил, что сейчас готовятся изменения в федеральный закон №152-ФЗ «О персональных данных». В частности, они будут касаться регулирования понятия «дипфейк», возможных вариантов использования дипфейков, а также предусматривать ответственность за незаконное использование.
Подробнее здесь: https://crimea24tv.ru/content/intervyu-24-andrey-neukritiy-vipusk-za-18/
Читайте также