🌓Как Россия поборется с дипфейками.
Нейросети уже давно научились воспроизводить голос и изображение человека. Они позволяют легко манипулировать аудио- и видеоконтентом, поэтому отличить ложь от правды становится все сложнее.
Высокореалистичные фейковые фото и видео могут использоваться для дезинформации, мошенничества, кибербуллинга и провокаций. Злоумышленники меняют лицо человека на видео и обвиняют его в правонарушении, шантажируют родственников или влияют на избирателей путем вброса фейковых видео в интернет.
Задача государства — создать нормативную базу, которая бы смогла обеспечить баланс для развития технологий и защиты личности», — сообщил председатель комиссии по правовому обеспечению цифровой экономики московского отделения Ассоциации Юристов России Александр Журавлев.
Кроме того, он напомнил, что сейчас в России нет инструментов, позволяющих защитить граждан от дипфейков.
«С одной стороны, у нас есть статья 152.1 ГК РФ, которая охраняет изображение любого гражданина. Оно может быть использовано только с его согласия. Если же человек хочет привлечь к ответственности автора дипфейка, то возникает вопрос: к кому подавать иск? Можно обратиться к самой платформе, распространившей контент, и попросить удалить его. Но пока человек пройдет все процедуры, видео увидят все. За это время может испортиться его репутация», — подчеркивает член АЮР.
Подробнее.
Нейросети уже давно научились воспроизводить голос и изображение человека. Они позволяют легко манипулировать аудио- и видеоконтентом, поэтому отличить ложь от правды становится все сложнее.
Высокореалистичные фейковые фото и видео могут использоваться для дезинформации, мошенничества, кибербуллинга и провокаций. Злоумышленники меняют лицо человека на видео и обвиняют его в правонарушении, шантажируют родственников или влияют на избирателей путем вброса фейковых видео в интернет.
Задача государства — создать нормативную базу, которая бы смогла обеспечить баланс для развития технологий и защиты личности», — сообщил председатель комиссии по правовому обеспечению цифровой экономики московского отделения Ассоциации Юристов России Александр Журавлев.
Кроме того, он напомнил, что сейчас в России нет инструментов, позволяющих защитить граждан от дипфейков.
«С одной стороны, у нас есть статья 152.1 ГК РФ, которая охраняет изображение любого гражданина. Оно может быть использовано только с его согласия. Если же человек хочет привлечь к ответственности автора дипфейка, то возникает вопрос: к кому подавать иск? Можно обратиться к самой платформе, распространившей контент, и попросить удалить его. Но пока человек пройдет все процедуры, видео увидят все. За это время может испортиться его репутация», — подчеркивает член АЮР.
Подробнее.