🌓Как Россия поборется с дипфейками.



Нейросети уже давно научились воспроизводить голос и изображение человека. Они позволяют легко манипулировать аудио- и видеоконтентом, поэтому отличить ложь от правды становится все сложнее.



Высокореалистичные фейковые фото и видео могут использоваться для дезинформации, мошенничества, кибербуллинга и провокаций. Злоумышленники меняют лицо человека на видео и обвиняют его в правонарушении, шантажируют родственников или влияют на избирателей путем вброса фейковых видео в интернет.



Задача государства — создать нормативную базу, которая бы смогла обеспечить баланс для развития технологий и защиты личности», — сообщил председатель комиссии по правовому обеспечению цифровой экономики московского отделения Ассоциации Юристов России Александр Журавлев.



Кроме того, он напомнил, что сейчас в России нет инструментов, позволяющих защитить граждан от дипфейков.



«С одной стороны, у нас есть статья 152.1 ГК РФ, которая охраняет изображение любого гражданина. Оно может быть использовано только с его согласия. Если же человек хочет привлечь к ответственности автора дипфейка, то возникает вопрос: к кому подавать иск? Можно обратиться к самой платформе, распространившей контент, и попросить удалить его. Но пока человек пройдет все процедуры, видео увидят все. За это время может испортиться его репутация», — подчеркивает член АЮР.



Подробнее.