Появилась нейросеть, которая точно распознает разжигание ненависти в социальных сетях



ИИ-модель разработана в Университете Ватерлоо (Канада) и демонстрирует точность на уровне 88%. Это позволит сэкономить время модераторов и облегчит работу с вредным контентом.



Метод "Мультимодальный преобразователь дискуссий" обеспечивает анализ взаимосвязи между текстом и изображениями.

Ученые использовали методы машинного обучения для обнаружения подобного контента в сети.



В исследовании использовался набор данных из более 8200 дискуссий на сайте Reddit, аспекты ненависти и контент подобных сообщений. Контекст играет ключевую роль в понимании языка ненависти, поскольку одна и та же фраза может иметь разное значение в различных контекстах.



Ученые отмечают необходимость выявления разжигания ненависти для создания безопасного и уважительного онлайн-пространства.



Ранее над созданием детектора сарказма работали ученые из Нидерландов, обучив нейросеть на сериалах "Друзья" и "Теория большого взрыва".



@sip_ai | @sip_ai_bot