
Появилась нейросеть, которая точно распознает разжигание ненависти в социальных сетях
ИИ-модель разработана в Университете Ватерлоо (Канада) и демонстрирует точность на уровне 88%. Это позволит сэкономить время модераторов и облегчит работу с вредным контентом.
Метод "Мультимодальный преобразователь дискуссий" обеспечивает анализ взаимосвязи между текстом и изображениями.
Ученые использовали методы машинного обучения для обнаружения подобного контента в сети.
В исследовании использовался набор данных из более 8200 дискуссий на сайте Reddit, аспекты ненависти и контент подобных сообщений. Контекст играет ключевую роль в понимании языка ненависти, поскольку одна и та же фраза может иметь разное значение в различных контекстах.
Ученые отмечают необходимость выявления разжигания ненависти для создания безопасного и уважительного онлайн-пространства.
Ранее над созданием детектора сарказма работали ученые из Нидерландов, обучив нейросеть на сериалах "Друзья" и "Теория большого взрыва".
@sip_ai | @sip_ai_bot
ИИ-модель разработана в Университете Ватерлоо (Канада) и демонстрирует точность на уровне 88%. Это позволит сэкономить время модераторов и облегчит работу с вредным контентом.
Метод "Мультимодальный преобразователь дискуссий" обеспечивает анализ взаимосвязи между текстом и изображениями.
Ученые использовали методы машинного обучения для обнаружения подобного контента в сети.
В исследовании использовался набор данных из более 8200 дискуссий на сайте Reddit, аспекты ненависти и контент подобных сообщений. Контекст играет ключевую роль в понимании языка ненависти, поскольку одна и та же фраза может иметь разное значение в различных контекстах.
Ученые отмечают необходимость выявления разжигания ненависти для создания безопасного и уважительного онлайн-пространства.
Ранее над созданием детектора сарказма работали ученые из Нидерландов, обучив нейросеть на сериалах "Друзья" и "Теория большого взрыва".
@sip_ai | @sip_ai_bot