Meta(запрещённая на территории РФ) создает ИИ для проверки фактов в Википедии для всех 6,5 млн статей
Хотя в редактировании Википедии участвуют десятки тысяч людей, факты, которые они добавляют, не всегда верны; даже если цитаты присутствуют, они не всегда точны и даже не всегда уместны.
Meta разрабатывает модель машинного обучения, которая сканирует эти цитаты и сопоставляет их содержание со статьями Википедии, чтобы убедиться, что не только темы совпадают, но и конкретные приведенные цифры точны.
Модель Meta будет "понимать" контент не путем сравнения текстовых строк и проверки того, что они содержат одинаковые слова, а путем сравнения математических представлений блоков текста, к которым она приходит с помощью методов понимания естественного языка (NLU).
ИИ обучается на наборе из четырех миллионов цитат из Википедии, и, кроме того, что он выявляет ошибочные цитаты на сайте, его создатели хотят, чтобы в конечном итоге он мог предлагать вместо них точные источники, используя массивный индекс данных, который постоянно обновляется.
Осталось решить одну большую проблему - разработать систему оценки надежности источников. Например, статья из научного журнала получит более высокую оценку, чем сообщение в блоге. Количество контента в Интернете настолько велико и разнообразно, что можно найти "источники" для поддержки практически любого утверждения, но отделить дезинформацию от дезинформации (первое означает неверную, а второе - намеренно обманчивую), рецензируемое от не рецензируемого, проверенное на факты от наспех сляпанного - задача не из легких, но очень важная, когда речь идет о доверии.
Meta выложила свою модель в открытый доступ, и те, кому интересно, могут посмотреть демо-версию инструмента верификации. В сообщении в блоге Meta отмечается, что компания не сотрудничает с Викимедиа в этом проекте, а также что проект все еще находится на стадии исследования и в настоящее время не используется для обновления контента в Википедии.
Хотя в редактировании Википедии участвуют десятки тысяч людей, факты, которые они добавляют, не всегда верны; даже если цитаты присутствуют, они не всегда точны и даже не всегда уместны.
Meta разрабатывает модель машинного обучения, которая сканирует эти цитаты и сопоставляет их содержание со статьями Википедии, чтобы убедиться, что не только темы совпадают, но и конкретные приведенные цифры точны.
Модель Meta будет "понимать" контент не путем сравнения текстовых строк и проверки того, что они содержат одинаковые слова, а путем сравнения математических представлений блоков текста, к которым она приходит с помощью методов понимания естественного языка (NLU).
ИИ обучается на наборе из четырех миллионов цитат из Википедии, и, кроме того, что он выявляет ошибочные цитаты на сайте, его создатели хотят, чтобы в конечном итоге он мог предлагать вместо них точные источники, используя массивный индекс данных, который постоянно обновляется.
Осталось решить одну большую проблему - разработать систему оценки надежности источников. Например, статья из научного журнала получит более высокую оценку, чем сообщение в блоге. Количество контента в Интернете настолько велико и разнообразно, что можно найти "источники" для поддержки практически любого утверждения, но отделить дезинформацию от дезинформации (первое означает неверную, а второе - намеренно обманчивую), рецензируемое от не рецензируемого, проверенное на факты от наспех сляпанного - задача не из легких, но очень важная, когда речь идет о доверии.
Meta выложила свою модель в открытый доступ, и те, кому интересно, могут посмотреть демо-версию инструмента верификации. В сообщении в блоге Meta отмечается, что компания не сотрудничает с Викимедиа в этом проекте, а также что проект все еще находится на стадии исследования и в настоящее время не используется для обновления контента в Википедии.