В статье, загруженной на сервер arXiv, команда описывает свой подход и насколько хорошо их алгоритм срабатывал во время тестирования.
Как отмечают исследователи, онлайн-разговоры часто могут вырождаться в разногласия, а порой – даже в личные атаки. Они далее отмечают, что это часто бывает, когда люди вращаются в среде, в которой необходима критика, например, при модерировании «Википедии». Там это одобряется: волонтерам-редакторам предлагается критиковать работу других пользователей, поскольку это действенное средство улучшения контента на этом ресурсе ( или на любом другом веб-сайте).
К сожалению, многие люди болезненно реагируют на критику, в результате чего прибегают к публикации неприятных комментариев. Команда из фонда «Викимедиа», хотела бы прекратить такую практику, поскольку это создает плохую репутацию их проектам.
Чтобы решить эту задачу, команда связалась с учеными из Университета Корнела, работавшими над той же проблемой, а именно созданием компьютерной системы, способной распознавать триггерные моменты, когда дискуссия между людьми может перерасти в склоку, с целью предотвратить конфликт. В рамках этой работы исследователи рассмотрели более 1 200 интерактивных бесед на страницах Wikipedia Talk в поисках определенных лингвистических маркеров.
Затем команда разработала алгоритм, который воспринимал «угрожающие» реплики как сигналы грядущего конфликта, применяя при этом «человекоподобную» интуицию. По сообщениям авторов, их компьютеризированная система могла распознавать загодя, когда обычный на первый взгляд разговор, скорее всего, перерастет в склоку: машина выявляла такие моменты с точностью 61,6%, при этом люди, выполнявшие ту же задачу, «набрали» 72 %.