
Специалисты Корнуэлльского университета (США), подразделения Google Jigsaw и фонда Wikimedia создали алгоритм, который сканирует обсуждения в интернете и определяет, чем они закончатся – грубой перепалкой или вежливой беседой.
Как сообщает The Verge, систему тренировали и тестировали на обсуждениях статей «Википедии», где редакторы обсуждали, в частности, внесение правок в материал и необходимость в более достоверных источниках.
Система была запрограммирована искать в обсуждении определенные признаки, которые, согласно исследованиям, демонстрируют связь с тоном общения. К примеру, если обсуждение проходит хорошо, то в нем встречаются выражения благодарности и приветствия. Активно используется слово «пожалуйста». Все это создает дружественную атмосферу и эмоциональный буфер между участниками беседы, в которой каждый может признать свою неправоту, сохранив лицо.
С другой стороны, тревожные знаки, говорящие о потенциальном конфликте, включают в себя наличие повторяющихся прямых вопросов ("Почему тут об этом не упоминается?", "Почему ты не посмотрел на это?") и использование местоимений второго лица ("Твои источники не важны"), особенно если они встречаются в первых репликах беседы.
Чтобы оценить общую «токсичность» разговора исследователи использовали перспективный API компании Google – инструмент с искусственным интеллектом, который пытается оценить, насколько дружелюбным, нейтральным или агрессивным является текст. По окончании периода тренировки алгоритм мог предсказать исход беседы в 65% случаев.
В то же время, люди пока справляются с этой задачей лучше, удачно предсказывая развитие обсуждения в 72% случаев. Ученным данная работа говорит о том, что они находятся на верном пути к созданию бота, который сможет вмешиваться в потенциально «горячие» споры в сети.