Они создают алгоритм социальной сети, который определяет сталкеров.

10

Был разработан алгоритм, способный автоматически определять людей, использующих учетные записи для киберзапугивания, на данный момент он эффективен на 90 процентов.

Исследователи, создавшие этот алгоритм, принадлежат к различным мировым университетам, таким как Греция, США и Великобритания, а также получили поддержку от таких компаний, как Samsung и Telefónica.

Эксперты недавно опубликовали свое исследование «Обнаружение киберзапугивания и кибераагрессии в социальных сетях», в котором они проанализировали 1,2 миллиона учетных записей Twitter и 2,1 миллиона твитов по таким темам, как НБА или неравенство. полов в заработной плате, в отношении которой злоупотребления более часты, как они объяснили.

Среди этих проблем также стоит выделить GamerGate, кампанию преследований, которая проводилась в 2014 году против нескольких разработчиков видеоигр и женщин в этом секторе, которые стали объектом изнасилований и угроз смерти со стороны группы пользователей в Twitter через хэштег ‘#GamerGate. В 2015 году пять редакторов были исключены из Википедии за то, что они сделали свою страницу по этой теме феминистской.

Методология исследования позволяет различать злоумышленников и других пользователей Twitter, принимая во внимание текст их публикаций, их учетную запись и другие сетевые атрибуты, как объясняется в публикации.

В исследовании использовался Streaming API Twitter, который обеспечивает доступ к 1% всех твитов на платформе. Кроме того, они отфильтровали учетные записи «спама», управляемые ботами, а не людьми, и публикации разделены на четыре типа: преследующие, агрессивные, спам и обычные, то есть без злоупотреблений.

В них алгоритм искал сотни «хэштегов», связанных с кампаниями по преследованию, в которых было оскорбление, используя для этой задачи базу данных Hatebase.

В целом алгоритм смог успешно идентифицировать 90,2 процента твитов сталкеров. В твитах с нормальным тоном и без злоупотреблений этот процент точности идентификации снижается до 82,7 процента.

В среднем по четырем категориям (оскорбляющие, агрессивные, спам и нормальные) общая эффективность алгоритма остается на уровне 61,4 процента.

СОТРУДНИЧЕСТВО С SAMSUNG И TELEFÓNICA

Исследователи прибыли из таких университетов, как Центр исследований и технологий Эллады, Университет Аристотеля в Салониках (оба в Греции), Университеты Бингемтона и Бостона (США) и Университетский колледж Лондона (Великобритания).

Однако авторы также сотрудничали с такими компаниями, как разведывательное подразделение Samsung и Telefónica Research and Development.

С информацией из Money in Image

Foto: Pixabay

Источник записи: https://www.globalmedia.mx

Этот веб-сайт использует файлы cookie для улучшения вашего опыта. Мы предполагаем, что вы согласны с этим, но вы можете отказаться, если хотите. Принимаю Подробнее