16+
Пятница, 26 апреля 2024
  • BRENT $ 89.68 / ₽ 8251
  • RTS1181.85
29 ноября 2021, 12:59 Технологии

«Ъ»: психологическое состояние россиян проанализируют по их аккаунтам в соцсетях

Лента новостей

Предположительно, такая технология позволит в том числе выявлять вербовщиков в террористические группировки. Насколько это правомерно?

Фото: depositphotos.com

Обновлено в 14:58

Искусственный интеллект проведет психоанализ россиян по соцсетям, пишет «Коммерсантъ». По данным издания, грант на исследования в этой области получил Институт системного программирования имени Иванникова.

Предполагается, что это будет технология психодиагностики профилей, которая поможет выявлять вербовщиков в террористические организации или, например, участников «групп смерти». Искусственный интеллект будет оценивать интересы, увлечения, записи пользователя, что позволит составить представление о его поведенческой активности. Однако не является ли это нарушением прав? Рассуждает Павел Катков, владелец юридической компании «Катков и партнеры» (КИП), член комитета Торгово-промышленной палаты по предпринимательству в сфере медиакоммуникаций.

Павел КатковПавел Катков владелец юридической компании «Катков и партнеры» (КИП), член комитета Торгово-промышленной палаты по предпринимательству в сфере медиакоммуникаций«Для реализации этой инициативы ее авторам придется прежде всего преодолеть сопротивление социальных сетей, которое выразилось, в частности, в иске социальной сети «ВКонтакте» к компании Double Data, которая собирала данные пользователей «ВКонтакте», находящиеся в открытом доступе, для Национального бюро кредитных историй. Дело уже на втором круге, и суды пока так и не смогли определиться, считается ли такой сбор нарушением интеллектуальных прав «ВКонтакте» на базу данных пользователей соцсети, которые, как считает компания, она собрала и правообладателем которых, по ее мнению, является. Для аналогичного сбора данных о пользователях для указанных государственных целей тоже нужно будет понять, не является ли это нарушением указанных прав на базу данных, и если является, [нужно] делать это на основании лицензионного договора, ну а если не является, то оно должно не являться для всех — и для таких сборщиков данных, как Double, и для таких, как государство. Еще один вариант: государство может специальным образом прописать в федеральном законе, что сбор данных для таких целей не оплачивается социальным сетям и также является законным с точки зрения обработки персональных данных пользователей. Тогда в праве социальных сетей на базу данных, при условии, что оно еще и устоит в суде, о котором я упомянул, появится такая брешь: для коммерческих целей при использовании ваших баз данных мы платим, а для государственных, вот конкретно для этой, не платим. И вот где-то между всеми этими категориями и проблемами сейчас находится данный вопрос, но пока интрига, как он будет разрешен».

Даже закрытый профиль может не защитить от подобного анализа, предупреждают IT-специалисты. При каких условиях искусственный интеллект будет получать доступ к фотографиям и записям пользователей таких аккаунтов? Директор по информационным технологиям группы Т1 Павел Шульга говорит, что это вопрос этики.

Павел Шульга директор по информационным технологиям группы Т1 «Закрытый профиль — это всего лишь одна кнопочка в настройках и, соответственно, вопрос договоренности, скажем, наших властей с держателями этих соцсетей. Как я понимаю, для тех, кому нужен доступ к закрытой частой профиля, это не составляет никакой проблемы».

Успех искусственного интеллекта в распознавании определенной поведенческой активности отмечают многие специалисты. В частности, технология может вычислить, например, деструктивные группы в соцсетях. Об этом говорит президент группы компаний InfoWatch Наталья Касперская.

Наталья КасперскаяНаталья Касперская президент группы компаний InfoWatch «Все деструктивные группы устроены по принципу воронки вовлеченности. То есть внизу — группы широкого охвата, которые просто обозначают какую-то тематику, например [какое-то запрещенное вещество]. Потом идут группы, которые эту тематику обостряют, идет прямое обсуждение [его воздействия]. Третье — закрытые группы, где обсуждают, например, закладки. А на четвертом уровне это всегда выход в офлайн*. Всегда заканчивается выводом в офлайн. Поэтому изучать это, конечно, надо, а вот принимать этические решения должен явно не искусственный интеллект».

В некоторых странах искусственный интеллект помогает следить за происшествиями или отдельными группами населения. Как указывает ТАСС, в Лос-Анджелесе, а также штатах Атланта и Филадельфия алгоритмы анализируют данные о произошедших преступлениях, чтобы сообщить, где может произойти преступление в будущем. В Китае подобную технологию использовали для видеослежки за уйгурами — населением китайского региона Синьцзян, говорится в докладе Human Rights Watch за 2018 год.

*Незаконные распространение, приобретение, хранение, перевозка, изготовление, переработка наркотиков, а также их употребление на территории РФ преследуются по закону. Business FM не поддерживает и не пропагандирует никакие из перечисленных деяний.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию