«Ъ»: психологическое состояние россиян проанализируют по их аккаунтам в соцсетях
Предположительно, такая технология позволит в том числе выявлять вербовщиков в террористические группировки. Насколько это правомерно?
Читать на полной версииОбновлено в 14:58
Искусственный интеллект проведет психоанализ россиян по соцсетям, пишет «Коммерсантъ». По данным издания, грант на исследования в этой области получил Институт системного программирования имени Иванникова.
Предполагается, что это будет технология психодиагностики профилей, которая поможет выявлять вербовщиков в террористические организации или, например, участников «групп смерти». Искусственный интеллект будет оценивать интересы, увлечения, записи пользователя, что позволит составить представление о его поведенческой активности. Однако не является ли это нарушением прав? Рассуждает Павел Катков, владелец юридической компании «Катков и партнеры» (КИП), член комитета Торгово-промышленной палаты по предпринимательству в сфере медиакоммуникаций.
Даже закрытый профиль может не защитить от подобного анализа, предупреждают IT-специалисты. При каких условиях искусственный интеллект будет получать доступ к фотографиям и записям пользователей таких аккаунтов? Директор по информационным технологиям группы Т1 Павел Шульга говорит, что это вопрос этики.
Павел Шульга директор по информационным технологиям группы Т1 «Закрытый профиль — это всего лишь одна кнопочка в настройках и, соответственно, вопрос договоренности, скажем, наших властей с держателями этих соцсетей. Как я понимаю, для тех, кому нужен доступ к закрытой частой профиля, это не составляет никакой проблемы».
Успех искусственного интеллекта в распознавании определенной поведенческой активности отмечают многие специалисты. В частности, технология может вычислить, например, деструктивные группы в соцсетях. Об этом говорит президент группы компаний InfoWatch Наталья Касперская.
В некоторых странах искусственный интеллект помогает следить за происшествиями или отдельными группами населения. Как указывает ТАСС, в Лос-Анджелесе, а также штатах Атланта и Филадельфия алгоритмы анализируют данные о произошедших преступлениях, чтобы сообщить, где может произойти преступление в будущем. В Китае подобную технологию использовали для видеослежки за уйгурами — населением китайского региона Синьцзян, говорится в докладе Human Rights Watch за 2018 год.
*Незаконные распространение, приобретение, хранение, перевозка, изготовление, переработка наркотиков, а также их употребление на территории РФ преследуются по закону. Business FM не поддерживает и не пропагандирует никакие из перечисленных деяний.