Использование искусственного интеллекта (ИИ) для профилактики правонарушений оправдано, однако ИИ не может делать верные выводы о психологическом состоянии человека и общества на основе данных соцсетей, считает зампредседателя Синодального отдела Московского Патриархата по взаимоотношениям Церкви с обществом и СМИ Вахтанг Кипшидзе.
Ранее Институт системного программирования им. Иванникова РАН объявил тендер на исследование в области использования ИИ для анализа личности по соцсетям, это следует из данных портала госзакупок. По данным «Коммерсанта», заказчик проекта — Аналитический центр при правительстве. В центре, по данным издания, считают, что «такие проекты могут помочь в выявлении и своевременном реагировании на разжигание национальной розни, формирование групп смерти, вербовку или привлечение граждан к террористической деятельности».
«Что касается профилактики преступлений: новые технологии, искусственный интеллект должны использоваться для того, чтобы по каким-то признакам, активности в соцсетях, например, поиск оружия, взрывчатки, обнаружить подготовку к совершению преступлений — тут машина может быть хорошей помощницей. Но если мы хотим (с помощью машины или ИИ — ред.) определять психологическое состояние общества и делать выводы — это упрощенный подход к человеческой личности. Я думаю, это будет неполная, искаженная картина», — сказал Кипшидзе РИА Новости.
Он отметил, что даже опросы общественного мнения дают только усредненную картину по определенной теме, «но не могут оценить подлинного состояния человека, а ведь именно это предлагает нам машина — составить психологический портрет на основании действий в соцсетях и мессенджерах и, исходя из этого, делать выводы».
«Человек по своей природе сложнее, чем совокупность его действий в соцсетях. По этой совокупности невозможно определить его настоящее психологическое состояние. Автоматизированные системы могут помочь в поиске каких-то попыток посеять рознь в обществе, но, на мой взгляд, окончательную оценку мотивов, душевного и духовного состояния человека может давать только человек», — подчеркнул представитель Русской Православной Церкви.
Говоря о возможности предсказывать религиозные конфликты с помощью систем ИИ, он отметил, что математическим способом «очень сложно детерминировать, а тем более предсказывать поведение человека в сфере религии». «Я исхожу из того, что общий принцип оценки человеческого поведения должен заключаться в том, что оценка должна даваться другим человеком, а не машиной. Нельзя дегуманизировать, выводить человека, из процесса оценки человеческих действий», — заключил собеседник агентства.