
Почему опасно доверять искусственному разуму предсказывать поведение человека, на себе испытал герой Тома Круза в фильме «Особое мнение».
Человечество еще до конца не понимает, что ожидать от искусственного интеллекта. Но сам цифровой разум уже может дать характеристику человеку просто по истории переписки. И это вызывает тревогу…
Ученые попросили 668 пользователей ChatGPT из США и Великобритании поделиться с ними копиями истории чатов и обучили модель ИИ выводить личностные черты по этим диалогам. Исследователи собрали и проанализировали более 62 тыс. диалогов, сгруппировав их по основным темам, отмечает Euronews.
Затем обученная модель пыталась оценить, насколько вероятно, что у пользователя выражены 5 личностных факторов, известных в психологии как «Большая пятёрка»: доброжелательность, добросовестность, эмоциональная устойчивость, экстраверсия и открытость новому опыту.
Участники также прошли стандартный психологический тест, чтобы определить их основные личностные черты.
Согласно отчету, доработанная модель ИИ смогла с точностью до 61% определять личностные особенности пользователя. ИИ особенно хорошо предсказывал доброжелательность и эмоциональную устойчивость, но испытывал трудности с оценкой добросовестности.
Наиболее успешными прогнозы были в тех случаях, когда у системы была более длинная история переписки для анализа. Это, по мнению авторов, означает, что чем активнее человек пользуется ИИ, тем легче по его диалогам определить особенности личности.
Хотя для отдельных людей риски невелики, исследователи отмечают, что «в крупных масштабах существуют серьезные риски», если данными о личностных характеристиках воспользуются злоумышленники. По их словам, такая информация может привести, например, к «масштабным кампаниям манипулирования, распространяющим дезинформацию и/или политическую пропаганду».
Ученые надеются, что их результаты помогут разработать инструменты, снижающие риск избыточного раскрытия персональных данных ИИ, например системы, которые автоматически удаляют идентифицирующие сведения.