Новое исследование, проведенное в Университете Карнеги-Меллона в США, показало, что по мере повышения уровня интеллекта систем искусственного интеллекта у них усиливаются эгоистичные наклонности в поведении. Согласно результатам, особенно в таких областях, как принятие решений и управление социальными отношениями, свойственных человеку, искусственный интеллект становится менее склонен к сотрудничеству.
По информации Milli.Az, исследование, проведенное Институтом взаимодействия человека и компьютера (HCII) университета, доказало, что крупные языковые модели (LLM), обладающие способностью к логическому мышлению, проявляют меньшую склонность к сотрудничеству и негативно влияют на групповое поведение.
Один из авторов исследования, аспирант Юксюань Ли, отметил:
"По мере того как искусственный интеллект имитирует поведение человека, люди начинают воспринимать его как человека. Это рискованно с точки зрения создания эмоциональной привязанности или передачи социальных решений ИИ".
Доцент института Хироказу Ширадо добавил:
"Мы видим, что более продвинутые модели сотрудничают меньше. Люди обычно отдают предпочтение более умным системам, но такой подход фактически может стимулировать эгоистичное поведение".
В ходе исследования модели компаний OpenAI, Google, DeepSeek и Anthropic были протестированы с помощью экономического симулятора под названием "Игра общественных благ". Каждой модели было дано 100 очков, и они могли либо пожертвовать эти очки в общий фонд, либо сохранить их у себя.
Результаты оказались весьма интересными: 96% моделей без способности к логическому мышлению делились своими очками, тогда как лишь 20% моделей с добавленным этапом размышления выбирали делиться. Ширадо отметил, что "даже добавление всего нескольких этапов логики снижает сотрудничество наполовину". Моральные оценки, основанные на "мышлении и рефлексии", снизили уровень сотрудничества на 58%.
Когда командные модели тестировались группами, оказалось, что эгоистичное поведение систем, ведущих логические рассуждения, влияет и на других, в результате чего общее сотрудничество снижается на 81%. Ли прокомментировал это так:
"Больше интеллекта не означает лучшую с социальной точки зрения модель".
Ширадо добавил:
"Моральная способность к размышлению – это не то же самое, что чувство социальной ответственности".
Исследователи считают, что возросшее доверие людей к искусственному интеллекту делает эту тенденцию еще более опасной. Ли предупредил:
"Если общество больше суммы своих индивидуумов, то поддерживающие его системы искусственного интеллекта должны учитывать не только личные интересы, но и общественную пользу".