🤖 Крупные языковые модели (LLM) — продвинутый ИИ, лежащий в основе таких инструментов, как ChatGPT, — всё чаще используются в повседневной жизни. Они помогают писать письма 📧, отвечать на вопросы и даже поддерживать врачей в принятии решений. Но могут ли эти модели сотрудничать с людьми как равные? Способны ли они понимать социальные контексты, идти на компромиссы или вызывать доверие?
🔬 [Новое исследование](https://doi.org/10.1038/s41562-025-02172-y) учёных из Центра Гельмгольца в Мюнхене, Института биологической кибернетики Макса Планка и Тюбингенского университета показало: современный ИИ умён, но ему ещё есть чему учиться в сфере [социального интеллекта](https://phys.org/tags/social+intelligence/). Результаты опубликованы в журнале Nature Human Behaviour.
🧩 Чтобы оценить поведение LLM в социальных ситуациях, исследователи использовали поведенческую теорию игр — метод, который обычно применяют для изучения сотрудничества, конкуренции и принятия решений среди людей. Разные модели ИИ, включая GPT-4, участвовали в играх, симулирующих социальные взаимодействия. Учёные оценивали ключевые факторы: справедливость, доверие и кооперацию.
📊 Результаты удивили: GPT-4 блестяще справлялся с задачами на логику, особенно когда требовалось действовать в своих интересах. Но в командной работе и координации 🤝 модель часто проваливалась.
«Иногда ИИ оказывался слишком рационален 🧠, — комментирует доктор Эрик Шульц, автор исследования. — Он моментально распознавал угрозы или эгоистичные ходы и отвечал на них, но не видел “общей картины” — доверия, сотрудничества, компромиссов».
🚀 Чтобы улучшить социальную осознанность ИИ, учёные внедрили простой приём: модель учили учитывать точку зрения “оппонента” перед принятием решения. Этот метод, названный Social Chain-of-Thought (SCoT), дал потрясающий результат! С ним ИИ стал более кооперативным, гибким и эффективным в достижении взаимовыгодных целей — даже в играх с реальными людьми.
«Как только модель начала рассуждать социально, её поведение стало неотличимым от человеческого 🧑💻, — говорит Элиф Аката, ведущий автор работы. — И люди часто не понимали, что играют против ИИ!»
💡 Эти выводы важны не только для теории игр. Они открывают путь к созданию ИИ, который учитывает человеческие потребности, особенно в медицине. В сфере [психического здоровья](https://phys.org/tags/mental+health/), лечения хронических болезней или ухода за пожилыми эффективность помощи зависит не только от точности данных, но и от способности ИИ строить доверие и распознавать социальные сигналы 📍.
«Представьте ИИ, который поддерживает пациента в приёме лекарств, помогает справиться с тревогой или ведёт сложные диалоги, — делится Аката. — Именно к этому ведёт наше исследование».
Материал предоставлен [Объединением Гельмгольца](http://www.helmholtz.de/en/).
📌 Больше интересного — в разделе [Искусство, музыка, история и лингвистика](https://www.physicsforums.com/forums/art-music-history-and-linguistics.20/).