Этот ИИ думает, что сейчас 1800-е годы.
Интересная особенность современных моделей искусственного интеллекта, особенно больших языковых моделей (LLM): они могут генерировать текст только на основе того, что есть в их обучающем наборе данных. Модели, включая ChatGPT и Claude, «обучены» на больших базах текстовых данных. Когда модели задают вопрос, они статистически создают ответ, пословно вычисляя наиболее вероятное следующее слово. Следствием этого является то, что LLM не могут генерировать текст о научных открытиях, которые ещё не произошли, потому что в литературе о них нет информации. Самое лучшее, что может сделать ИИ, — это повторить прогнозы, написанные исследователями, или синтезировать эти прогнозы.
Адам Мастроянни в своём информационном бюллетене «Experimental History» выразил это изящно: «Если бы вы запустили суперумный ИИ в Древней Греции, снабдили его всеми человеческими знаниями и спросили, как приземлиться на Луну, он бы ответил: «Вы не можете приземлиться на Луну. Луна — это бог, парящий в небе».
Это интересный мысленный эксперимент. Что, если бы вы намеренно ограничили обучающие данные? Можно ли создать систему искусственного интеллекта, которая реагировала бы так, будто она из прошлого? Что это могло бы рассказать о психологии или повседневном опыте людей той эпохи?
Именно это и имел в виду Хайк Григорян, студент колледжа Муленберг в Аллентауне, Пенсильвания, когда создавал TimeCapsuleLLM. Эта экспериментальная система искусственного интеллекта была обучена исключительно на текстах из Лондона XIX века. Текущая версия основана на 90 гигабайтах текстовых файлов, первоначально опубликованных в Лондоне между 1800 и 1875 годами.
Это, конечно, хобби-проект. Сгенерированный текст в GitHub не всегда последователен, хотя Ars Technica сообщала, что он правильно выводит имена и события XIX века. Когда модель попросили продолжить предложение «Это был год нашего Господа 1834», она рассказала о протесте: «улицы Лондона были заполнены протестами и петициями», а затем упомянула политику лорда Палмерстона, который в то время был министром иностранных дел.
Это интересный эксперимент, но может ли он быть полезен? Потенциально.
Статья, опубликованная в «Proceedings of the National Academy of Sciences of the United States of America» (PNAS) авторами, включая Майкла Э. В. Варнума, профессора психологии из Департамента психологии Университета штата Аризона, представляет собой интересное чтение. В ней предлагается, что такие модели могут быть способом изучения психологии вне современного контекста. В статье такие модели искусственного интеллекта называются «историческими большими языковыми моделями» или сокращённо HLLM, и утверждается, что исследователи в области психологии могут использовать их для изучения мышления людей в прошлых цивилизациях.
«В принципе, ответы этих искусственных личностей могут отражать психологию прошлых обществ, что позволит создать более надёжную и междисциплинарную науку о человеческой природе», — говорится в статье. «Исследователи могли бы, например, сравнить склонность к сотрудничеству викингов, древних римлян и японцев раннего Нового времени в экономических играх. Или они могли бы изучить отношение к гендерным ролям, которое было типично для древних персов или средневековых европейцев».
Это интересная идея, хотя в статье признаётся, что это может быть непросто.
«Все LLM — это продукт их обучающих корпусов, и HLLM сталкиваются с проблемами отбора проб, учитывая, что сохранившиеся исторические тексты, вероятно, не являются репрезентативными выборками людей, живших в определённый период», — признаётся в статье, утверждая, что исторические тексты, как правило, написаны элитой, а не обычными людьми. «В результате может быть сложно делать обобщения на основе этих моделей».
И есть и другие вещи, о которых следует помнить. Исследования Гентского университета в Бельгии показывают, что идеология людей, работающих над LLM, проявляется в тексте, который генерируют эти модели. Есть все основания подозревать, что та же проблема будет актуальна и для LLM, разработанных для отражения прошлых культур.
Так что трудности есть. Только время покажет, будут ли такие модели использоваться в психологических исследованиях или останутся в сфере интересов любителей.