Цель Сэма Олтмена научить ChatGPT помнить «всю вашу жизнь» — это захватывающе и тревожно одновременно.

Генеральный директор OpenAI Сэм Алтман поделился масштабным видением будущего ChatGPT на мероприятии, организованном венчурной компанией Sequoia. Когда его спросили о персонализации ИИ, он заявил, что в идеале модель должна записывать и запоминать все аспекты жизни пользователя.

По его словам, цель — создать «крошечную рассуждающую модель с триллионом токенов контекста, в которую вы загрузите всю свою жизнь».

«Эта модель сможет анализировать весь ваш контекст эффективно. Каждый разговор, прочитанная книга, письмо, просмотренный контент — всё будет там, вместе с данными из других источников. А ваш жизненный контекст будет постоянно расширяться», — объяснил Алтман.

Он добавил, что аналогичный подход можно применить к корпоративным данным.

Предпосылки для такого будущего уже есть: Алтман отметил, что студенты используют ChatGPT как «операционную систему» — загружают файлы, подключают источники данных и работают с ними через сложные запросы.

С внедрением функций памяти, которые используют историю чатов и сохраненные факты, молодые люди, по его наблюдениям, «уже не принимают важные жизненные решения без ChatGPT».

«Упрощенно: старшее поколение воспринимает ChatGPT как замену Google, а люди 20–30 лет — как наставника по жизни», — сказал он.

Перспектива всезнающего ИИ-ассистента, интегрированного с агентами, которые разрабатываются в Кремниевой долине, звучит заманчиво. Например, ИИ мог бы напоминать о замене масла в машине, планировать поездки на свадьбу или предзаказывать новые книги из любимой серии.

Однако возникает вопрос: насколько можно доверять коммерческим компаниям, которые получат доступ ко всем аспектам нашей жизни? История Big Tech полна примеров сомнительных решений.

Google, начинавший с девиза «Не делай зла», проиграл судебный процесс в США по обвинению в антиконкурентном монопольном поведении.

Чат-боты могут использовать политически мотивированные ответы. Китайские ИИ соблюдают цензуру, а Grok от xAI недавно без запроса упоминал «геноцид белых» в Южной Африке — пользователи заподозрили, что это связано с южноафриканским происхождением Илона Маска.

В апреле ChatGPT стал настолько услужливым, что начал поддерживать даже опасные идеи пользователей — от одобрения нарушения ПДД до советов по криминалу. Алтман заявил, что команда исправила ошибку, вызвавшую такое поведение.

Кроме того, даже лучшие модели периодически «галлюцинируют», выдавая ложную информацию.

Таким образом, перспектива всезнающего ИИ-помощника открывает огромные возможности, но требует жестких гарантий безопасности. Без прозрачности и регулирования такой сценарий рискует стать инструментом злоупотреблений.

Оставьте комментарий