Confident Security, «Signal для ИИ», выходит из режима скрытой разработки с $4,2 млн

По мере того как потребители, бизнесы и правительства устремляются к перспективе дешёвых, быстрых и почти «волшебных» инструментов ИИ, один вопрос остаётся неизменным: как защитить конфиденциальность данных?

Технологические гиганты вроде OpenAI, Anthropic, xAI, Google и другие незаметно собирают и хранят пользовательские данные для улучшения своих моделей или контроля безопасности, даже в корпоративной среде, где компании уверены, что их информация защищена. Для регулируемых отраслей или компаний, работающих на переднем крае, эта серая зона может стать препятствием. Страхи о том, куда попадают данные, кто их видит и как их могут использовать, замедляют внедрение ИИ в таких секторах, как здравоохранение, финансы и госуправление.

Решение предлагает стартап Confident Security из Сан-Франциско [https://confident.security/], позиционирующий себя как «Signal для ИИ». Их продукт CONFSEC — инструмент сквозного шифрования, который интегрируется с базовыми моделями, гарантируя, что промты и метаданные не могут быть сохранены, просмотрены или использованы для обучения ИИ — даже самими разработчиками моделей или третьими сторонами.

«Как только вы передаёте свои данные кому-то другому, ваша приватность практически исчезает, — заявил TechCrunch основатель и CEO Confident Security Джонатан Мортенсен. — Наша цель — устранить эту дилемму».

Как стало известно эксклюзивно TechCrunch, Confident Security вышел из скрытного режима в четверг, привлечён $4,2 млн seed-финансирования от Decibel, South Park Commons, Ex Ante и Swyx. Компания намерена стать посредником между поставщиками ИИ и их клиентами — облачными гигантами, правительствами и корпорациями.

По словам Мортенсена, даже самим ИИ-компаниям выгодно предлагать CONFSEC корпоративным клиентам для выхода на этот рынок. Он добавил, что продукт также подходит для новых ИИ-браузеров вроде недавно выпущенного Perplexity Comet [https://techcrunch.com/2025/07/09/perplexity-launches-comet-an-ai-powered-web-browser/], гарантируя пользователям, что их конфиденциальные данные не хранятся на серверах, доступных компании или злоумышленникам, а рабочие промты не используются для «обучения ИИ выполнять вашу работу».

Архитектура CONFSEC основана на системе Private Cloud Compute (PCC) от Apple, которая, по словам Мортенсена, «в 10 раз надёжнее существующих аналогов» в защите данных пользователя при выполнении облачных ИИ-задач.

Система Confident Security сначала анонимизирует данные через шифрование и маршрутизацию через Cloudflare или Fastly, чтобы серверы не видели исходный источник или содержимое. Затем применяется криптография, позволяющая расшифровку только при строгих условиях: «Например, только если данные не будут логироваться, не пойдут на обучение и не станут доступны для просмотра», — пояснил Мортенсен.

Наконец, ПО для ИИ-вычислений логируется публично и доступно для аудита, чтобы эксперты могли проверить соответствие заявленным гарантиям.

«Confident Security опережает время, понимая, что будущее ИИ зависит от встроенного в инфраструктуру доверия, — заявила партнёр Decibel Джесс Леау. — Без таких решений многие предприятия просто не смогут внедрять ИИ».

Годовалому стартапу ещё предстоит долгий путь, но, по словам Мортенсена, CONFSEC уже протестирован, аудирован и готов к использованию. Команда ведёт переговоры с банками, браузерами и поисковыми системами о внедрении продукта в их инфраструктуру.

«Вы предоставляете ИИ — мы обеспечиваем приватность», — резюмировал Мортенсен.

Оставьте комментарий