Мнение: Роуэн Стоун, CEO Sapien ИИ без человеческого подхода к управлению данными — «бумажный тигр». 💥 Несмотря на прогнозы роста, инновации останутся бесполезными, если модели обучают на некачественных данных. Кроме улучшения стандартов, ИИ нуждается в людях для контекстного понимания и критического мышления. Это ключ к этичному развитию и точным результатам.
📉 Проблема ИИ — «плохие данные»
Люди опираются на опыт и логику. ИИ же зависит от качества обучающих данных. Точность моделей определяется не размером данных или алгоритмами, а их достоверностью. Последствия плохих данных:
- 🔍 Предвзятые выводы и «галлюцинации» ИИ;
- 💸 Увеличение затрат на переобучение моделей;
- 🩺 Риски в критических сферах (медицина, безопасность).
Примеры:
- В Детройте системы распознавания лиц ошибались в 96% случаев (отчет Innocence Project);
- Модель в здравоохранении США ставила здоровых белых пациентов выше чернокожих с тяжелыми болезнями (Harvard Medical School).
📌 Принцип «мусор на входе — мусор на выходе» (GIGO) работает и здесь. Ошибки в данных ведут к потере доверия компаний и репутационным рискам. Например, GPT-3.5 «галлюцинирует» в 39,6% случаев. По данным CIO Network Summit, 21% ИТ-лидеров США считают ненадежность ИИ главной проблемой. Низкое качество данных обходится компаниям в 6% годовой выручки.
💡 Решение: данные с участием людей
Илон Маск заявил, что «все знания человечества исчерпаны для обучения ИИ». Это миф. 💡 Фронтирные данные (опыт, контекст, этика) — основа для надежных моделей. Почему люди незаменимы:
- Контроль предвзятости и ошибок;
- Логика, здравый смысл, интерпретация нюансов;
- Соответствие этическим нормам.
🔄 Синтетические данные не заменят реальный опыт. Только человек может обеспечить точность и актуальность.
🌐 Децентрализация как инструмент
Компании тратят 67% времени data scientist’ов на «очистку» данных. Децентрализованные сети сократят затраты:
- Глобальные эксперты и пользователи участвуют в обучении ИИ;
- Блокчейн автоматизирует вознаграждения за улучшение моделей;
- Снижение предвзятости через разнообразие участников.
📊 По Gartner, к 2026 году 60% ИИ-проектов провалятся из-за некачественных данных. Без человеческого контроля бизнес не достигнет потенциала в $15,7 трлн к 2030 году.
Ключевые шаги:
1. Внедрить подход «человек в цикле» (human-in-the-loop); 2. Инвестировать в подготовку данных; 3. Управлять метаданными и соблюдать стандарты. Без этого компании утонут в «дата-болоте», а ИИ останется дорогой игрушкой. 🤖💔 Статья носит информационный характер и не является инвестиционной рекомендацией. Мнения автора не обязательно отражают позицию Cointelegraph.
Не является инвестиционной рекомендацией.