🚨 ИИ нуждаются в качественных данных, а не в больших моделях

Мнение: Роуэн Стоун, CEO Sapien ИИ без человеческого подхода к управлению данными — «бумажный тигр». 💥 Несмотря на прогнозы роста, инновации останутся бесполезными, если модели обучают на некачественных данных. Кроме улучшения стандартов, ИИ нуждается в людях для контекстного понимания и критического мышления. Это ключ к этичному развитию и точным результатам.

📉 Проблема ИИ — «плохие данные»

Люди опираются на опыт и логику. ИИ же зависит от качества обучающих данных. Точность моделей определяется не размером данных или алгоритмами, а их достоверностью. Последствия плохих данных:

  • 🔍 Предвзятые выводы и «галлюцинации» ИИ;
  • 💸 Увеличение затрат на переобучение моделей;
  • 🩺 Риски в критических сферах (медицина, безопасность).

Примеры:

  • В Детройте системы распознавания лиц ошибались в 96% случаев (отчет Innocence Project);
  • Модель в здравоохранении США ставила здоровых белых пациентов выше чернокожих с тяжелыми болезнями (Harvard Medical School).

📌 Принцип «мусор на входе — мусор на выходе» (GIGO) работает и здесь. Ошибки в данных ведут к потере доверия компаний и репутационным рискам. Например, GPT-3.5 «галлюцинирует» в 39,6% случаев. По данным CIO Network Summit, 21% ИТ-лидеров США считают ненадежность ИИ главной проблемой. Низкое качество данных обходится компаниям в 6% годовой выручки.

💡 Решение: данные с участием людей

Илон Маск заявил, что «все знания человечества исчерпаны для обучения ИИ». Это миф. 💡 Фронтирные данные (опыт, контекст, этика) — основа для надежных моделей. Почему люди незаменимы:

  • Контроль предвзятости и ошибок;
  • Логика, здравый смысл, интерпретация нюансов;
  • Соответствие этическим нормам.

🔄 Синтетические данные не заменят реальный опыт. Только человек может обеспечить точность и актуальность.

🌐 Децентрализация как инструмент

Компании тратят 67% времени data scientist’ов на «очистку» данных. Децентрализованные сети сократят затраты:

  • Глобальные эксперты и пользователи участвуют в обучении ИИ;
  • Блокчейн автоматизирует вознаграждения за улучшение моделей;
  • Снижение предвзятости через разнообразие участников.

📊 По Gartner, к 2026 году 60% ИИ-проектов провалятся из-за некачественных данных. Без человеческого контроля бизнес не достигнет потенциала в $15,7 трлн к 2030 году.

Ключевые шаги:

1. Внедрить подход «человек в цикле» (human-in-the-loop); 2. Инвестировать в подготовку данных; 3. Управлять метаданными и соблюдать стандарты. Без этого компании утонут в «дата-болоте», а ИИ останется дорогой игрушкой. 🤖💔 Статья носит информационный характер и не является инвестиционной рекомендацией. Мнения автора не обязательно отражают позицию Cointelegraph.

Не является инвестиционной рекомендацией.

Источник

Оставьте комментарий