Как искусственный интеллект помогает отслеживать и поддерживать уязвимые экосистемы

Недавнее исследование из Орегонского государственного университета показало, что более 3500 видов животных находятся под угрозой исчезновения из-за таких факторов, как изменение среды обитания, чрезмерная эксплуатация природных ресурсов и изменение климата.

Чтобы лучше понять эти изменения и защитить уязвимые виды диких животных, такие как студенты докторантуры MIT и исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL), разрабатывают алгоритмы компьютерного зрения, которые тщательно отслеживают популяции животных.

Например, член лаборатории доцента кафедры электротехники и компьютерных наук Массачусетского технологического института и главного исследователя CSAIL Сары Бери, Джастин Кэй, в настоящее время работает над отслеживанием лосося на северо-западе Тихого океана, где они обеспечивают важные питательные вещества для хищников, таких как птицы и медведи, управляя при этом популяцией жертв, например, насекомых.

Несмотря на большой объём данных о дикой природе, исследователям приходится анализировать множество информации и выбирать подходящие модели искусственного интеллекта. Кэй и его коллеги из CSAIL и Университета Массачусетса в Амхерсте разрабатывают методы искусственного интеллекта, которые значительно повышают эффективность этого процесса. Они создали новый подход под названием «консенсус-ориентированный активный выбор модели» (CODA), который помогает экологам выбирать, какую модель искусственного интеллекта использовать.

Их работа была названа «выделенной статьёй» на Международной конференции по компьютерному зрению (ICCV 2025) в октябре. В настоящее время она доступна на сервере препринтов arXiv.

Использование искусственного интеллекта для анализа данных

До недавнего времени использование искусственного интеллекта для анализа данных обычно означало обучение собственной модели. Это требовало значительных усилий для сбора и аннотирования репрезентативного обучающего набора данных, а также для итеративного обучения и проверки моделей. Также требовались определённые технические навыки для запуска и модификации кода обучения искусственного интеллекта.

Однако сейчас взаимодействие людей с искусственным интеллектом меняется — в частности, существуют миллионы общедоступных предварительно обученных моделей, которые могут выполнять различные прогностические задачи очень хорошо. Это потенциально позволяет людям использовать искусственный интеллект для анализа своих данных без разработки собственной модели, просто загружая существующую модель с необходимыми им возможностями. Но это ставит новую задачу: какую модель из миллионов доступных использовать для анализа данных?

Обычно для ответа на этот вопрос о выборе модели также требуется много времени для сбора и аннотирования большого набора данных, хотя и для тестирования моделей, а не для их обучения. Это особенно актуально для реальных приложений, где потребности пользователей специфичны, распределение данных несбалансировано и постоянно меняется, а производительность модели может быть непостоянной для разных выборок.

CODA: новый подход к выбору модели

Цель CODA — существенно сократить эти усилия. Они делают процесс аннотирования данных «активным». Вместо того чтобы требовать от пользователей массовой аннотации большого тестового набора данных, они делают процесс интерактивным, направляя пользователей аннотировать наиболее информативные точки данных в их необработанных данных. Это удивительно эффективно, часто требуя от пользователей аннотирования всего 25 примеров для идентификации наилучшей модели из их набора кандидатов.

Работа с CODA подчёркивает ценность сосредоточения усилий на надёжных конвейерах оценки, а не только на обучении. Один из ключевых выводов заключается в том, что при рассмотрении коллекции моделей-кандидатов консенсус всех их прогнозов более информативен, чем прогнозы любой отдельной модели. Это можно рассматривать как своего рода «мудрость толпы». В среднем объединение голосов всех моделей даёт вам достойную предварительную оценку того, какими должны быть метки отдельных точек данных в вашем необработанном наборе данных.

Подход CODA основан на оценке «матрицы путаницы» для каждой модели искусственного интеллекта — учитывая, что истинная метка для некоторой точки данных — класс X, какова вероятность того, что отдельная модель предсказывает класс X, Y или Z? Это создаёт информативные зависимости между всеми моделями-кандидатами, категориями, которые вы хотите обозначить, и немаркированными точками в вашем наборе данных.

Например, представьте, что вы эколог дикой природы, который только что собрал набор данных, содержащий потенциально сотни тысяч изображений с камер, установленных в дикой природе. Вы хотите знать, какие виды на этих изображениях, что является трудоёмкой задачей, которую могут помочь автоматизировать классификаторы компьютерного зрения.

Вы пытаетесь решить, какую модель классификации видов запустить на своих данных. Если вы уже аннотировали 50 изображений тигров и некоторая модель хорошо сработала на этих 50 изображениях, вы можете быть уверены, что она хорошо сработает и на остальных (в настоящее время немаркированных) изображениях тигров в вашем исходном наборе данных. Вы также знаете, что когда эта модель предсказывает, что на каком-то изображении есть тигр, она, скорее всего, права, и поэтому любая модель, которая предсказывает для этого изображения другую метку, с большей вероятностью ошибается.

Вы можете использовать все эти взаимозависимости для построения вероятностных оценок матрицы путаницы каждой модели, а также распределения вероятностей того, какая модель имеет наивысшую точность на общем наборе данных. Эти конструктивные решения позволяют нам делать более обоснованный выбор, какие точки данных маркировать, и в конечном итоге являются причиной того, что CODA выполняет выбор модели гораздо более эффективно, чем предыдущие работы.

Перспективы развития

Есть также много интересных возможностей для развития на основе нашей работы. Мы думаем, что могут быть ещё лучшие способы построения информативных априорных значений для выбора модели, основанные на предметной экспертизе — например, если уже известно, что одна модель работает исключительно хорошо на некотором подмножестве классов или плохо на других.

Также есть возможности для расширения фреймворка, чтобы поддержать более сложные задачи машинного обучения и более сложные вероятностные модели производительности. Мы надеемся, что наша работа может вдохновить и стать отправной точкой для других исследователей, чтобы продолжать продвигать состояние дел.

Источник

Другие новости по теме

Другие новости на сайте