С ростом внедрения ИИ организации во всех отраслях используют инструменты и приложения на основе ИИ. Неудивительно, что киберпреступники уже ищут способы использовать эти инструменты в своих целях. Но важно не только защищать ИИ от потенциальных кибератак, проблема рисков ИИ выходит далеко за рамки безопасности.
Правительства по всему миру начинают регулировать разработку и использование ИИ — и компании могут понести значительный репутационный ущерб, если их уличат в использовании ИИ ненадлежащим образом. Сегодняшний бизнес обнаруживает, что использование ИИ этичным и ответственным образом — это не просто правильно, но и критически важно для завоевания доверия, соблюдения норм и даже улучшения качества продукции.
Реальность регулирования ИИ
Быстро меняющийся нормативный ландшафт должен вызывать серьёзную озабоченность у поставщиков, предлагающих решения на основе ИИ. Например, принятый в ЕС в 2024 году закон об ИИ использует риск-ориентированный подход к регулированию ИИ и считает системы, которые занимаются такими практиками, как социальная оценка, манипулятивное поведение и другие потенциально неэтичные действия, «неприемлемыми». Такие системы запрещены, а другие «высоко рискованные» системы ИИ подлежат более строгим требованиям по оценке рисков, качеству данных и прозрачности.
Штрафы за несоблюдение норм суровы: компании, использующие ИИ ненадлежащим образом, могут быть оштрафованы на сумму до €35 миллионов или 7% от их годового оборота.
Законодательство ЕС — это лишь часть нормативной базы, но оно наглядно иллюстрирует высокую цену несоответствия определённым этическим стандартам. Штаты, такие как Калифорния, Нью-Йорк, Колорадо и другие, приняли свои собственные рекомендации по ИИ, большинство из которых сосредоточены на таких факторах, как прозрачность, конфиденциальность данных и предотвращение предвзятости.
Репутационные последствия плохой этики ИИ
Хотя опасения по поводу соответствия нормам вполне реальны, на этом история не заканчивается. Дело в том, что приоритизация этичного поведения может фундаментально улучшить качество решений на основе ИИ. Если система ИИ имеет врождённую предвзятость, это плохо с этической точки зрения, но это также означает, что продукт работает не так хорошо, как должен.
Например, некоторые технологии распознавания лиц подвергались критике за то, что не могли идентифицировать темнокожих людей так же хорошо, как светлокожих. Если решение для распознавания лиц не может идентифицировать значительную часть субъектов, это представляет серьёзную этическую проблему, но это также означает, что технология не обеспечивает ожидаемой пользы, и клиенты будут недовольны.
Выявление и смягчение этических тревожных сигналов
Клиенты всё чаще учатся искать признаки неэтичного поведения ИИ. Поставщики, которые переоценивают возможности ИИ, вероятно, не совсем честны в том, что могут делать их решения. Плохая практика работы с данными, такая как чрезмерный сбор данных или неспособность отказаться от обучения моделей ИИ, также может вызвать тревогу.
Сегодня поставщики, использующие ИИ в своих продуктах и услугах, должны иметь чёткую, общедоступную систему управления с механизмами подотчётности. Те, кто настаивает на принудительном арбитраже или вообще не предоставляет возможности обращения, вероятно, не будут хорошими партнёрами.
Приоритизация этики — это разумное бизнес-решение
Доверие всегда было важной частью любых деловых отношений. ИИ не изменил этого, но ввёл новые соображения, которые поставщики должны учитывать. Этические проблемы не всегда находятся в центре внимания бизнес-лидеров, но когда дело доходит до ИИ, неэтичное поведение может иметь серьёзные последствия, включая репутационный ущерб и потенциальные нарушения нормативных требований и требований соответствия.
ИИ и кадровый резерв: не угроза, а возможность для развития
Многие компании внедряют ИИ так быстро, как только могут найти ему применение. Они пишут электронные письма и другие деловые документы быстро, проводят эффективное исследование рынка и находят другие способы повысить производительность. К сожалению, некоторые используют ИИ для сокращения или замены младших должностей, полагая, что нынешние сотрудники заполнят пробел в производительности с помощью ИИ — и это ошибка.
ИИ может быть использован как удивительный инструмент повышения производительности на всех уровнях бизнеса. Предоставление всем сотрудникам доступа к этой мощной технологии может иметь значительные преимущества, но это не замена сотрудникам.
Опыт важнее технологий
В качестве иллюстрации из реальной жизни позвольте мне рассказать вам об одном из вице-президентов моей компании в отделе продаж. Он обладает мощной комбинацией технических знаний и красноречия. Он понимает, как взаимодействовать с потенциальными клиентами на любом этапе пути покупателя. Он может мастерски рассказывать о нишевой технической теме. И он не получил эти навыки, спросив у чат-бота ИИ.
После окончания колледжа он стал представителем по развитию бизнеса (BDR) в технологической компании. Это должность начального уровня, которая включает в себя организацию встреч для руководителей отделов продаж и создание воронки продаж.
Эта работа — одна из тех, на которую повлиял ИИ. Отчёт 6sense о состоянии BDR за 2025 год показал, что 70% BDR, использующих ИИ на работе, считают, что это повышает их производительность.
BDR нужно много подготовительной работы, такой как холодные контакты, исследование аккаунтов, отслеживание входящих лидов, квалификация новых потенциальных клиентов и взаимодействие с потенциальными клиентами, которые посещают мероприятия. Многие из этих задач могут быть автоматизированы.
После 11 месяцев работы на должности BDR этот вице-президент был повышен до руководителя отдела продаж, а затем до должности директора. Сейчас он вице-президент, отвечающий за команду коммерческих и корпоративных продаж. Его опыт на переднем крае с его первой должности начального уровня сформировал его нынешнюю роль. Он знает не понаслышке, что нужно для успеха на этих младших должностях по продажам и как взаимодействовать с потенциальными клиентами и строить воронку продаж.
Сотрудники на любой должности и на любом уровне могут повысить свою производительность, используя ИИ. Организации должны найти способы повысить производительность своих сотрудников, но если они используют ИИ для замены младших должностей, они жертвуют своим будущим кадровым резервом в обмен на краткосрочные финансовые выгоды.
Доверие к ИИ: необходимость количественной оценки неопределённости
Зависимость общества от приложений искусственного интеллекта (ИИ) и машинного обучения (МО) продолжает расти, переопределяя способы потребления информации. От чат-ботов с ИИ до синтеза информации, созданного на основе больших языковых моделей (LLM), у общества есть доступ к большему объёму информации и более глубоким знаниям, чем когда-либо прежде.
Однако по мере того, как технологические компании стремятся внедрить ИИ по всей своей цепочке создания стоимости, возникает критический вопрос: можем ли мы действительно доверять результатам решений на основе ИИ?
Для заданного ввода модель могла сгенерировать множество других одинаково правдоподобных результатов. Это могло произойти из-за недостаточного объёма обучающих данных, вариативности обучающих данных или других причин. При развёртывании моделей организации могут использовать количественную оценку неопределённости, чтобы предоставить своим конечным пользователям более чёткое представление о том, насколько они могут доверять результатам модели ИИ/МО.
Количественная оценка неопределённости — это процесс оценки того, какими могли быть эти другие результаты. Представьте себе модель, предсказывающую завтрашнюю высокую температуру. Модель могла бы выдать результат 21 °C, но количественная оценка неопределённости, применённая к этому результату, может показать, что модель могла бы с таким же успехом выдать результаты 12 °C, 15 °C или 16 °C.
Многие организации предпочитают не проводить количественную оценку неопределённости из-за дополнительной работы, которую им необходимо проделать для её внедрения, а также из-за требований к вычислительным ресурсам и скорости вывода.
Системы с участием человека, такие как системы медицинской диагностики и прогнозирования, включают человека в процесс принятия решений. Бездумно доверяя данным решений ИИ/МО в здравоохранении, медицинские работники рискуют поставить неправильный диагноз пациенту, что может привести к снижению качества медицинских услуг — или к худшему.
Количественная оценка неопределённости может позволить медицинским работникам количественно оценить, когда они могут больше доверять результатам ИИ, а когда им следует относиться к конкретным прогнозам с осторожностью.
Преодоление вызовов с помощью методов Монте-Карло для повышения доверия к моделям ИИ/МО
Методы Монте-Карло, разработанные во время Манхэттенского проекта, — это надёжный способ количественной оценки неопределённости. Они включают в себя многократное повторение алгоритмов со слегка отличающимися входными данными до тех пор, пока дальнейшие итерации не будут предоставлять значительно больше информации в выходных данных; когда процесс достигает такого состояния, говорят, что он сошёлся.
Одним из недостатков методов Монте-Карло является то, что они обычно медленные и ресурсоёмкие, требующие многократного повторения своих вычислений для получения сошедшегося результата.
Путь к повышению доверия к моделям ИИ/МО
В отличие от традиционных серверов и ускорителей, специфичных для ИИ, разрабатывается новое поколение вычислительных платформ для прямой обработки эмпирических распределений вероятностей так же, как традиционные вычислительные платформы обрабатывают целые числа и значения с плавающей запятой.
Развернув свои модели ИИ на этих платформах, организации могут автоматизировать внедрение количественной оценки неопределённости в свои предварительно обученные модели и ускорить другие виды вычислительных задач, которые традиционно использовали методы Монте-Карло, такие как расчёты VaR в финансах.
Недавние прорывы в области вычислений значительно снизили барьеры для количественной оценки неопределённости. Недавняя исследовательская статья, опубликованная моими коллегами и мной на семинаре Machine Learning With New Compute Paradigms на NeurIPS 2024, подчёркивает, как разработанная нами вычислительная платформа нового поколения позволила ускорить анализ количественной оценки неопределённости более чем в 100 раз по сравнению с проведением традиционного анализа на основе Монте-Карло на высокопроизводительном сервере на базе Intel-Xeon.
Будущее надёжности ИИ/МО зависит от передовых вычислительных технологий нового поколения. По мере того как организации интегрируют больше решений на основе ИИ в общество, надёжность ИИ/МО станет главным приоритетом. Предприятия больше не могут позволить себе игнорировать внедрение механизмов в своих моделях ИИ, позволяющих потребителям знать, когда относиться к конкретным выводам моделей ИИ со скептицизмом.