Хирундо привлекла 8 миллионов долларов для борьбы с галлюцинациями ИИ с помощью машинного «разучивания»

Первый стартап, посвящённый машинному «разучиванию», привлёк 8 миллионов долларов начального финансирования для решения наиболее актуальных проблем в области искусственного интеллекта: галлюцинаций, предвзятости и уязвимостей, связанных с данными.

Раунд возглавила компания Maverick Ventures Israel при участии SuperSeed, Alpha Intelligence Capital, Tachles VC, AI.FUND и Plug and Play Tech Center.

Обещание машинного «разучивания»

В отличие от традиционных инструментов искусственного интеллекта, которые фокусируются на совершенствовании или фильтрации результатов ИИ, ключевое новшество Hirundo — это машинное «разучивание» — метод, который позволяет моделям ИИ «забывать» конкретные знания или поведение после того, как они уже были обучены.

Этот подход позволяет предприятиям хирургически удалять галлюцинации, предвзятости, личные или проприетарные данные и уязвимости из развёрнутых моделей ИИ без их переобучения с нуля. Переобучение крупномасштабных моделей может занять недели и миллионы долларов; Hirundo предлагает гораздо более эффективную альтернативу.

Хирундо сравнивает этот процесс с нейрохирургией ИИ: компания точно определяет, где в параметрах модели возникают нежелательные результаты, и точно удаляет их, сохраняя при этом производительность.

Почему галлюцинации ИИ так опасны

Галлюцинации ИИ — это склонность модели генерировать ложную или вводящую в заблуждение информацию, которая звучит правдоподобно или даже фактически. Эти галлюцинации особенно проблематичны в корпоративных средах, где решения, основанные на неверной информации, могут привести к юридической ответственности, операционным ошибкам и репутационному ущербу.

Исследования показали, что от 58% до 82% «фактов», генерируемых ИИ для юридических запросов, содержат те или иные галлюцинации. Несмотря на усилия по минимизации галлюцинаций с помощью ограничений или точной настройки, эти методы часто маскируют проблемы, а не устраняют их.

Масштабируемая платформа для любого стека ИИ

Платформа Hirundo создана для гибкости и развёртывания на уровне предприятия. Она интегрируется как с генеративными, так и с неганеративными системами для широкого спектра типов данных — естественного языка, зрения, радара, LiDAR, табличных данных, речи и временных рядов.

Платформа автоматически обнаруживает неправильно маркированные элементы, выбросы и двусмысленности в обучающих данных. Затем она позволяет пользователям отлаживать конкретные ошибочные результаты и отслеживать их до проблемных обучающих данных или изученного поведения, которое можно мгновенно разучить.

Всё это достигается без изменения рабочих процессов. Система Hirundo, сертифицированная по стандарту SOC-2, может работать через SaaS, частное облако (VPC) или даже в изолированной локальной сети, что делает её пригодной для чувствительных сред, таких как финансы, здравоохранение и оборона.

Продемонстрированное влияние на модели

Компания уже продемонстрировала значительное улучшение производительности на популярных больших языковых моделях (LLM). В тестах с использованием Llama и DeepSeek Hirundo достигла снижения галлюцинаций на 55%, предвзятости на 70% и успешных атак с внедрением подсказок на 85%.

Эти результаты были проверены с использованием независимых тестов, таких как HaluEval, PurpleLlama и Bias Benchmark Q&A.

Основатели с академическим и отраслевым опытом

Хирундо была основана в 2023 году тройкой экспертов на стыке академических кругов и корпоративного ИИ. Генеральный директор Бен Лурия — стипендиат Родса и бывший приглашённый научный сотрудник Оксфорда, ранее основавший финтех-стартап Worqly и сооснователь ScholarsIL, некоммерческой организации, поддерживающей высшее образование.

Майкл Лейбович, технический директор Hirundo, — бывший научный сотрудник Техниона и отмеченный наградами офицер по исследованиям и разработкам в Ofek324. Профессор Одед Шмуэли, главный научный сотрудник компании, — бывший декан факультета компьютерных наук в Технионе и занимал исследовательские должности в IBM, HP, AT&T и других компаниях.

Их коллективный опыт охватывает фундаментальные исследования в области ИИ, практическое внедрение и безопасное управление данными, что делает их уникальными специалистами для решения текущего кризиса надёжности в индустрии ИИ.

Инвестиции в будущее надёжного ИИ

Инвесторы в этом раунде поддерживают видение Хирундо о создании надёжного, готового к использованию на предприятиях ИИ. Ярон Карни, основатель Maverick Ventures Israel, отметил острую необходимость в платформе, которая может удалять галлюцинации или предвзятость до того, как они нанесут реальный вред.

Управляющий партнёр SuperSeed Мадс Йенсен поддержал это мнение: «Мы инвестируем в исключительные ИИ-компании, трансформирующие отраслевые вертикали, но эта трансформация настолько же мощна, насколько надёжны сами модели».

Решение растущей проблемы при развёртывании ИИ

По мере того как системы ИИ всё чаще интегрируются в критически важную инфраструктуру, опасения по поводу галлюцинаций, предвзятости и встраивания конфиденциальных данных становятся всё труднее игнорировать. Эти проблемы создают значительные риски в средах с высокими ставками — от финансов до здравоохранения и обороны.

Машинное «разучивание» становится важным инструментом в ответе индустрии ИИ на растущие опасения по поводу надёжности и безопасности моделей. По мере того как галлюцинации, встроенная предвзятость и раскрытие конфиденциальных данных подрывают доверие к развёрнутым системам ИИ, «разучивание» предлагает прямой способ снижения этих рисков после того, как модель была обучена и введена в эксплуатацию.

ИИ в сфере национальной безопасности: новое поле боя

Искусственный интеллект меняет способы защиты стран

В настоящее время большинство атак начинаются в киберпространстве. Преступники больше не пишут каждый фишинговый email вручную. Они используют языковые модели для составления сообщений, которые звучат дружелюбно и естественно. В 2024 году одна банда использовала дипфейк-видео с участием главного финансового директора, который украл 25 миллионов долларов из собственной фирмы. Видео выглядело настолько реалистично, что сотрудник выполнил поддельный приказ без колебаний.

Злоумышленники теперь загружают большие языковые модели с данными, которые были слиты в открытый доступ, например, с резюме или данными из LinkedIn, чтобы создать персонализированную приманку. Некоторые группы даже используют генеративный ИИ для создания программных ошибок или написания фрагментов вредоносного ПО.

Защитники также используют ИИ для защиты от этих атак. Команды безопасности загружают сетевые журналы, клики пользователей и глобальные отчёты об угрозах в инструменты ИИ. Программное обеспечение изучает «нормальную» активность и предупреждает, когда происходит что-то подозрительное. Когда обнаруживается вторжение, системы ИИ отключают подозрительный компьютер, чтобы ограничить ущерб, который мог бы распространиться, если бы люди реагировали медленнее.

Автономные вооружения

ИИ также выходит на физические поля сражений. В Украине дроны используют бортовое зрение, чтобы находить бензовозы или радиолокационные станции, прежде чем они взорвутся. США использовали ИИ, чтобы помочь определить цели для авиаударов в таких местах, как Сирия. Армия Израиля недавно использовала платформу для выбора целей ИИ, чтобы отсортировать тысячи аэрофотоснимков и отметить потенциальные укрытия боевиков.

Китай, Россия, Турция и Великобритания тестировали «зависающие боеприпасы», которые кружат над территорией, пока ИИ не обнаружит цель. Эти технологии могут сделать военные операции более точными и снизить риски для солдат. Но они также вызывают серьёзные опасения. Кто несёт ответственность, когда алгоритм выбирает неправильную цель? Некоторые эксперты опасаются «мгновенных войн», когда машины реагируют слишком быстро, чтобы дипломаты могли их остановить.

Наблюдение и разведка

Службы разведки когда-то полагались на команды аналитиков, которые читали отчёты или просматривали видеоматериалы. Сегодня они полагаются на ИИ, чтобы просеивать миллионы изображений и сообщений каждый час. В некоторых странах, например в Китае, ИИ отслеживает поведение граждан, от мелких вещей, таких как переход улицы в неположенном месте, до того, что они делают в интернете.

Аналогичным образом на границе между США и Мексикой солнечные башни с камерами и тепловыми датчиками сканируют пустыню. ИИ обнаруживает движущуюся фигуру, помечает её как человека или животное, а затем оповещает патрульных агентов. Эта «виртуальная стена» охватывает обширную территорию, которую люди не смогли бы наблюдать в одиночку.

Хотя эти инструменты расширяют охват, они также увеличивают количество ошибок. Системы распознавания лиц показали, что могут неверно идентифицировать женщин и людей с более тёмной кожей чаще, чем белых мужчин. Одно ложное совпадение может привести к тому, что невиновный человек столкнётся с дополнительными проверками или задержанием.

Информационная война

Современные конфликты ведутся не только с помощью ракет и кода, но и с помощью нарративов. В марте 2024 года поддельное видео показало, как президент Украины приказывает солдатам сдаться; оно распространилось в сети до того, как фактчекеры разоблачили его. Во время боевых действий между Израилем и ХАМАСом в 2023 году в социальных сетях распространялись подделки, созданные ИИ, которые поддерживали политику одной из сторон.

Ложная информация распространяется быстрее, чем правительства могут её исправить. Это особенно проблематично во время выборов, когда для манипулирования избирателями используется контент, созданный ИИ. Избирателям трудно отличить настоящие изображения или видео от созданных ИИ.

Поддержка принятия решений

Армии и агентства собирают огромные объёмы данных, включая часы видео с дронов, журналы технического обслуживания, спутниковые снимки и отчёты из открытых источников. ИИ помогает, сортируя и выделяя релевантную информацию. НАТО недавно приняло систему, вдохновлённую американским проектом Maven. Она связывает базы данных из 30 государств-членов, предоставляя планировщикам единый взгляд.

Система предлагает вероятные перемещения противника и выявляет потенциальные нехватки снабжения. Командование специальных операций США использует ИИ для составления части своего годового бюджета, сканируя счета-фактуры и рекомендуя перераспределение средств. Подобные ИИ-платформы прогнозируют отказы двигателей, планируют ремонты заранее и настраивают лётные симуляции в соответствии с потребностями отдельных пилотов.

Правоохранительные органы и пограничный контроль

Полицейские силы и иммиграционные офицеры используют ИИ для выполнения задач, требующих постоянного внимания. В оживлённых аэропортах биометрические киоски подтверждают личности путешественников, чтобы сделать процесс более эффективным. Программное обеспечение для анализа закономерностей выявляет записи о поездках, которые намекают на торговлю людьми или контрабанду наркотиков.

В 2024 году одно европейское партнёрство использовало такие инструменты, чтобы раскрыть сеть, переправлявшую мигрантов через грузовые суда. Эти инструменты могут сделать границы более безопасными и помочь поймать преступников. Но есть и опасения. Распознавание лиц иногда подводит для определённых классов людей с низким представительством, что может привести к ошибкам.

Итог

ИИ меняет национальную безопасность во многих отношениях, предлагая как возможности, так и риски. Он может защитить страны от киберугроз, сделать военные операции более точными и улучшить процесс принятия решений. Но он также может распространять ложь, нарушать конфиденциальность или совершать смертельные ошибки.

По мере того как ИИ становится всё более распространённым в сфере безопасности, нам необходимо найти баланс между использованием его возможностей во благо и контролем над его опасностями. Это означает, что страны должны работать сообща и устанавливать чёткие правила использования ИИ. В конце концов, ИИ — это инструмент, и то, как мы его используем, определит будущее безопасности. Мы должны быть осторожны, чтобы использовать его мудро, чтобы он приносил нам больше пользы, чем вреда.

Источник

Оставьте комментарий