Алгоритмы искусственного интеллекта приближаются к теоретическому пределу точности оптических измерений.

Пределы разрешения оптических систем

Уже 150 лет известно, что независимо от того, как гениально сконструирован микроскоп или камера, существуют фундаментальные пределы разрешения, которые принципиально невозможно превысить. Положение частицы невозможно измерить с бесконечной точностью; неизбежно присутствует определённое размытие. Этот предел обусловлен не техническими недостатками, а физическими свойствами света и самой передачей информации.

Поиск абсолютного предела точности

Венский технический университет (TU Wien), Университет Глазго и Университет Гренобля задались вопросом: каков абсолютный предел точности, достижимый с помощью оптических методов? И как можно максимально приблизиться к этому пределу?

Международная команда учёных смогла определить нижний предел теоретически достижимой точности и разработать алгоритмы искусственного интеллекта для нейронных сетей, которые после соответствующего обучения очень близко подходят к этому пределу. Эта стратегия теперь будет применяться в процедурах визуализации, например, в медицине. Исследование опубликовано в журнале Nature Photonics.

Роль Фишеровской информации

Профессор Стефан Роттер из Института теоретической физики TU Wien объясняет: «Давайте представим, что мы смотрим на небольшой объект за неровным, мутным стеклом. Мы видим не просто изображение объекта, а сложную световую картину, состоящую из множества более светлых и тёмных пятен. Вопрос теперь в том, насколько точно мы можем оценить положение объекта на основе этого изображения и где находится абсолютный предел этой точности?»

Такие сценарии важны, например, в биофизике или медицинской визуализации. Когда свет рассеивается биологической тканью, он как бы теряет информацию о более глубоких структурах ткани. Но сколько этой информации можно восстановить в принципе? Ответ на этот вопрос даёт теоретическая мера — так называемая Фишеровская информация. Она описывает, сколько информации оптический сигнал содержит о неизвестном параметре, например, о положении объекта. Если Фишеровская информация низкая, точное определение больше невозможно, независимо от того, насколько изощрённо анализируется сигнал.

Экспериментальная часть

Команда TU Wien предоставила теоретический вклад, а соответствующий эксперимент был разработан и проведён Дорианом Буше из Университета Гренобля (Франция) совместно с Ильёй Старшиновым и Даниэле Фаччо из Университета Глазго (Великобритания). В этом эксперименте лазерный луч был направлен на небольшой отражающий объект, расположенный за турбулентной жидкостью, так что на записанных изображениях были видны только сильно искажённые световые узоры. Условия измерения варьировались в зависимости от мутности — и, следовательно, от сложности получения точной информации о положении объекта из сигнала.

Обучение нейронной сети

«Для человеческого глаза эти изображения выглядят как случайные узоры», — говорит Максимилиан Веймар (TU Wien), один из авторов исследования. «Но если мы подадим много таких изображений — каждое с известным положением объекта — в нейронную сеть, сеть сможет научиться, какие узоры связаны с какими положениями». После достаточного обучения сеть смогла очень точно определять положение объекта даже с новыми, неизвестными узорами.

Особенно примечательным в исследовании было то, что точность предсказания была лишь минимально хуже теоретически достижимого максимума, рассчитанного с помощью Фишеровской информации. «Это означает, что наш алгоритм с поддержкой ИИ не только эффективен, но и почти оптимален», — говорит Стефан Роттер. «Он достигает почти точно той точности, которая разрешена законами физики».

Перспективы

Это осознание имеет далеко идущие последствия: с помощью интеллектуальных алгоритмов методы оптических измерений могут быть значительно улучшены в широком спектре областей — от медицинской диагностики до исследований материалов и квантовых технологий. В будущих проектах исследовательская группа хочет работать с партнёрами из прикладной физики и медицины, чтобы изучить, как эти методы, поддерживаемые ИИ, можно использовать в конкретных системах.