Существует несколько хорошо изученных спектральных библиотек минералов и горных пород, таких как библиотека Геологической службы США (USGS), Университета Джона Хопкинса (JHU) и Лаборатории реактивного движения (JPL), Спектральная библиотека излучения и отражения (EARSL) и спектральная библиотека Национальной коллекции минералов (NMC). Геологическая служба США предоставила спектральную библиотеку минералов и горных пород для диапазона 0,35 – 2.5 мкм. Спектральная библиотека JHU охватывает диапазон 2 – 25 мкм [20]. Спектральная библиотека NASA JPL включает минералы характеристиками спектра 0,4 – 2.5 мкм. Совет Организации прикладных исследований Австралии разработал библиотеку различных минералов EARSL. NMC, подготовленный Геологической службой Канады, содержит более 100 000 минералов [21].
Хотя спектральные библиотеки различных минералов, полученные в лабораториях, широко использовались для идентификации минералов и горных пород, некоторые естественные неоднородности, существующие в различных минералах, и связанное с ними спектральное смешение, возможно, все еще оказывают нежелательное влияние на результаты обработки изображений [22,23]. Полевая спектроскопия развивается как надежный метод для решения этой проблемы, особенно при картировании минералов и разведке руды. Гиперспектральные данные кернов предоставляют информацию о различных типах минералов при разведке руд [10]. Комбинация полевой спектроскопии с гиперспектральными изображениями, получаемыми из космоса / с воздуха, позволяет получить надежные результаты обработки изображений.
4. Обработка гиперспектральных данных
4.1. Предварительная обработка гиперспектральных изображений
Для исправления исходных гиперспектральных изображений доступны различные уровни предварительной обработки, включая геометрическую и атмосферную коррекцию (ATCOR). Плохие характеристики изображения, вызванные датчиком, могут быть устранены с помощью методов коррекции геометрических ошибок или ошибок датчика. Эти ошибки связаны с полосами и другими искажениями типа шума [24,25]. Например, детекторы в датчике Hyperion могут выдавать несколько вертикальных линий без информации. Эти полосы могут быть закрыты путем замены значений пикселей средними значениями соседних пикселей [25].
Из-за рассеяния и поглощения солнечного излучения и участков спектра атмосферными газами и аэрозолями гиперспектральные изображения подвержены атмосферному воздействию. Оно должно быть устранено, чтобы гиперспектральные данные можно было использовать для количественной оценки [26]. Методы ATCOR развивались на протяжении многих лет, так что их можно классифицировать как эмпирические подходы, основанные на самих снимках, и подходы, основанные на модели переноса излучения (RTM) [25-28]. Было разработано несколько эмпирических подходов, основанных на снимках, для коррекции атмосферных воздействий на гиперспектральные изображения. Kruse [23] рассчитал средний спектр сцены по её внутреннему среднему спектру. Затем соответствующий спектр любого пикселя делился на значение среднего спектра, чтобы получить относительный спектр отражения для каждого пикселя. Этот метод в основном применялся для участков без какой-либо растительности. Робертс и другие [29] представили процедуру коррекции плоского поля (FFC). Они проводили нормализацию входного изображения к предполагаемой области с нейтральным спектральным коэффициентом отражения (с плоской топографической и спектральной характеристикой). Эмпирический линейный подход [30] использует спектры отражения поля для ярких и темных целей для линейной корреляции необработанных входных спектральных данных. Райнерсман и другие [31] разработали эмпирический метод "тени от облаков" ("cloud shadow") для алгоритма ATCOR над более темными водными поверхностями. Быстрый подход ATCOR [32] разработан для устранения атмосферных эффектов на мультиспектральных и гиперспектральных изображениях в диапазонах VNIR и SWIR. Этот подход определяет коэффициент компенсации атмосферы непосредственно из спектральных данных.
RTM – это физически основанные коды, которые пытаются имитировать процесс передачи электромагнитной волны в атмосфере [33]. Они нуждаются в полевых измерениях атмосферных условий во время получения изображения и обеспечивают явную отражательную способность или масштабированную отражательную способность поверхности [25,34]. Существует несколько алгоритмов на основе RTM для моделирования ATCOR. Алгоритм удаления атмосферы был разработан Гао и другими [35]. Эта модель использовалась для получения спектров отражения земли из гиперспектральных данных с помощью метода теоретического моделирования. Он имитирует эффекты поглощения и рассеивания газов и аэрозолей, существующих в атмосфере. ATCOR, разработанный Рихтером [36], включает в себя большую базу данных функций ATCOR. Он охватывает широкий спектр атмосферных условий. Круз [27] разработал алгоритм ATCOR now, который представляет собой программное обеспечение ATCOR на основе модели, использующее код MODTRAN-4 для уменьшения атмосферных и топографических эффектов в данных.
Модуль атмосферной коррекции FLAASH (Fast line-of-sight atmospheric analysis of spectral hypercubes) был разработан Адлером-Голденом и другими [37]. Он восстанавливает коэффициент отражения поверхности земли без использования наземных измерений. Стаэнц и соавторы [38] разработали систему анализа данных спектрометра изображений для обработки гиперспектральных данных путем удаления артефактов датчика и калибровки. Он преобразует излучение датчика в коэффициент отражения поверхности и анализирует гиперспектральные данные. Кью и соавторы [39] разработали высокоточную атмосферную коррекцию для гиперспектральных данных. Эта модель корректирует водяной пар и другие газы (такие как CO2 и метан).
4.2. Обработка размерности
После исправления гиперспектральные данные по-прежнему содержат избыточную спектральную информацию, которую необходимо обработать. Чтобы сократить вычислительные затраты и время обработки без потери полезной информации, размерность данных должна быть уменьшена. Методы уменьшения размерности можно разделить на различные группы, такие как неконтролируемые и контролируемые, линейные и нелинейные подходы. Анализ основных компонентов (PCA – principal component analysis), минимальная доля шума (MNF – minimum noise fraction) и анализ независимых компонентов (ICA – independent component analysis) являются наиболее популярными неконтролируемыми подходами к уменьшению размерности. PCA – это линейный широко используемый метод, который выполняет поиск для увеличения дисперсии в новом и нижнем подпространстве [40]. MNF – это хорошо известный метод шумоподавления, который преобразует зашумленный исходный гиперспектральный куб данных в поканальные изображения с увеличивающимся уровнем шума [41]. ICA – это статистический механизм, который преобразует данные в максимально независимые и негауссовы подразделы [42,43]. Этот метод использует виртуальную размерность для определения количества независимых компонентов, который следует сохранить [25]. Контролируемыми методами выполняется извлечение более полезной информации с использованием предварительных знаний об обучающих выборках. Обычно используемые контролируемые алгоритмы уменьшения размерности включают линейный дискриминантный анализ Фишера [44] и дискриминационное выравнивание по местоположению (DLA – discriminative locality alignment) [45]. Локальный дискриминантный анализ Фишера [46] и неконтролируемый DLA [45] являются некоторыми вариантами этих методов.
Чтобы преодолеть некоторые проблемы, возникающие из-за традиционных методов уменьшения размерности, для улучшения результатов уменьшения размерности были разработаны методы, основанные на разреженности, такие как дискриминантный анализ на основе разреженных графиков [47] и метод комбинирования множества признаков [48]. Помимо традиционных методов, он включает в себя спектральные и текстурные методы; для обработки гиперспектральных изображений были разработаны новые методы, основанные на машинном обучении. Ряд алгоритмов обучения метрикам, таких как анализ соответствующих компонентов [49], анализ компонентов окрестности [50], теоретико-информационное обучение метрикам [51], и совместное дискриминантное обучение локальным метрикам [52], решают проблемы гиперспектрального анализа. В дополнение, для отображения нелинейной структуры в гиперспектральных изображениях предложены различные методы уменьшения размерности, основанные на обучении многообразий, включая локально линейное вложение [53], собственную карту Лапласа [54], изометрическое отображение [55], вложение с сохранением окрестностей (NPE - neighborhood preserving embedding) [56]. Также были внедрены методы изучения гиперграфов для изучения взаимосвязи множественной смежности в гиперспектральных данных и обнаружения сложной геометрической структуры между гиперспектральными изображениями [57]. Дискриминантная гиперлапласианская проекция [57], встраивание гиперграфа с полууправлением [58], локальная пиксельная NPE [59], и пространственно–спектральная регуляризованная разреженность встроенных гиперграфов [57] – это некоторые типы методов встраивания графов для уменьшения размерности гиперспектральных изображений.
4.3. Способы извлечения конечных элементов
Благодаря улучшенному спектральному разрешению HSI извлечение конечного элемента гиперспектральных данных является фундаментальным шагом в их обработке. Конечный элемент – это чистая и диагностическая сигнатура, которая может использоваться для указания спектрального класса. Следует отметить, что каждый конечный элемент не обязательно должен быть чистым пикселем [60]. Существует несколько алгоритмов извлечения конечных элементов, которые в целом сгруппированы в два основных класса, включая категории, основанные на конвексной геометрии, и категории, основанные на статистике [12]. В широко используемой модели линейного разделения спектры каждого пиксельного вектора рассматриваются как линейная комбинация конечных элементов, взвешенных по их соответствующему содержанию. [61,62]. В рамках алгоритмов линейного спектрального разделения существуют две основные группы методов извлечения конечных элементов: чисто-пиксельные и непиксельные методы. В этих методах гиперспектральные данные рассматриваются как симплексные, а их конечные элементы составляют их вершины. Подход с использованием чистых пикселей предполагает, что в сцене изображения есть по крайней мере один конечный элемент, и применяет алгоритмы симплексного увеличения или преобразования максимального объема для поиска конечных элементов в облаке гиперспектральных данных [63,64]. Популярные алгоритмы включают индекс чистоты пикселей (PPI – pixel purity index) и алгоритм N-finder (N-FINDR), компонентный анализ выявления максимальных значений, автоматический процесс генерации цели и анализ выпуклого конуса являются типичными развивающимися методами с использованием чистых пикселей или симплексов [47,48]. Для устранения проблем при извлечении конечных элементов с использованием чистых пикселей, были разработаны нечистые методы, использующие алгоритмы сжатия симплекса или методы преобразования минимального объема [64]. Оптическая адаптивная система спектральной идентификации в реальном времени (ORASIS – Optical real-time adaptive spectral identification system), факторизация неотрицательной матрицы с минимальным объемом (MVC-NMF – minimum volume constrained non-negative matrix factorization), симплекс с минимальным объемом (MVES – minimum volume enclosing simplex), симплексный анализ минимального объема (MVSA – minimum volume simplex analysis), а разделение изобилия и неотрицательная факторизация матрицы с ограничением по гладкости разрабатываются как алгоритмы извлечения не чистых пикселей [64]. ORASIS как модель линейной смеси, разработанная Военно-морской исследовательской лабораторией, состоит из серии пошаговых алгоритмов, включая предварительный просмотр, выбор основы и выбор конечного элемента, чтобы разделить каждый пиксель набора данных с разными конечными элементами [65,66]. Этот метод рассматривает все пиксели данных внутри симплекса с максимальными значениями конечного элемента. По словам Чанга [66], функциональность этого метода снизилась в гиперспектральных данных с низким отношением сигнал/шум (SNR). MVC-NMF был разработан Миао и Кьи [67] как алгоритм, основанный не на чистых пикселях, который представляет собой алгоритм, основанный на конвексной геометрии. Этот метод пытается соответствовать симплексу, пока его объем минимален, и охватывает облако данных [67]. Нури и другие [68] использовали оптимизацию роя частиц для улучшения метода MVC-NMF для минералогического разделения гиперспектральных данных с высоким SNR [68]. MVSA - это еще одна линейная модель смешивания для извлечения конечных элементов, разработанная Ли и Бьюкас-Диас [69]. Этот алгоритм пытается подогнать симплекс минимального объема к гиперспектральным данным, который содержит доли распространения, принадлежащие симплексу вероятности [70]. В этом методе предполагается, что чистый пиксель может не существовать в гиперспектральных данных, что может решить общую ситуацию в гиперспектральных данных с сильно перемешанными пикселями [70]. Руководствуясь убеждением Крейга, Чан и другие [71] разработали линейную модель, называемую алгоритмом MVES, в которой максимальные значения симплекса охватывают все наблюдаемые пиксели. В этом методе симплекс должен оценивать все сигнатуры конечных элементов с высокой точностью [72]. Нелинейные геометрические методы разделения использовались реже, чем линейные методы. Бродвотер [73] представил нелинейные методы ядра для решения проблемы разделения в гиперспектральных данных высокой размерности. Хейлен [74] представил методы максимизации геодезического симплексного объема в предположениях о нелинейном смешивании для извлечения гиперспектральных конечных элементов. Основанные на статистике методы извлечения конечных элементов используют статистические представления [63]. На основе параметрических, непараметрических и пространственных статистических представлений были разработаны различные основанные на статистике методы разделения. Модель стохастического смешивания, которая предполагает гауссово распределение для каждого конечного элемента, является примером основанных на статистике алгоритмов, использующих параметрические представления [75]. ICA предлагается с помощью непараметрических статистических методов разделения. Алгоритм количественной оценки численности на основе ICA и комбинация ICA и независимого факторного анализа представляют собой некоторые виды непараметрического статистического подхода к извлечению конечных элементов [63]. Автоматическое морфологическое извлечение конечных элементов, итеративный анализ ошибок и пространственно–спектральное извлечение конечных элементов (SSEE – spatial–spectral endmember extraction) представляют собой статистические методы разделения, которые использовали пространственную статистику для улучшения выбора конечных элементов [12,63].
5. Методы классификации изображений
Классификация изображений обычно относится к набору методов для присвоения различных классов всем пикселям в цифровом изображении. С момента появления гиперспектрального дистанционного зондирования были разработаны и усовершенствованы различные подходы и алгоритмы классификации гиперспектральных изображений. Из-за высокой размерности, смешанных пикселей и меньшего количества обучающих выборок процедура классификации изображений для гиперспектральных изображений с высоким спектральным разрешением сталкивается с большим количеством проблем. Однако для преодоления этих проблем были разработаны и применены различные методы. Классификация изображений в основном подразделяется на три основные группы, включая контролируемые, неконтролируемые и полуконтролируемые методы. За последние десятилетия, на основе различных критериев, контролируемая и неконтролируемая классификация изображений была разделена на дополнительные группы, включая попиксельную и субпиксельную, параметрическую и непараметрическую, мягкую и жесткую, спектральную и спектрально-пространственную, а также по полю [25,76,77].
При контролируемой классификации аналитик изображений использует обучающие выборки (известные), полученные из экспертных знаний, для определения различных спектральных сигнатур или значений пикселей изображения в отношении разных классов [25]. На основе предварительных знаний пользователь выбирает образец эталонных пикселей известного типа покрытия или рисунка на изображении в качестве определенного класса и назначает его в качестве обучающих выборок. Затем эти обучающие выборки будут использоваться в качестве ссылок для классификации других пикселей на изображении. Некоторые из важных контролируемых классификаторов включают классификатор максимального правдоподобия (MLC – maximum likelihood classifier), метод опорных векторов (SVM – support vector machine), картографирование спектрального угла (SAM – spectral angle mapper), дерево решений и искусственную нейронную сеть (ANN – decision tree, and artificial neural network) [25].
В неконтролируемых методах классификации нет необходимости в обширной предварительной информации и вкладе аналитика. Помогая находить различные кластеры в данных, этот подход может быть использован для извлечения признаков и сегментации. В этом методе классы создаются исключительно на основе спектральной информации, а не на основе визуальной интерпретации вручную. Метод К-средних, итеративный метод самоорганизации (ISODATA - iterative self-organizing method) и кластеризация – вот некоторые из распространенных неконтролируемых классификаторов [78].
Полуконтролируемая классификация использует некоторую доступную известную справочную информацию наряду с неопределенными данными. Полуконтролируемый метод для классификации гиперспектральных изображений начал использоваться не так давно [79].
Методы параметрической классификации рассматривают данные как имеющие нормальную структуру распределения и имеют дело со статистическими параметрами, такими как вектор среднего значения и ковариационная матрица. В случае сложного ландшафта результаты классификации должны быть зашумленными. Кроме того, недостаточные, нерепрезентативные и многорежимные распределенные обучающие выборки приводят к некоторым неоднозначностям в классификации изображений. Объединение спектральных данных со вспомогательной информацией и нестатистическими данными при параметрическом подходе создает некоторые трудности для классификации снимков дистанционного зондирования [77]. Однако, благодаря своей надежности и простоте реализации, MLC является одной из наиболее широко используемых параметрических классификаций.
В непараметрическом классификаторе не требуются статистические параметры распределения входных данных. Такой подход облегчает интеграцию данных, не относящихся к дистанционному зондированию, в процедуру классификации изображений. Классификатор дерева решений, экспертные системы, SVM, глубокое обучение и нейронные сети становятся типичными примерами непараметрических классификаторов, широко используемых в классификации изображений дистанционного зондирования [25].
Попиксельный классификатор создает и присваивает сигнатуру путем сопоставления спектров набора объектов от всего пикселя до одного класса. Не рассматривая проблему смешанных пикселей, результирующая сигнатура включает в себя интеграцию всех материалов, доступных в обучающем наборе пикселей [25,77]. Большинство классификаторов, таких как MLC, евклидово расстояние, ANN, дерево решений и SVM, SAM, двоичное кодирование и подгонка спектральных признаков, являются важными попиксельными классификаторами. Из-за низкого пространственного разрешения гиперспектральных снимков дистанционного зондирования каждый пиксель спектрально не является чистым и обычно содержит смесь двух или более целевых материалов.
Были введены субпиксельные классификаторы, чтобы преодолеть проблему, связанную с наличием различных материалов в пикселе. Эти методы рассматривают спектральное значение каждого пикселя как результат интеграции линейной или нелинейной комбинации чистых материалов. Эти методы присваивают точный класс для каждого пикселя для классификации изображений дистанционного зондирования со средним и низким пространственным гиперспектральным разрешением. В них использовались различные линейные и нелинейные модели разделения для спектрального сопоставления на субпиксельном уровне [25,76].
Модели линейного разделения рассматривают каждый пиксель как линейную комбинацию набора характерных спектральных признаков в качестве конечных элементов по отношению к их количеству. Другими словами, в моделях с линейным разделением субпиксельный компонент может быть физически различим по свойству отражения. В геологии различные месторождения полезных ископаемых или спектральные библиотеки были применены для идентификации минералов и их распространенности. Наиболее популярной моделью для спектрального разделения является линейная модель смешивания (LMM – linear mixing model). В этой модели используются некоторые конечные элементы или алгоритмы обнаружения чистых пикселей, такие как N-FINDR и PPI.
Нелинейные модели смешивания считают, что на световой фотон воздействовали различные материалы земной поверхности до их обнаружения датчиком. Различными типами взаимодействия фотонов в смешанном пикселе в не-LMM являются вертикальное смешивание (навесы деревьев) и горизонтальное смешивание (зернистые смеси), а также и то, и другое. Билинейные модели, модели тесных смесей, модели на основе нейронных сетей, модели на основе ядра, физическое моделирование и методы многообразия – это методы, не относящиеся к LMM, которые использовались многими исследователями [77,80].
Спектральные классификаторы рассматривают гиперспектральные изображения только как спектральные данные, не заботясь о пространственной информации. Из-за высокого уровня смешивания в пространственном распределении различных классов спектральные классификаторы дают зашумленные результаты [25]. Хотя спектральные классификаторы обладают концептуальной простотой и вычислительной эффективностью, они не способны эффективно разделять ряд материалов растительного покрова. MLC и ANN являются одними из важных спектральных классификаторов.
Пространственно-контекстуальные подходы были разработаны для получения более точной классификации [25]. В этих методах пространственная информация извлекается из соседних пикселей для получения лучшего результата классификации. Некоторые методы сглаживания, включая нечеткую логику и нейронную сеть, могут быть выполнены до начала основной классификации. Извлечение текстур, моделирование MRFs, сегментация изображений и объектно-ориентированный анализ изображений являются основными пространственно-контекстуальными методами дистанционного зондирования. Спектрально–пространственные классификаторы в основном используются для обработки гиперспектральных изображений. В этих подходах параметрические и непараметрические классификаторы выполняются до использования пространственных классификаторов [76,81].
Мягкие классификаторы используют условную вероятность для определения границы принятия решения для классификации цели на изображении [77]. В этом методе каждый пиксель может принадлежать более чем одному классу, и между каждым классом существует градиент. Моделирование линейного смешивания и нечеткая классификация являются наиболее распространенными методами мягкой классификации.
Жесткие классификаторы, напротив, определяют границы цели, не выполняя оценку вероятности. Они рассматривают каждый пиксель, как принадлежащий к классу, на который он наиболее похож. Результаты этой классификации имеют более низкую точность, чем подходы мягкой классификации. ISODATA, методы параллелепипеда, К-средних, максимального правдоподобия и нейронные сети являются наиболее важными жесткими классификаторами [76].
Рассмотрение одного или нескольких классификаторов является еще одним критерием для группировки классификаторов изображений [25]. Единый классификатор предполагает присвоение метки класса заданному пикселю. Одним из наиболее известных классификаторов, которые использовались в качестве единого классификатора, является SVM. Он создает линейные границы принятия решений для классификации нескольких классов. Этот метод определяет различные обучающие выборки, находя гиперплоскости с максимальным запасом в пространстве выборки отображения.
В совмещенных или множественных классификаторах выполняется набор различных классификаторов для присвоения метки класса для данного пикселя. Это повышает точность результата классификации. При таком подходе следует учитывать, что комбинация классификаторов имеет преимущество в повышении точности без каких-либо недостатков [78,81].
Предварительное требование к справочным данным также устанавливает отдельную категорию для группировки классификаторов спектральных изображений. В случае отсутствия предварительных справочных данных для обработки изображения используются непосредственно спектральные характеристики пикселя. Напротив, некоторые методы используют предопределенную эталонную информацию в качестве справочных данных для процедуры обработки изображений [11]. Эти методы классифицируются как подходы, основанные на знаниях и на данных.
Методы, основанные на знаниях, включают знания о спектральных характеристиках различных материалов. Эти подходы применяют различные характеристики объектов поглощения, такие как положение, глубина, асимметрия и ширина в различных материалах [11,14,19,82,83]. Расчет полосы пропускания, отображение объектов, экспертная система, спектральная деконволюция, вейвлет-анализ и теория рассеяния представляют собой различные методы, составляющие техники, основанные на знаниях.
Методы управления данными требуют гиперспектральных данных и дополнительных справочных данных (спектров) [66,84]. Справочные данные обычно назначаются в качестве обучающих классов или наборов конечных элементов, которые импортируются из спектральной библиотеки или извлекаются из изображения. Различные классификации, включенные в попиксельные и субпиксельные классификаторы, подразделяются на категории в классификаторах управления данными.
6. Геологическое применение
6.1. Литологическое картирование
Свойства гиперспектрального дистанционного зондирования с высоким спектральным разрешением делают его важным потенциалом для точного распознавания и картирования материалов земной поверхности [29,33]. Сотни смежных спектральных каналов гиперспектральных изображений могут быть использованы для извлечения спектра пикселей для распознавания минералов и горных пород [33]. Выполнение минерального и литологического картирования по гиперспектральным изображениям обычно связано со сравнением неизвестного спектра с эталонным спектром [82]. Спектральные характеристики поглощения различных минералов в основном связаны с колебаниями Fe 2+, Fe 3 +, Al-OH, Mg-OH, OH-, и CO3 в VNIR и SWIR. Минералы с Fe 2+ и Fe 3 + имеют пик поглощения на уровне 1,03 и 0.64 мкм, соответственно. Минералы, содержащие Al-OH, имеют значительный пик поглощения при 2,15-2.22 мкм, тогда как наиболее важное положение пика поглощения минералов Mg-OH приходится на 2,30-2.39 мкм. Минералы группы CO3 демонстрируют отчетливый пик поглощения при 2.35 мкм [14,16,18-20]. Область VNIR-SWIR в основном используется для картирования измененных минералов, включая Fe-OH, Mg-OH, Al-OH и CO3-содержащие минералы. Однако эти спектральные характеристики могут быть применимы для силикатных Mg, Fe и Al пород, таких как оливин, пироксен, слюда и амфибол. Спектральные особенности силикатных минералов в основном объясняются колебаниями связей Si–O в области TIR [14,16,19].
Kumar и соавторы [85] предложили автоматизированный подход к литологическому картированию на основе авиационных гиперспектральных данных из золотоносного гранитно-зеленокаменного пояса района Хатти (Индия). В этом подходе они использовали методы спектрального улучшения, такие как PCA и ICA, а также различные алгоритмы машинного обучения (MLAs), чтобы получить точную литологическую карту (рис. 4). Тем не менее, они использовали обычную геологическую карту и продукты спектрального улучшения, полученные из данных ASTER, для создания эталонной литологической карты с высоким разрешением. Среди различных MLA они обнаружили, что SVM, использующий оптимальные диапазоны на основе совместной взаимной максимизации информации (JMIM - joint mutual information maximization), имеет лучшую производительность с более высокой точностью.