Статистические регулирующие алгоритмы решения СЛАУ при неполной априорной информации
В этом параграфе рассматривается построения рсгуляризи-рующих алгоритмов решения СЛАУ в ситуациях, когда отсутствует «полная» априорная информация об искомом решении или о множестве, которому принадлежит искомое решение (необходимая для построения оптимальных алгоритмов, изложенных в §2.2).
Неполная информация и сглаживающий функционал
Обратимся к функционалу’ (2.2.7):
feW = ||7-^4.-i (2.3.1)
точка минимума которого являлась байесовским решением СЛАУ, и дадим интерпретацию слагаемых этого функционала. Чем меньше величина первого слагаемого, тем больше вероятность события, что зарегистрированный вектор f соответствует вектору ср. Следовательно, первое слагаемое функционала (2.3.1) позволяет выделить в пространство векторов (р множество векторов, статистических адекватных заданному вектору f . Меньшее значение второго слагаемого соответствует большей вероятности события, что вектор <р является выборкой из совокупности векторов, распределенных по нормальному закону- Nyrn^yA, где т - вектор математического ожидания, PC - ковариационная матрица (в общем случае нс диагональная). Следовательно, второе слагаемое позволяет выделить множество векторов, «гладкость» которых адекватна ковариационной матрице рс.
В ситуациях, когда отсутствует априорная информация о числовых характеристиках решения и шума, целесообразно ввести функционал, слагаемые которого выполнили те же функции, что и в функционале (2.3.1). Такой функционал имеет вид
+ак_<эХ, (2-3-2) и является обобщением сглаживающего функционала А.Н. Тихонова 176; 77; 79|. Можно показать, что вектор сра, доставляющий минимум функционалу (2.3.2), является решением системы
(KTWfK^aW,)Va =KTWff+aWr(ot, (2.3.3) состоящей из М уравнений относительно М неизвестных. При а > 0 система имеет единственное решение.
В общем случае матрицы Wf, W:p являются нс отрицательно определенными и методы их определения зависят от формы задания имеющейся априорной информации. Рассмотрим некоторые из часто используемых методов по мере уменьшения требуемого ими «объема» априорной информации.
Метод рандомизации. Допустим, что априори известно о принадлежности искомого решения ср гиперпрямоугольнику, определяемому неравенствами
являющимися детерминированными ограничениями. Метод рандомизации [42; 43] позволяет интерпретировать детерминированные ограничения в терминах числовых характеристик некоторых вероятностных распределений (чаще всего нормального распределения). Первые два момента т, V нормального распределения определяется таким образом, чтобы случай
ный вектор, подчиняющийся этому распределению с вероятностью /3 попадал в гиперпрямоугольник (2.3.4). Математическое ожидание mip такого вектора определяется как
"Ip
^niin, ^min2 ^max2
~~2 ’ Г”
^min
M + ^max
M
- 2
- (2.3.5)
а корреляционная матрица Vip является диагональной и вычисля
ется по формуле
=^g

(2.3.6)
где является корнем нелинейного уравнения

(2.3.7)
Здесь Ф(х) - функция Лапласа.
Для размерности М е [8.60] можно принять = const = 3.0.
Если матрица V задана, то, подставляя вычисленные описанным образом , V в систему уравнений (2.2.6), получаем матричную запись алгоритма нахождения «рандомизированного» регуляризированного решения д)р:
'K+V^4>p = KTV;'f + V;'mp. (2.3.8)
Если информация о шуме измерения задана в виде системы неравенств
(2.3.9)
то вновь обращаемся к методу рандомизации и вычисляем корреляционную матрицу Vtl по формуле
е2 А2
(2.3.10)
Vtl=diag
[4//^ 4///;
и используем ее в алгоритме (2.3.8). Величина также определяется из уравнения (2.3.7), в числителе которого стоит корень N степени. Очевидно, что (2.3.8) является частным случаем системы (2.3.2) при следующих заменах:
« = 1- (2.3.11)
Замечание 2.3.1. Априорная информация об искомом решении, задаваемая в виде неравенств (2.3.4), должна удовлетворять условию «несмещенности»: а именно, середина интервала [^inin, -^max. ] должна совпадать с / -й проекцией точного решения , а в целом т = (р+ . Невыполнение этого условия приводит к появлению вектора смещения, определяемого по формуле
ЬР = Ч |>, - Н = ~(кТК'К Ч"')' ’7' (?’ "«,) • (2.3.12)
Здесь предполагается, что искомое решение является детерминированным вектором, и усреднение случайного вектора осуществляется только по ансамблю вектора шума /у. ?
Замечание 2.3.2. Значения должны попасть в интервал ^min ’ T’max » и Для этого длину’ интервала необходимо увеличивать. Однако это приводит к увеличению диагональных элементов матрицы V (см. (2.3.6)), а это в свою очередь вызывает возрастание случайной ошибки решения (рр. Поэтому для компенсации априорной неопределенности относительно границ интервалов (2.3.4) можно ввести параметр который вычисляют рассмотренными ниже алгоритмами выбора параметра регуляризации. ?
Вывод: метод'рандомизации следует применить при наличии достоверной априорной информации о возможных значениях проекций искомого решения, которую можно представить в виде системы неравенств (2.3.4).