Статистические регулирующие алгоритмы решения СЛАУ при неполной априорной информации

В этом параграфе рассматривается построения рсгуляризи-рующих алгоритмов решения СЛАУ в ситуациях, когда отсутствует «полная» априорная информация об искомом решении или о множестве, которому принадлежит искомое решение (необходимая для построения оптимальных алгоритмов, изложенных в §2.2).

Неполная информация и сглаживающий функционал

Обратимся к функционалу’ (2.2.7):

feW = ||7-^4.-i (2.3.1)

точка минимума которого являлась байесовским решением СЛАУ, и дадим интерпретацию слагаемых этого функционала. Чем меньше величина первого слагаемого, тем больше вероятность события, что зарегистрированный вектор f соответствует вектору ср. Следовательно, первое слагаемое функционала (2.3.1) позволяет выделить в пространство векторов множество векторов, статистических адекватных заданному вектору f . Меньшее значение второго слагаемого соответствует большей вероятности события, что вектор является выборкой из совокупности векторов, распределенных по нормальному закону- Nyrn^yA, где т - вектор математического ожидания, PC - ковариационная матрица (в общем случае нс диагональная). Следовательно, второе слагаемое позволяет выделить множество векторов, «гладкость» которых адекватна ковариационной матрице рс.

В ситуациях, когда отсутствует априорная информация о числовых характеристиках решения и шума, целесообразно ввести функционал, слагаемые которого выполнили те же функции, что и в функционале (2.3.1). Такой функционал имеет вид

к_<эХ, (2-3-2) и является обобщением сглаживающего функционала А.Н. Тихонова 176; 77; 79|. Можно показать, что вектор сра, доставляющий минимум функционалу (2.3.2), является решением системы

(KTWfK^aW,)Va =KTWff+aWr(ot, (2.3.3) состоящей из М уравнений относительно М неизвестных. При а > 0 система имеет единственное решение.

В общем случае матрицы Wf, W:p являются нс отрицательно определенными и методы их определения зависят от формы задания имеющейся априорной информации. Рассмотрим некоторые из часто используемых методов по мере уменьшения требуемого ими «объема» априорной информации.

Метод рандомизации. Допустим, что априори известно о принадлежности искомого решения ср гиперпрямоугольнику, определяемому неравенствами

(Pm^j, J = , (2-3.4)

являющимися детерминированными ограничениями. Метод рандомизации [42; 43] позволяет интерпретировать детерминированные ограничения в терминах числовых характеристик некоторых вероятностных распределений (чаще всего нормального распределения). Первые два момента т, V нормального распределения определяется таким образом, чтобы случай

ный вектор, подчиняющийся этому распределению с вероятностью /3 попадал в гиперпрямоугольник (2.3.4). Математическое ожидание mip такого вектора определяется как

"Ip

^niin, ^min2 ^max2

~~2 ’ Г”

^min

M + ^max

M

  • 2
  • (2.3.5)

а корреляционная матрица Vip является диагональной и вычисля

ется по формуле

=^g

(2.3.6)

где является корнем нелинейного уравнения

(2.3.7)

Здесь Ф(х) - функция Лапласа.

Для размерности М е [8.60] можно принять = const = 3.0.

Если матрица V задана, то, подставляя вычисленные описанным образом , V в систему уравнений (2.2.6), получаем матричную запись алгоритма нахождения «рандомизированного» регуляризированного решения д)р:

'K+V^4>p = KTV;'f + V;'mp. (2.3.8)

Если информация о шуме измерения задана в виде системы неравенств

(2.3.9)

то вновь обращаемся к методу рандомизации и вычисляем корреляционную матрицу Vtl по формуле

е2 А2

(2.3.10)

Vtl=diag

[4//^ 4///;

и используем ее в алгоритме (2.3.8). Величина также определяется из уравнения (2.3.7), в числителе которого стоит корень N степени. Очевидно, что (2.3.8) является частным случаем системы (2.3.2) при следующих заменах:

« = 1- (2.3.11)

Замечание 2.3.1. Априорная информация об искомом решении, задаваемая в виде неравенств (2.3.4), должна удовлетворять условию «несмещенности»: а именно, середина интервала [^inin, -^max. ] должна совпадать с / -й проекцией точного решения , а в целом т = (р+ . Невыполнение этого условия приводит к появлению вектора смещения, определяемого по формуле

ЬР = Ч |>, - Н = ~(кТК'К Ч"')' ’7' (?’ "«,) • (2.3.12)

Здесь предполагается, что искомое решение является детерминированным вектором, и усреднение случайного вектора осуществляется только по ансамблю вектора шума /у. ?

Замечание 2.3.2. Значения должны попасть в интервал ^min ’ T’max » и Для этого длину’ интервала необходимо увеличивать. Однако это приводит к увеличению диагональных элементов матрицы V (см. (2.3.6)), а это в свою очередь вызывает возрастание случайной ошибки решения р. Поэтому для компенсации априорной неопределенности относительно границ интервалов (2.3.4) можно ввести параметр который вычисляют рассмотренными ниже алгоритмами выбора параметра регуляризации. ?

Вывод: метод'рандомизации следует применить при наличии достоверной априорной информации о возможных значениях проекций искомого решения, которую можно представить в виде системы неравенств (2.3.4).

 
Посмотреть оригинал