Аннотация:
Рассмотрена задача оптимального восстановления значений линейных операторов на классах элементов, информация о которых известна со случайной ошибкой. Построены линейные оптимальные методы восстановления, которые используют, вообще говоря, не всю доступную для измерения информацию. В качестве следствия приводится оптимальный метод восстановления функции по конечному набору ее коэффициентов Фурье, заданных со случайной ошибкой.
Библиография: 14 названий.
Работа посвящена построению оптимальных методов восстановления значений одного семейства линейных операторов на классах элементов, информация о которых известна со случайной ошибкой. Сама проблематика оптимального восстановления значений линейных функционалов и операторов на классах множеств возникла в 60-е годы прошлого века (см. [1]–[5]) и касалась случая, когда информация об элементах этих множеств известна с детерминированной ошибкой. Общая постановка задачи оптимального восстановления в этой ситуации такова.
Пусть X – векторное пространство, Z – нормированное пространство и T: X→Z – линейный оператор. Наша цель заключается в том, чтобы наилучшим образом восстановить значения оператора T на множестве (классе) W⊂X по приближенной информации об элементах W. Точнее говоря, пусть задан линейный оператор I:X→Rn и δ>0. Информация о любом x∈W представляет собой некоторый вектор y=y(x)∈Rn такой, что
‖y−I(x)‖⩽δ,
где ‖⋅‖ – какая-либо норма в Rn.
Каждое отображение φ:Rn→Z будем называть методом восстановления (значений оператора T на множестве W). Погрешность методаφ задается формулой
e0(T,W,φ)=sup
Оптимальный метод восстановления – это отображение \widehat \varphi\colon\mathbb R^n\to Z с минимальной погрешностью, т.е.
где нижняя грань также берется по всем отображениям \varphi\colon\mathbb R^n\to Z, называемого погрешностью оптимального восстановления.
К настоящему времени имеется значительное число работ, в которых для различных задач восстановления найдены оптимальные методы (см. [6]–[10]).
Задача, подобная изложенной, рассматривается и в математической статистике, где информация об x \in W представляет собой случайный вектор y=y(x), распределенный по нормальному закону с математическим ожиданием I(x) и ковариационной матрицей \delta^2 \operatorname{Id}_n для всех x\in W (здесь \operatorname{Id}_n – единичная матрица порядка n), а погрешность восстановления определяется как
Такой постановке также посвящено немало работ (см., например, [11]–[14]). Несмотря на то, что формулировки задач с детерминированной и случайной ошибками весьма схожи, подходы к их решениям и полученные результаты во многом различаются. В частности, известно, что для задачи (1.1) даже в простейшем одномерном случае оптимальный метод нелинеен (см. [11], [12], [14]). Для задач оптимального восстановления с детерминированной ошибкой разработаны достаточно эффективные методы исследования, основанные на общей теории экстремума, которые позволяют в разных задачах находить оптимальные методы восстановления. В связи с этим представляется интересным адаптировать эти подходы к задачам оптимального восстановления и со случайной ошибкой. При этом мы не будем ограничиваться только нормальным распределением, а будем рассматривать произвольные распределения вектора y(x) c фиксированным математическим ожиданием I(x) и фиксированной оценкой для дисперсии.
Более точно, для каждого x\in W и \delta>0 рассмотрим множество вероятностных распределений в \mathbb R^n
\begin{equation}
Y_\delta(x)=\bigl\{y=(y_{1}, y_{2}, \dots, y_{n}) \colon \mathbb E y=I(x), \,\mathbb V y_{k} \leqslant \delta^2, \, k=1, \dots, n \bigr\}
\end{equation}
\tag{1.2}
(здесь \mathbb V обозначает дисперсию) и определим погрешность метода \varphi\colon\mathbb R^n\to Z по формуле
Иными словами, оптимальный метод \widehat{\varphi} обладает следующим свойством: супремум по всем парам x \in W, y \in Y_{\delta}(x) величины \mathbb E \|Tx-\varphi(y)\|^2 минимален при \varphi=\widehat{\varphi}.
Задача состоит в поиске оптимального метода восстановления (если он существует) и погрешности оптимального восстановления
В настоящей работе рассматривается именно такая задача оптимального восстановления, о которой мы будем говорить как о задаче оптимального восстановления значений оператора T на классе W по информации (1.2). Для операторов определенного вида найдены оптимальные методы и точные значения погрешности оптимального восстановления. При этом различные эффекты, обнаруженные в задачах восстановления с детерминированной ошибкой (например, линейность оптимального метода и возможность использовать не всю доступную для измерения информацию), проявляются и здесь. В качестве следствия полученные результаты применяются к задаче оптимального восстановления функции по ее конечному набору коэффициентов Фурье, заданных со случайной ошибкой.
Благодарность
Автор выражает искреннюю благодарность Г. Г. Магарил-Ильяеву и К. Ю. Осипенко за постановку задачи и внимание к работе.
§ 2. Постановка задачи
Пусть l_2 – вещественное пространство суммируемых с квадратом последовательностей x=(x_1,x_2,\dots). Если e_1,e_2,\dots – стандартный базис в l_2, то x=\sum_{k=1}^\infty x_k e_k.
Пусть \nu_k > 0, k=1,2,\dots . Определим подпространство \mathcal W в l_2 и множество W по правилу
Пусть, наконец, ненулевые вещественные числа \mu_k, k=1,2,\dots, таковы, что |\mu_k|^2\leqslant C \nu_k для всех k=1,2,\dots и некоторого C>0. Определим линейные операторы T\colon \mathcal W\to l_2 и I\colon \mathcal W\to \mathbb R^{n} соответственно по формулам
Если обозначить X=\mathcal W и Z=l_2, то в соответствии с общей постановкой нас интересует задача оптимального восстановления значений оператора T на классе W по информации (1.2).
§ 3. Основная теорема
Теорема 1. Пусть числа \nu_{k} и \mu_{k} таковы, что последовательность \gamma_k=\sqrt{\nu_k}/|\mu_k|, k\in\mathbb N, возрастает и
Доказательство теоремы 1 разобьем на несколько частей. Сначала докажем оценку снизу для погрешности оптимального восстановления, а затем построим метод, на котором эта оценка будет достигаться.
4.1. Оценка снизу
Теорема 2. Пусть W – произвольное подмножество l_2, симметричное относительно “координатных плоскостей” \{x \in l_2 \colon x_{k}=0\} при всех k \in \mathbb N. Тогда для погрешности оптимального восстановления справедлива оценка
Напомним, информация об элементах W представляет собой n-мерный вектор. Пусть \{e_{i}'\}_{i=1}^{n} – стандартный базис в \mathbb R^{n}. Зададим распределение \eta(x) для каждого x \in B:
Здесь мы оценили супремум по x \in B средним арифметическим. Предполагалось также, что p_{0}=0, p_{m+1}=1 и сумма по пустому множеству индексов равна нулю.
Рассмотрим для примера слагаемое k=1. В силу центральной симметричности B получаем
а затем, основываясь на теореме 2, покажем, что E(T, W) \geqslant e(T, W, \widehat{\varphi}), т.е. метод \widehat{\varphi} будет оптимальным.
Лемма 1. Для любого метода \varphi \in D квадрат его погрешности выражается через соответствующие этому методу коэффициенты \alpha_1, \dots, \alpha_n по правилу
Доказательство. Перейдем от случайных векторов y \in Y_\delta(x), у которых математическое ожидание зависит от x, к векторам
\begin{equation*}
z=y-I x
\end{equation*}
\notag
с нулевым математическим ожиданием.
Рассмотрим более подробно величину e^2(T, W, \varphi) для произвольного метода \varphi из множества D:
\begin{equation}
\begin{aligned} \, \notag &e^2(T, W, \varphi) =\sup_{\substack{x \in W\\ y \in Y_\delta(x)}} \mathbb E \| T x- \varphi(y)\|_{l_2}^2 =\sup_{\substack{x \in W\\ y \in Y_\delta(x)}} \mathbb E \| T x-\varphi(Ix)- \varphi(z)\|_{l_2}^2 \\ &\qquad=\sup_{\substack{x \in W \\ y \in Y_\delta(x)}} \bigl(\|T x-\varphi(I x)\|_{l_2}^2 +\mathbb E \|\varphi(z)\|_{l_2}^2 -2 \mathbb E\langle T x-\varphi(I x), \varphi(z)\rangle \bigr). \end{aligned}
\end{equation}
\tag{4.4}
Ограничения, связанные с определением множества Y_\delta(x), легко выразить в терминах z:
\begin{equation*}
\mathbb E z=0, \qquad \mathbb V z_{k} \leqslant \delta^2, \quad k=1, 2, \dots, n.
\end{equation*}
\notag
Условие \varphi \in D позволяет записать
\begin{equation*}
\begin{aligned} \, &\mathbb E\langle T x-\varphi(I x), \varphi(z)\rangle \\ &\qquad =\mathbb E \biggl\langle T x- \varphi(I x), \sum_{k=1}^{n} \alpha_{k} z_{k} e_k \biggr\rangle =\sum_{k=1}^{n} \alpha_{k}\langle T x-\varphi(I x), e_k\rangle \mathbb E z_{k}=0. \end{aligned}
\end{equation*}
\notag
Отсюда следует, что третье слагаемое в нижней строке формулы (4.4) для погрешности восстановления равно нулю. Распишем теперь второе слагаемое под знаком супремума (4.4):
\begin{equation*}
\mathbb E \|\varphi(z)\|_{l_2}^2=\mathbb E \sum_{k=1}^{n} \alpha_{k}^2 z_{k}^{2}(x)=\sum_{k=1}^{n} \alpha_{k}^2 \mathbb V z_{k}.
\end{equation*}
\notag
Максимальное значение в полученной задаче, очевидно, совпадает с (4.6). Лемма 1 доказана.
4.3. Построение оптимального D-метода
Как показано в лемме 1, погрешность метода \varphi \in D является функцией соответствующих ему коэффициентов \alpha_1, \dots, \alpha_n. Для нахождения оптимального D-метода \widehat{\varphi} нужно найти точку минимума этой функции. Имеем задачу минимизации
Заметим, что задача (4.8) строго выпуклая, поэтому ее решение единственно. Пусть \widehat{c}_1,\dots,\widehat{c}_{n} – оптимальные в этой задаче значения переменных. Тогда им соответствует оптимальный D-метод
Шаг 1. Все \widehat{c}_k (1 \leqslant k \leqslant n) принадлежат отрезку [0, 1].
Чтобы доказать это утверждение, будем рассуждать от противного. Допустим, \widehat{c}_k < 0 для некоторого k. Подставим в целевой функционал (4.8) значение c_k=-\widehat{c}_k вместо c_k= \widehat{c}_k, зафиксировав значения остальных переменных. Такая замена не меняет величину c_{k}^2, но уменьшает (1-c_k)^2, т.е. значение целевого функционала не увеличивается. Аналогично, если \widehat{c}_k > 1, то присвоим c_k значение, симметричное \widehat{c}_k относительно единицы; (1-c_k)^2 не изменится, а c_{k}^2 уменьшится. Таким образом, можно считать, что
Будем уменьшать c_1, начиная с c_1=\widehat{c}_1 (зафиксировав c_2=\widehat{c}_2,\dots,c_{n}=\widehat{c}_{n}), до тех пор, пока не будет достигнуто равенство
Условия \gamma_1 \leqslant \gamma_2 \leqslant \dots \leqslant \gamma_{n} гарантируют, что найденное в результате этого процесса значение c_1 неотрицательно. Кроме того, величина
не увеличилась. Следовательно, рассматриваемый процесс приводит к уменьшению целевого функционала (4.8), что противоречит определению \widehat{c}_1 . Тогда справедливо обратное к (4.9) неравенство
При уменьшении c_k (стартуя с c_k=\widehat{c}_k) максимум (4.10) не будет изменяться и целевой функционал (4.8) будет убывать. Однако этот процесс остановится, если:
Отсюда следует, что \widehat{c}_k либо равно нулю, либо (если 1-{\gamma_{k} (1- \widehat{c}_1)}/{\gamma_1} \geqslant 0) выражается формулой (4.13). Запишем это в кратком виде так:
Таким образом, все коэффициенты оптимального D-метода выражены через \widehat{c}_1. Собирая вместе (4.8), (4.11), (4.12), (4.14), получим одномерную задачу для поиска \widehat{c}_1
В (4.15) имеем ограничение 0 \leqslant c_1 \leqslant 1-{\gamma_1}/{\gamma_{n+1}}. Поэтому в силу строгого возрастания g'(\cdot) на этом отрезке получим
Лемма 2. Предположим, \xi_{m+1} \leqslant \delta < \xi_{m} при некотором 1 \leqslant m \leqslant n. Тогда для погрешности оптимального D-метода верна формула
Небольшая модификация доказательства теоремы 1 позволяет получить несколько более общее утверждение.
Будем обозначать стандартный базис в l_2 индексами, начинающимися с нуля: e_0,e_1,\dots . Оставаясь в рамках общей постановки задачи оптимального восстановления по информации (1.2), уточним определения множества W и операторов T, I:
§ 5. Применение к восстановлению функции по ее конечному набору коэффициентов Фурье
Пусть \mathbb T – это отрезок [-\pi, \pi] с идентифицированными концами, \mathcal{W}_{2}^r(\mathbb T) – пространство вещественных 2 \pi -периодических функций, у которых (r-1) -я производная абсолютно непрерывна на \mathbb T, а r -я производная принадлежит L_2(\mathbb T) (r \in \mathbb N).
Введем в пространстве L_2(\mathbb T) скалярное произведение и согласованную с ним норму:
Сформулируем задачу оптимального восстановления функции из W_{2}^r(\mathbb T) по конечному набору ее коэффициентов Фурье, известных со случайной ошибкой.
Для любых x \in W_{2}^r(\mathbb T) и \delta > 0 рассмотрим множество всех вероятностных распределений в \mathbb R^{2n+1} с математическим ожиданием F_{n} x и дисперсией каждой из компонент не больше \delta^2:
\begin{equation*}
\begin{aligned} \, Y_\delta(x) &=\bigl\{y= (\widetilde{a}_{0}, \dots, \widetilde{a}_{n}, \widetilde{b}_{1}, \dots, \widetilde{b}_{n}) \colon \mathbb E y=F_{n} x, \\ &\qquad \mathbb V \widetilde{a}_k \leqslant \delta^2, \ k=0, 1, \dots, n, \ \mathbb V \widetilde{b}_k \leqslant \delta^{2}, \ k=1, \dots, n \bigr\}. \end{aligned}
\end{equation*}
\notag
Методы восстановления функций из W_{2}^{r}(\mathbb{T}) – это все отображения \varphi\colon \mathbb R^{2 n+1} \to L_2(\mathbb T). Будем рассматривать только множество методов, для которых определена погрешность
Замечание. Метод \widehat{\varphi} из теоремы 4 оптимален в смысле (5.2), т.е. имеет наименьшую погрешность (5.1).
Как легко видеть, метод \widehat{\varphi} линеен, использует, вообще говоря, не все доступные коэффициенты Фурье и определенным образом сглаживает используемые коэффициенты.
Список литературы
1.
С. А. Смоляк, Об оптимальном восстановлении функций и функционалов от них, Дисс. … канд. физ.-матем. наук, МГУ, М., 1965
2.
А. Г. Марчук, К. Ю. Осипенко, “Наилучшее приближение функций, заданных с погрешностью в конечном числе точек”, Матем. заметки, 17:3 (1975), 359–368; англ. пер.: A. G. Marchuk, K. Yu. Osipenko, “Best approximation of functions specified with an error at a finite number of points”, Math. Notes, 17:3 (1975), 207–212
3.
C. A. Micchelli, T. J. Rivlin, “A survey of optimal recovery”, Optimal estimation in approximation theory (Freudenstadt, 1976), Plenum, New York, 1977, 1–54
4.
A. A. Melkman, C. A. Micchelli, “Optimal estimation of linear operators in Hilbert spaces from inaccurate data”, SIAM J. Numer. Anal., 16:1 (1979), 87–105
5.
C. A. Micchelli, T. J. Rivlin, “Lectures on optimal recovery”, Numerical analysis (Lancaster, 1984), Lecture Notes in Math., 1129, Springer, Berlin, 1984, 21–93
6.
Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Оптимальное восстановление функций и их производных по коэффициентам Фурье, заданным с погрешностью”, Матем. сб., 193:3 (2002), 79–100; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Optimal recovery of functions and their derivatives from Fourier coefficients prescribed with an error”, Sb. Math., 193:3 (2002), 387–407
7.
Н. Д. Выск, К. Ю. Осипенко, “Оптимальное восстановление решения волнового уравнения по неточным начальным данным”, Матем. заметки, 81:6 (2007), 803–815; англ. пер.: N. D. Vysk, K. Yu. Osipenko, “Optimal reconstruction of the solution of the wave equation from inaccurate initial data”, Math. Notes, 81:6 (2007), 723–733
8.
Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “О наилучшем гармоническом синтезе периодических функций”, Фундамент. и прикл. матем., 18:5 (2013), 155–174; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “On best harmonic synthesis of periodic functions”, J. Math. Sci. (N.Y.), 209:1 (2015), 115–129
9.
К. Ю. Осипенко, “Оптимальное восстановление линейных операторов в неевклидовых метриках”, Матем. сб., 205:10 (2014), 77–106; англ. пер.: K. Yu. Osipenko, “Optimal recovery of linear operators in non-Euclidean metrics”, Sb. Math., 205:10 (2014), 1442–1472
10.
Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Точность и оптимальность методов восстановления функций по их спектру”, Функциональные пространства, теория приближений, смежные разделы математического анализа, Сборник статей. К 110-летию со дня рождения академика Сергея Михайловича Никольского, Труды МИАН, 293, МАИК “Наука/Интерпериодика”, М., 2016, 201–216; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Exactness and optimality of methods for recovering functions from their spectrum”, Proc. Steklov Inst. Math., 293 (2016), 194–208
11.
L. Plaskota, Noisy information and computational complexity, Cambridge Univ. Press, Cambridge, 1996, xii+308 pp.
12.
D. L. Donoho, “Statistical estimation and optimal recovery”, Ann. Statist., 22:1 (1994), 238–270
13.
D. L. Donoho, R. C. Liu, B. MacGibbon, “Minimax risk over hyperrectangles, and implications”, Ann. Statist., 18:3 (1990), 1416–1437
14.
С. В. Решетов, “Минимаксный риск для квадратично выпуклых множеств”, Вероятность и статистика. 15, Зап. науч. сем. ПОМИ, 368, ПОМИ, СПб., 2009, 181–189; англ. пер.: S. Reshetov, “Minimax risk for quadratically convex sets”, J. Math. Sci. (N.Y.), 167:4 (2010), 537–542
Образец цитирования:
К. Ю. Кривошеев, “Об оптимальном восстановлении значений линейных операторов по информации, известной со случайной ошибкой”, Матем. сб., 212:11 (2021), 89–108; K. Yu. Krivosheev, “On optimal recovery of values of linear operators from information known with a stochastic error”, Sb. Math., 212:11 (2021), 1588–1607
\RBibitem{Kri21}
\by К.~Ю.~Кривошеев
\paper Об оптимальном восстановлении значений линейных операторов по информации, известной со случайной ошибкой
\jour Матем. сб.
\yr 2021
\vol 212
\issue 11
\pages 89--108
\mathnet{http://mi.mathnet.ru/sm9484}
\crossref{https://doi.org/10.4213/sm9484}
\zmath{https://zbmath.org/?q=an:1496.41015}
\adsnasa{https://adsabs.harvard.edu/cgi-bin/bib_query?2021SbMat.212.1588K}
\transl
\by K.~Yu.~Krivosheev
\paper On optimal recovery of values of linear operators from information known with a~stochastic error
\jour Sb. Math.
\yr 2021
\vol 212
\issue 11
\pages 1588--1607
\crossref{https://doi.org/10.1070/SM9484}
\isi{https://gateway.webofknowledge.com/gateway/Gateway.cgi?GWVersion=2&SrcApp=Publons&SrcAuth=Publons_CEL&DestLinkType=FullRecord&DestApp=WOS_CPL&KeyUT=000745284900001}
\scopus{https://www.scopus.com/record/display.url?origin=inward&eid=2-s2.0-85124221266}
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/sm9484
https://doi.org/10.4213/sm9484
https://www.mathnet.ru/rus/sm/v212/i11/p89
Эта публикация цитируется в следующих 2 статьяx:
K.Yu. Osipenko, “Optimal recovery of linear operators from information of random functions”, Journal of Complexity, 86 (2025), 101903
И. С. Максимова, К. Ю. Осипенко, “Оптимальное восстановление решения системы линейных дифференциальных уравнений по исходной информации со случайной ошибкой”, Матем. сб., 216:4 (2025), 67–89