Advertisement
Not a member of Pastebin yet?
Sign Up,
it unlocks many cool features!
- \documentclass[a4paper,12pt,times]{extarticle}
- %\voffset=-1in
- %\hoffset=-1in
- \oddsidemargin=85pt
- %\textwidth=16cm
- %\textheight=24cm
- \usepackage{array}
- \usepackage{amssymb}
- \usepackage{amsmath}
- \usepackage{graphicx}
- \usepackage{multirow}
- \usepackage{longtable}
- \usepackage{indentfirst}
- \usepackage[T2A]{fontenc}
- \usepackage[cp1251]{inputenc}
- \usepackage[english,russian]{babel}
- \usepackage[colorlinks,urlcolor=blue]{hyperref}
- \usepackage{geometry}
- \geometry{left=3.5cm}
- \geometry{right=1.5cm}
- \geometry{top=2cm}
- \geometry{bottom=2.4cm}
- %\linespread{1.3} % полуторный интервал
- %\renewcommand{\rmdefault}{ftm} % Times New Roman
- \frenchspacing
- \renewcommand{\baselinestretch}{1.5} % полуторный междустрочный интервал
- \makeatletter
- % запрещаем переносы в названиях секций
- \renewcommand{\section}{\@startsection{section}{1}{0pt}%
- {-3.5ex plus -1ex minus -.2ex}%
- {2.3ex plus .2ex}%
- {\centering\hyphenpenalty=10000\normalfont\Large\bfseries}}
- \begin{document}
- \large
- \thispagestyle{empty}
- %\begin{titlepage}
- \begin{center}
- {\small МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ\\
- Федеральное государственное автономное образовательное учреждение\\
- высшего профессионального образования\\
- Балтийский федеральный университет имени Иммануила Канта\\
- (БФУ им.И.Канта) \\}
- \vspace{1em}
- Институт прикладной математики и информационных технологий
- \end{center}
- \vspace{0.5em}
- \begin{flushright}
- \begin{tabular}{l}
- Кафедра прикладной математики\\
- ВКР допущена к защите\\
- и.о. Зав.кафедрой, к.ф.-м.н., доцент\\
- \underline{\hspace{3.5cm}} Милованов В.Ф.\\
- "\underline{\hspace{1.1cm}}"$~$\underline{\hspace{4cm}} 2014 г.
- \end{tabular}
- \end{flushright}
- \vspace{0.5em}
- \begin{center}
- \large Выпускная квалификационная работа
- \end{center}
- \begin{center}
- на тему: "Применение метода декомпозиции области к решению
- краевых задач
- "
- \end{center}
- \vspace{1em}
- \begin{tabular}{lll}
- ВКР защищена на оценку:&~~~~~~~~~~~~~~~~~~&Студент 5 курса\\
- \underline{\hspace{5.7cm}}& &специальности <<прикладная\\
- & &математика и информатика>>\\
- & &\underline{\hspace{3.5cm}} В.С. Каширин\\
- & &\\
- Руководитель:& &Рецензент:\\
- \underline{\hspace{4.7cm}}&~~~~~~~~~~~~~~~~~~& \underline{\hspace{4.7cm}}
- \end{tabular}
- \vspace{\fill}
- \begin{center}
- Калининград\\2014
- \end{center}
- %\end{titlepage}
- \newpage
- \thispagestyle{empty}
- \tableofcontents
- \numberwithin{equation}{section}
- \newpage
- \section*{Введение}
- \addcontentsline{toc}{section}{Введение}
- Многие важные научно--технические задачи приводят к исследованию процессов, описываемых дифференциальными уравнениями. Несмотря на значительные успехи, достигнутые в области численного решения этих уравнений, проблема дальнейшего совершенствования алгоритмов остается актуальной. Заметное место среди работ по методам решения дифференциальных уравнений занимают исследования, связанные с построением высоко эффективных алгоритмов для решения задач в областях специального вида. В данной работе рассматривается задача на L-- образной области. Эффективным методом решения таких задач является метод декомпозиции области.
- Декомпозиция области главным образом относится к разбиению частичного дифференциального уравнения, или его приближения, в сочетаниях задач на меньших подобластях, формирующих разбиение исходной области. Это разложение может входить в непрерывный уровень, где различные физические модели могут использоваться в различных областях, или на уровне дискретности, где можно удобно использовать различные методы приближения в различных областях, или в решении алгебраических систем, являющихся результатом приближения дифференциального уравнения в частных производных. Эти аспекты очень часто связываются практически.
- Существует множество физических явлений, которые удается адекватно описывать, используя различные модели в разных подобластях. Для объединения моделей задаются дополнительные условия на границе раздела подобластей. Например, взаимодействие течения в канале, описываемого уравнениями Навье--Стокса, и течения в пористой среде (фильтрации), описываемого уравнением Дарси, подразумевает разбиение расчетной области на подобласть--канал и подобласть--пористую среду, на границе раздела которых налагается условие непрерывности потока жидкости и нормальной компоненты тензора напряжений. На основе методов декомпозиции можно построить такой итерационный алгоритм решения общей сеточной задачи, что на каждой итерации в каждой подобласти нужно будет решать свое уравнение с особым граничным условием, а полученное решение будет удовлетворять условиям "сшивки" на границе раздела.
- В общем случае, имеется много способов разбиения большой задачи на части, много способов решения индивидуальных подзадач и много способов монтажа их решений. Теория декомпозиции области не имеет магического рецепта для выбора в каждом случае наилучших способов, однако она указывает набор вариантов, среди которых разумно сделать выбор. В некоторых случаях (например, для задач, достаточно похожих на уравнение Пуассона) эта теория приводит к «оптимальным методам».
- Целью выпускной квалификационной работы состоит в том, что на примере модельной задачи для L--образной области реализовать, исследовать и сравнить методы решения. Будут рассмотрены методы представленные в [4] и [6]. А так же будут рассмотрены способы решения уравнения Пуассона, с различными граничными условиями Дирихле и Неймана на L--образной области. И будет показано на решение тестового задания, где область будет разбита на две области: малый квадрат и большой квадрат, с размерами квадратов 3 на 3 и 7 на 7 соответственно.
- В первом параграфе предоставлена основная теория, цель которого дать основные понятия метода деокомпозиции области для помощи в дальнейшем изучении методов решения. Во втором параграфе изложена теория метода без перекрытия или прямого метода. Суть этого метода состоит в нахождение дополнения Шура, что оказывается очень трудоемкой операцией. Так же в этом параграфе написан алгоритм реализации этого метода. В третьем и четвертом параграфе идет речь об методе сопряженных градиентов, который выходит менее затраным, чем прямой метод. В них идет описания метода и способы улучшения этого метода для более эффективной работы, а так же алгоритмы реализации. В следующих четырех параграфах пойдет речь о
- методе Дирихле-Нейман, методе Нейман-Нейман, методе Дирихле-Дирихле и методе Шварца, в каждом из них идет описания метода и способы решения поставленной задачи. В девятом параграфе показано описания решения тестового задания различным способами с пояснениями, методами которые были представлены в предыдущих параграфах.
- \newpage
- \section{Математические основы методов декомпозиции}
- \setcounter{equation}{0}
- Пусть $\Omega $~--- область в $ R^d $ где ищется решение уравнения. Для подобласти $\omega \subset \Omega $ скалярное произведение в пространстве $L_2(\omega)$ будем обозначать$(\cdot,\cdot)_{\omega} $. В случае, когда область интегрирования есть вся область $\Omega $, будем опускать индекс $(\cdot,\cdot)=(\cdot,\cdot)_{\Omega} $.
- \subsection*{Условие сшивки}
- Рассмотрим уравнение общего случая краевой задачи для эллиптического уравнения в частных производных:
- \begin{align*}
- - \sum_{i,j=1}^{d} \frac{\partial}{\partial x_i}(a_{i,j}(x)\frac{\partial u}{\partial x_j})+\sum_{i=1}^d b_i(x)\frac{\partial u}{\partial x_j}+c(x)u=f, \\
- u\big|_{\Gamma_1}=0,\:\: \frac{\partial u}{\partial n}\big|_{\Gamma_2}=h
- \end{align*}
- в простейшем случае $a_{1,1}\:=\:a_{2,2}\:=\:1,\:a_{1,2}\:=\:a_{2,1}\:=\:0,\:\Gamma_1\:=\:\partial \Omega $ :
- \begin{equation}
- \begin{split}
- -\triangle u \: & = \: f \:\mbox{в}\: \Omega\\
- u\: & = \: 0 \: \mbox{на}\: \partial \Omega
- \end{split}
- \label{1-1}
- \end{equation}
- Предположим, что $\Omega$ разбита на две непересекающиеся подобласти $\Omega_1,\Omega_2$ с границей раздела $\Gamma$, в дальнейшем именуемой интерфейсом. Предположим также, что $\partial \Omega,\partial \Omega_1,\partial \Omega_2$~--- кусочно-гладкие, а решение (\ref{1-1}) $u\:\in C^1(\bar\Omega)$. Тогда задача (\ref{1-1}) эквивалентна двум подзадачам с условиями сшивки на $\Gamma$:
- %\begin{equation}
- \begin{eqnarray}
- \begin{split}
- -\triangle u_1 &= f\:\:\: \mbox{в} \:\:\: \Omega_1,\:\:\:\qquad \qquad -\triangle u_2 = f \:\:\: \mbox{в}\:\:\: \Omega_2\\
- u_1\: &= 0 \:\:\: \mbox{на} \:\:\: \partial \Omega_1 \setminus \Gamma, \qquad \qquad u_2 =0\:\:\: \mbox{на}\:\:\: \partial \Omega_2 \setminus \Gamma \\
- \end{split}
- \label{1-2}
- \end{eqnarray}
- \begin{eqnarray}
- u_1\:=\:u_2\:\:\: \mbox{на}\:\:\:\Gamma,\:\:\:\frac{\partial u_1}{\partial n}=\frac{\partial u_2}{\partial n}\:\:\:\mbox{на}\:\:\:\Gamma
- %\end{equation}
- \label{1-3}
- \end{eqnarray}
- где $n$ обозначает нормаль к $\Gamma$.\par
- Для слабой постановки задачи (\ref{1-1}) можно также сформулировать соответствующий (\ref{1-2}-\ref{1-3}) аналог.Слабая постановка для задачи (\ref{1-1}) состоит в нахождение $u \in V$ такое, что
- \begin{equation}
- a(u,v)=(f,v),\:\: \forall v\in V,
- \label{1-4}
- \end{equation}
- где $V=H_0^1(\Omega),a(u,v)=(\nabla u,\nabla v).$Введем дополнительно следующие пространства:
- \begin{eqnarray}
- V_i &=&\:\{v\in H^1(\Omega_i):\: v\big|_{\partial \Omega_i\setminus \Gamma } =0\},\:\:i=1,2, \label{1-5}\\
- V_i^0 &=&\:\{v\in H^1(\Omega_i):\: v\big|_{\partial \Omega_i}=0\}\:\:i=1,2, \label{1-6}\\
- \Lambda &=&\:\:\{\eta \in H^{\frac{1}{2}}(\Gamma):\:\eta=v\big|_{\Gamma},v\in V\}.
- \label{1-7}
- \end{eqnarray}\par
- По поводу пространства следов $\Lambda$ отметим следующее. В случае \\$\Gamma \cup \partial \Omega = \varnothing$ интерфейс является замкнутым множеством, совпадающим, например, с $\partial \Omega_1$. Если $\Omega_1$, обладает регулярной формой и ее диаметр порядка единицы, то норма в пространстве $H^{\frac{1}{2}}(\Gamma)$ задается по формуле
- \begin{align*}
- \big\|\eta\big\|_{H^{\frac{1}{2}}(\Gamma)}=\left(\big\|\eta\big\|_{L_2(\Gamma)}^2=\int\limits_{\Gamma}\int\limits_{\Gamma} \frac{(\eta(s)-\eta(t))^2}{|s-t|^2}dsdt\right)^{\frac{1}{2}}
- \end{align*}
- В случае $\Gamma \cup \partial \Omega \not= \varnothing $ интерфейс выходит на границу $\partial \Omega$ в точках$x_a,x_b$. При этом пространство следов функций из $H_0^1(\Omega)$ на $\Gamma$ имеет в
- литературе специальное обозначение: $H_{00}{\frac{1}{2}}(\Gamma)$ и снабжено усиленной нормой
- \begin{align*}
- \big\|\eta\big\|_{H_{00}^{\frac{1}{2}}(\Gamma)}=\biggl(\big\|\eta\big\|_{L_2(\Gamma)}^2=\int\limits_{\Gamma}\int\limits_{\Gamma} \frac{(\eta(s)-\eta(t))^2}{|s-t|^2}dsdt + \\
- +\int\limits_{\Gamma} \frac{\eta^2(s)}{|s-x_a|^2}ds+\int\limits_{\Gamma} \frac{\eta^2(s)}{|s-x_b|^2}ds \biggl)^{\frac{1}{2}}
- \end{align*}
- Для нормы в пространстве $\Lambda$ верна оценка
- \begin{align*}
- \|\eta\|_{\Lambda} \ge \|\eta\|_{L_2(\Gamma)}
- \end{align*}
- Для подзадач с условиями сшивки на $\Gamma$ (\ref{1-2}-\ref{1-3}) слабая постановка выглядит следующим образом: найти $u_i \in V_i$ такие, что $u_1=u_2$ на $\Gamma$,
- \begin{eqnarray}
- a_i(u_i,v_i)=(f,v_i)_{\Omega_i} \:\:\: \forall v_i \in V_i^0 ,\:\:\: i=1,2 \label{1-8}\\
- a_1(u_1,R_{1} \mu)+a_2(u_2,R_{2} \mu)=(f,R_{1}\mu)_{\Omega_1}+(f,R_{2}\mu)_{\Omega_2}\:\:\: \forall \mu \in \Lambda.
- \label{1-9}
- \end{eqnarray}
- Здесь $a_i(u,v)=(\nabla u,\nabla v)_{\Omega_i}$, а через $R_i$ обозначен оператор продолжения из $\Lambda$ в $V_i$, такой, что $(R_{i \eta})=\eta$.\\
- {\bf Лемма 1.1 } {\em Задачи }(\ref{1-4}) {\em и} (\ref{1-8}-\ref{1-9}) {\em эквивалентны}.\\
- Доказательство. Пусть верно (\ref{1-4}). Положим $u_i=u\big|_{\Omega_i}$. Так как $V_i^0 \subset V,$ то
- \begin{align*}
- a(u_i,v_i)=a(u,v_i)=(f,v_i)\:\:\:\: \forall v_i \in V_i^0.
- \end{align*}
- Специально, для$u_i=u\big|_{\Omega_i} $выполняется (\ref{1-8}). Функция
- \begin{align*}
- R\mu=
- \begin{cases}
- R_1\mu\:\:\: \mbox{в}\:\Omega_1\\
- R_2\mu\:\:\: \mbox{в}\:\Omega_2
- \end{cases}
- \end{align*}
- принадлежит $V$, поэтому $a(u,R\mu)=(f,R\mu)$, то есть выполняется (\ref{1-9}).
- Теперь докажем утверждение в обратную сторону. Пусть верно (\ref{1-8}-\ref{1-9}). Положим
- \begin{align*}
- u=
- \begin{cases}
- u_1\:\:\:\mbox{в} \: \Omega_1\\
- u_2\:\:\:\mbox{в} \: \Omega_2.
- \end{cases}
- \end{align*}
- Функция $u$ принадлежит $V$, поскольку $u_1=u_2$ на $\Gamma$. Кроме того, для любого $v \in V$ определим $\mu=v|_{\Gamma}\in \Lambda$ и его продолжение $R\mu \in V$. Поскольку $v\big|_{\Omega_i} - R_i\mu \in V_i^0$, получаем из (\ref{1-8}) и (\ref{1-9}):
- \begin{align*}
- a(u,v)=a(u,v\pm R_i\mu)=\sum_{i=1}^2\{a_i(u,v\big|_{\Omega_i}-R_i\mu)+a_i(u_i,R_i\mu)\}\\
- =\sum_{i=1}^2\{(f,v\big|_{\Omega_i}-R_i\mu)_{\Omega_i}+(f,R_i\mu)_{\Omega_i}\}=(f,v).
- \end{align*}
- Применение Леммы $1.1$ для конечно-элементных пространств позволит сформулировать условия сшивки на сеточном уровне.
- \subsection*{Теорема о продолжении и теорема о следах}
- Утверждения этого раздела являются техническими и приводятся без доказательства. Пусть $\Omega$ разбита на две непересекающиеся подобласти $\Omega_1$, $\Omega_2$ с кусочно-гладкими границами и интерфейсом $\Gamma$.\\ \par
- {\bf Теорема 1.2}.{\em Существует оператор продолжения из $\Omega_2$ в $\Omega$, $R_{12}$:\\ $V_2 \rightarrow V$, такой, что
- \begin{eqnarray}
- \|R_{12}u_2\| \le \hat C_{12} \|u_2\|v_2 \:\:\: \forall u_2 \in V_2,
- \label{1.10}
- \end{eqnarray}
- где константа $\hat C_{12}$ зависит только от подобластей $\Omega_1$, $\Omega_2$.\par
- Замечание}. Существует такая константа $C_{12},$ зависящая от подобластей $\Omega_1$, $\Omega_2$ что
- \begin{eqnarray}
- a(R_{12}u_2,R_{12}u_2) \le C_{12}^2 a_2(u_2,u_2).
- \label{1-11}
- \end{eqnarray}
- {\bf Теорема 1.2.} {\em Для любой $u_i \in V_i$ существует, ее след $u_i\big|_{\Gamma}$ на $\Gamma$, причем
- \begin{eqnarray}
- \big\|u_i\big|_{\Gamma}\big\|_{\Lambda}\le \breve C_i\big\|u_i\big\|_{V_i},
- \label{1-12}
- \end{eqnarray}
- и существует оператор продолжения с $\Gamma$ в $\Omega_i$,$R_i$ : $ \Lambda \rightarrow V_i$, такой, что
- \begin{eqnarray}
- \big\|R_i\mu\big\|_{V_i}\le \hat C\big\|\mu\big\|_{\Lambda} \:\:\: \forall \: \mu \:\: in \:\: \Lambda,
- \label{1-13}
- \end{eqnarray}
- где константы $\hat C_i$, $\breve C_i$ зависят только от подобластей $\Omega_1,\:\:\Omega_2.$} \\ \par
- Конечно-элементные аналоги теорем $1.1$, $1.2$ получаются формальной заменой пространств $V$, $V_i $, $\Lambda $ на их конечно-элементные подпространства \\$U^h,$ $ U_i^h$, $\Lambda^h $ при этом операторы продолжения $R_{12} $, $R_i$ заменяются на сеточные операторы продолжения $R_{12}^h,$ $R_q^h $. Независимость констант $\hat C_{12}, C_{12},$ $ \breve C_i, \hat C_i$ от размерности пространств $U_i^h $, (для квазиравномерных сеток это означает независимость от $h$), вообще говоря, не очевидна. Например, это не следует непосредственно из аппроксимационных свойств пространств $U_i^h $. Для определенных классов сеток независимость констант от размерности $V_i^h$ доказать удается. В частности, для конформных регулярных триангуляций, аппроксимирующих $\partial \Omega_1$ и $\partial \Omega_2$ со вторым порядком, константы $\hat C_{12},C_{12}, \breve C_i,\hat C_i$ не зависят от числа узлов сетки. Все триангуляции, рассмотренные ниже, принадлежат этому классу. Учитывая это замечание, мы будем ссылаться на теоремы $1.1$, $1.2$ как для соболевских пространств, так и для их конечно-элементных подпространств.
- \subsection*{Уравнение Пуанкаре-Стеклова}
- Рассмотрим задачу (\ref{1-1}) в области $\Omega$,разбитой на две подобласти $\Omega_1$, $\Omega_2$ с интерфейсом $\Gamma$ так, что $ \partial \Omega_1 \not = \Gamma$ и $\partial \Omega_2 \not = \Gamma $. Напомним, что пространство следов в этом случае $\Lambda=H_{00}^{\frac{1}{2}}(\Gamma)$. Для любой $\phi \in \Lambda$ определим гармоническое продолжение $H_i \varphi \in V_i$:
- \begin{eqnarray}
- \begin{split}
- -\triangle (H_i \varphi) &= 0 \qquad \mbox{в}\:\: \Omega_i,\\
- H_i \varphi &= \phi \qquad \mbox{на}\:\: \Gamma,\\
- H_i \varphi &= 0 \qquad \mbox{на}\:\: \partial \Omega_i \setminus \Gamma.
- \end{split}
- \label{1-14}
- \end{eqnarray}
- Для произвольной $f \in L_2(\Omega_i) $ обозначим через $T_i f \in H^1(\Omega_i) $ решение уравнения Пуассона в $\Omega_i$:
- \begin{eqnarray}
- \begin{split}
- -\triangle (T_i f) &= \:f \qquad \mbox{в}\:\: \Omega_i,\\
- T_i f &= \:0 \qquad \mbox{на} \:\: \partial \Omega_i
- \end{split}
- \label{1-15}
- \end{eqnarray}
- Пусть $u$ --- решение уравнения (\ref{1-1}), а $\lambda$ ~--- след $u$ на $\Gamma$. В каждой подобласти и можно представить следующим образом:
- \begin{eqnarray}
- u_i=u\big|_{\Omega_i}=H_i \lambda + T_i f.
- \label{1-16}
- \end{eqnarray}
- Следовательно,
- \begin{eqnarray}
- \int\limits_{\Omega_i}(\nabla u_i)^2 dx=\int\limits_{\Omega_i}(\nabla H_i \lambda)^2 dx + \int\limits_{\Omega_i}(\nabla T_i f)^2 dx.
- \label{1-17}
- \end{eqnarray}
- Из равенства (\ref{1-17}) следует, что гармоническое продолжение $H_i \lambda$ обладает минимальной энергетической полунормой среди всех функций $v \in H^1(\Omega)$ таких, что $v\big|_{\Gamma}=\lambda$ и $v\big|_{\partial \Omega \setminus \Gamma}=0$.\par
- Наша цель --- получить операторное уравнение на $\lambda$, для этого воспользуемся непрерывностью потока на интерфейсе:
- \begin{align*}
- \frac{\partial u_1}{\partial n}=\frac{\partial u_2}{\partial n}
- \end{align*}
- Благодаря (\ref{1-16}) получаем
- \begin{eqnarray}
- \frac{\partial}{\partial n}(H_1-H_2)\lambda = \frac{\partial}{\partial n}(T_2-T_1)f.
- \label{1-18}
- \end{eqnarray}
- Определим оператор Пуанкаре-Стеклова $S=\frac{\partial}{\partial n}(H_1-H_2): \Lambda \rightarrow \Lambda' $ и правую часть $\chi=\frac{\partial}{\partial n}(T_2-T_1)f \in \Lambda'$, где $\Lambda' = H^{-\frac{1}{2}}(\Gamma)$. Уравнение $(2.18)$ в операторной форме принимает вид
- \begin{eqnarray}
- S\lambda=\chi
- \label{1-19}
- \end{eqnarray}
- и называется уравнением Пуанкаре-Стеклова. Это уравнение будет весьма полезно в дальнейшем, поэтому изучим свойства оператора $S$. Обозначим через $n_i$ нормаль к $\Gamma$, являющуюся внешней по отношению к $\Gamma_i$. \\ \par
- {\bf Лемма 1.2 }{\em $\displaystyle \frac{\partial}{\partial n_i}H_i$~--- симметричный и положительно определенный оператор в $L_2(\Gamma)$.\\
- Доказательство.} Пусть $u,v$~--- произвольные гармонические функции в $\Omega_i$. С помощью формулы Грина получаем
- \begin{align*}
- \int\limits_{\Gamma} \frac{\partial v}{\partial n_i}u ds-(\nabla u, \nabla v)_{\Omega_i}=(u,\triangle)_{\Omega_i}=\int\limits_{\Gamma} \frac{\partial u}{\partial n_i}v ds-(\nabla u,\nabla v)_{\Omega_i}
- \end{align*}
- Принимая в данном соотношении $u=H_i \mu$ и $v=H_i \lambda$ для произвольных $\mu,\lambda,$ получаем симметрию оператора:
- \begin{align*}
- \int\limits_{\Gamma} \lambda \frac{\partial}{\partial n_i}H_i \mu ds=\int\limits_{\Omega_i} \nabla H_i \mu \cdot \nabla H_i \lambda dx = \int\limits_{\Gamma} \mu \frac{\partial}{\partial n_i} H_i \lambda ds
- \end{align*}
- и положительную определенность оператора:
- \begin{align*}
- \int\limits_{\Gamma} \mu \frac{\partial}{\partial n_i} H_i \mu ds = \int \limits_{\Omega_i} \nabla H_i \mu \cdot \nabla H_i \mu dx &\ge \frac{1}{C(\Omega_i)^2 +1} \big\|H_i \mu \big\|_{V_i}^2 \\
- &\ge \frac{1}{(C(\Omega_i)^2 +1)\breve C_i^2} \big\|\mu\big\|_{L_2(\Gamma)^2}.
- \end{align*}
- Здесь $C(\Omega)$~--- константа из неравенства Фридрикса \\ $ \left ( \int \limits_{\Omega} u^2 dx \right )^{\frac{1}{2}} \le C(\Omega) \left ( \int \limits_{\Omega} (\nabla u)^2 dx \right )^{\frac{1}{2}} $, которое также верно для функций, зануляющийся лишь на части границы $ \partial \Omega_i $. \par
- Пусть $n$ в определении оператора $S$ является внешней нормалью по отношению к $\Omega_1 $ тогда простым следствием леммы $1.2$ является симметричность и положительная определенность $S$.
- \newpage
- \section{Метод без перекрытия}
- \setcounter{equation}{0}
- \subsection{Описание метода}
- В литературе методы этого типа называют еще методами {\it подструктур}, или методами {\it дополнений Шура}. Такие методы используются уже несколько десятилетий, особенно специалистами по строительной механике, для разбиения больших задач на части, могущие быть размещенными в памяти компьютера.
- Для простоты, проиллюстрируем данный тип методов с помощью обычного уравнения Пуассона с граничными условиями Дирихле, дискретизованного посредством 5-точечного шаблона. Однако уравнение будем рассматривать не на квадрате, а на {\it L--образной области}. Эту область можно разбить на две: малый квадрат и большой с вдвое большей стороной, причем малый квадрат примыкает к нижней части правой стороны большого квадрата. Построим метод, использующий нашу способность быстро решать задачи на квадратах.
- Для грубой сетки, показанной на рисунке, каждый внутренний узел $L$--образной области помечен номером (стоящим слева сверху от узла).
- Нумерация ведется специальным образом:
- вначале пронумеруем внутренние узлы каждой из подобластей и только потом узлы
- на их общей границе.\\
- %\begin{figure}
- \includegraphics[width=0.7\linewidth]{lobl.png}\\
- %\end{figure}
- рис1.\\
- %\begin{figure}
- %\begin{center}
- %\includegraphics[width=0.7\linewidth]{lobl.png}
- %\end{center}
- %\end{figure}
- Получаем следующую матрицу:
- %\begin{figure}
- %\begin{center}
- \includegraphics[width=0.5\linewidth]{A.png}\par
- %\end{center}
- %\end{figure}
- Одним из важнейших свойств этой матрицы является то, что $A_{12}=0$, поскольку между внутренними узлами двух подобластей нет прямого сцепления. Сцепление осуществляется лишь через занумерованные последними узлы общей границы подобластей (узлы 30 и 31). Таким образом, блок $A_{13}$ соответствует сцеплению между границей и малым квадратом, а блок $A_{23}$ — сцеплению между границей и большим квадратом.
- Чтобы понять, как извлечь выгоду из специальной структуры матрицы $A$ при решении системы $Ax=b$, запишем блочное $LDU$-разложение этой матрицы в виде
- \begin{align*}
- A=\begin{bmatrix}
- I & 0 & 0 \\ 0 & I & 0 \\ A_{13}^T A_{11}^{-1} & A_{23}^T A_{22}^{-1} & I
- \end{bmatrix}\cdot
- \begin{bmatrix}
- I&0&0\\0&I&0\\0&0&S
- \end{bmatrix}\cdot
- \begin{bmatrix}
- A_{11}&0&A_{13}\\0&A_{22}&A_{23}\\0&0&I
- \end{bmatrix},
- \end{align*}
- где матрица
- \begin{eqnarray}
- S=A_{33}-A_{13}^TA_{11}^{-1}A_{13}-A_{23}^{T}A_{23}^{-1}A_{23}
- \label{2-1}
- \end{eqnarray}
- называется {\it дополнением Шура} ведущей главной подматрицы, содержащей блоки $A_{11}$ и $A_{22}$. Следовательно, можно написать
- \begin{align*}
- A^{-1}=\begin{bmatrix}
- A_{11}^{-1}&0&-A_{11}^{-1}A_{13}\\0&A_{22}^{-1}&-A_{22}^{-1}A_{23}\\0&0&I
- \end{bmatrix}\cdot
- \begin{bmatrix}
- I&0&0\\0&I&0\\0&0&S^{-1}
- \end{bmatrix}\cdot
- \begin{bmatrix}
- I & 0 & 0 \\ 0 & I & 0 \\ -A_{13}^T A_{11}^{-1} & -A_{23}^T A_{22}^{-1} & I
- \end{bmatrix}
- \end{align*}
- Таким образом, чтобы умножить вектор на $A^{-1}$, нам нужно умножать на блочные элементы этой факторизованной формы, а именно на блоки $A_{13}$ и $A_{23}$ (и транспонированные к ним), $A_{11}^{-1}$, $A_{22}^{-1}$ и $S^{-1}$. Умножение на $A_{13}$ и $A_{23}$ выгоднее, так как эти блоки очень разрежены. Умножение на $A_{11}^{-1}$ и $A_{22}^{-1}$ тоже выгоднее: ведь подобласти были выбраны так, чтобы были применимы алгоритм $FFT$, метод сопряженных градиентов, многосеточный метод и некоторые другие быстрые методы. Остается объяснить, как происходит умножение на матрицу $S^{-1}$.
- Поскольку на границе гораздо меньше узлов, чем в подобластях, порядок блоков $A_{33}$ и $S$ много меньше порядка блоков $A_{11}$ и $A_{22}$; этот эффект еще более выражен при сгущении сетки. Как и $A$, блок $S$ симметричен и положительно определен, но является (в данном случае) плотным. Чтобы вычислить его в явном виде, потребовалось бы решить по одной задаче для каждой подобласти на каждый из общих граничных узлов (что соответствует произведениям $A_{11}^{-1}A_{13}$ и $A_{22}^{-1}A_{23}$ в формуле (\ref{2-1})). Это, разумеется, можно сделать, после чего можно было бы факторизовать $S$ посредством итерационного метода, а затем решить систему с этой матрицей. Но такой способ действий был бы чересчур затратным, куда сложнее, чем простое умножение вектора на матрицу $S$, для чего, согласно (\ref{2-1}), понадобится лишь одно решение каждой задачи на подобласти. Это обстоятельство делает привлекательным применение итерационных методов, поскольку в них матрица $S$ используется лишь в произведениях с векторами. Число матрично-векторных умножений в методах зависит от числа обусловленности матрицы $S$. Оказывается (и в этом состоит особая привлекательность метода декомпозиции области!), что $S$ гораздо лучше обусловлена, чем исходная матрица $A$.
- В более общем случае имеется $k>2$ подобластей, разделенных границами (см. рис. 2, где подобласти разделены жирными линиями). Если пронумеровать последовательными числами узлы каждой подобласти и лишь затем граничные узлы, то получим матрицу вида\\[0.4cm]
- \includegraphics[width=0.5\linewidth]{A1.png}\\
- рис.2\\ \par
- Снова эту матрицу можно факторизовать, факторизуя независимо друг от друга диагональные блоки $A_{ii}$, а затем формируя дополнение Шура $S=A_{k+1,k+1}-\sum\limits_{i=1}^k A_{i,k+1}^T A_{i,i}^{-1} A_{i,k+1}$.
- В том случае, если имеется более чем один граничный сегмент, $S$ обладает структурой, которую можно использовать для предобуславливания. Так, если внутренние узлы каждого граничного сегмента занумерованы прежде, чем узлы на пересечении таких сегментов, то возникает блочная структура, схожая со структурой матрицы $A$. Диагональные блоки в $S$ устроены сложно, но их можно аппроксимировать матрицей $T_N^{1/2}$. Мы можем резюмировать достижения в теории метода следующим образом: при подходящем выборе предобуславливателя для матрицы $S$ можно добиться, чтобы число шагов алгоритма не зависело от числа $N$ граничных узлов.
- Недостаток этого метода состоит в том, чтобы построить матрицу $S$, нам нужно решить столько количество задач сколько узлов на интерфейсе и потом решить задачу с полной матрицей размерностью интерфейса это выходит очень затратно, но можно не посредственно применять итерационный метод поскольку оператор $S$ является симметричным и к задаче $Su=f$ может быть применен метод сопряженных градиентов.
- \subsection{Реализация прямого метода}
- \begin{enumerate}
- \item Разбиваем область на большой и малый квадрат.
- \item Решаем задачу на подобластях.
- \item Вычисляем невязку на линии сцепления областей.
- \item Вычисляем дополнение Шура $S$ следующим образом:
- \begin{enumerate}
- \item Решаем задачу на большом квадрате с правой частью, в узлах которой стоят нули
- и только в одном узле - единица.Таких задач будет $N$. В результате получаем $N$
- ($N$- число точек на линии сцепления) столбцов матрицы $A^T_{13} A^{-1}_{11} A_{13}$
- \item Аналогично для малого квадрата получаем матрицу $A^T_{23} A^{-1}_{22} A_{23}$
- \item Вычисляем $S = A_{33} - A^T_{13} A^{-1}_{11} A_{13} -A^T_{23} A^{-1}_{22} A_{23}$
- \end{enumerate}
- \item Решаем методом Гаусса систему $SU = F$ --- решение на линии сцепления
- \item С решением на линии сцепления решаем снова задачу на большом и малом квадрате.
- \item "Собираем" решение на всей области.
- \end{enumerate}
- \newpage
- \section{Метод сопряженных градиентов.}
- \setcounter{equation}{0}
- \subsection{Описание метода сопряженных градиентов.}
- Системы уравнений с положительно определенной матрицей, возникающие при
- дискретизации эллиптических краевых задач, чаще всего
- имеют большое число обусловленности. При решении таких задач
- простейшими итерационными методами заданная точность достигается
- за большое количество итераций. Примером таких методов является
- метод скорейшего спуска, метод верхней релаксации и др. Для увеличения
- скорости сходимости в таких задачах используют метод сопряженных
- градиентов. Этот метод является одним из эффективных при решении
- систем уравнений.
- Метод сопряженных градиентов был создан в 1952 году Штифелем и
- Гестеном, но начал использоваться лишь в 1971 году, когда были разработаны
- простейшие методы предобуславливания.
- Для решения систем уравнений, возникающих при дискретизации двух- и трехмерных
- задач второго порядка, этот метод является более эффективным, чем метод
- исключения неизвестных Гаусса, не говоря уже о существенно боле низкой
- потребности в памяти.
- Рассматривая итерационные методы для решения систем уравнений с
- положительно определенной матрицей $A,$ используют тот факт, что
- решением уравнения $Au=f$ является минимум функции
- $$
- G(u)=\dfrac{1}{2}(u,Au)-(f,u).
- $$
- Возможностью увеличить скорость сходимости является применение в решении
- задач метода сопряженных градиентов. Основополагающая мысль его состоит
- в том, чтобы направления, возникающие в процессе итераций, обратились
- в ортогональные в метрике, определяемой формулой $||x||_A=(Ax,x).$
- Существуют различные реализации метода сопряженных градиентов.
- Приведем алгоритм реализации метода.
- Пусть $x_0\in R^n- $начальное приближение. Запишем алгоритм
- метода сопряженных векторов.
- \subsection{Реализация метода сопряженных градиентов.}
- Алгоритм метода сопряженных градиентов:
- 1. По заданному $x_0$
- 2. Вычисляется невязка $r_0=f-Ax_0$ , вектор $p_0$ полагается равным
- $r_0$: $p_0=r_0$
- для $m=0,1,2,\ldots$ если $r_m \neq 0$
- 3. вычисляется вектор
- $a_m=Ap_m$
- 4. Находится
- $$\lambda_{opt}(x_m,p_m)=\displaystyle\frac{(r_m,p_m)}{(a_m,p_m)}$$
- 5. Вычисляется следующее приближение
- $$x_{m+1}=x_m+\lambda_{opt}(x_m,p_m)p_m$$
- 6. Вычисляется вектор невязки
- $$r_{m+1}=r_m-\lambda_{opt}(x_m,p_m)a_m$$
- 7. Находится вектор
- $$p_{m+1}=r_{m+1}-\displaystyle\frac{(r_{m+1},a_m)}{(a_m,p_m)}p_m$$
- Вместо 4) и 7) можно применять следующие формулы:
- 4а.$$\lambda_{opt}(x_m,p_m)=\displaystyle\frac{(r_m,r_m)}{(a_m,p_m)}$$
- 7a.$$p_{m+1}=r_{m+1}+\displaystyle\frac{(r_{m+1},r_{m+1})}{(r_m,r_m)}p_m$$
- \begin{center}
- {\bf Теорема 3.1} Для оценки ошибки метода сопряженных градиентов
- \end{center}
- справедливо следующее утверждение: Пусть $m-$ номер итерации,
- $k-$ число обусловленности матрицы, т.е $k=\dfrac{b}{a},$ где
- $a,b-$ соответственно наименьшее и наибольшее собственные значения
- этой матрицы, $T_m(x)-$ полином Чебышева первого рода $T_m(x)=\dfrac{1}{2}[(x+\sqrt{x^2-1})^m+(x-\sqrt{x^2-1})^m],$ $m=0,1,\dots$
- Тогда при любом $x_0\in R^n,$ имеет место выражение
- \begin{eqnarray}
- \label{2.15}
- ||x_m-x^*||_A\le \dfrac{1}{T_m(\dfrac{k+1}{k-1})}||x_0-x^*||_A \le
- 2\dfrac{(\sqrt{k}-1)^m}{(\sqrt{k}+1)^m}||x_0-x^*||_A.
- \end{eqnarray}
- При реализации метода сопряженных градиентов обычно получается, что
- скорость сходимости лучше, чем приведенная теоретическая оценка.
- Отметим, что на практике наблюдают неравномерное уменьшение погрешности
- в ходе итераций.
- После значительного уменьшения погрешности в первых шагах часто
- встречается фаза, когда ошибка уменьшается медленно. Затем опять
- происходит быстрое уменьшение.
- \newpage
- \section{Метод сопряженных градиентов с предобуславливателем.}
- \setcounter{equation}{0}
- Метод оказывается еще более эффективным если он применяется с
- предобуславливателем. В качестве предобуславливателя рассматривается
- матрица $W,$ легко обратимая и положительно определенная. Она
- является приближением для матрицы $A.$ Рассмотрим выражение\\
- $x_1=x_0+\tau W^{-1}r_0, u_0\in R^n, r_0=f-Ax_0.$ Пусть $W=A,$
- тогда решение будет получено уже на первом шаге. Поэтому
- можно предположить,
- что каждое, даже грубое приближение $W$ для матрицы $A$ приводит
- быстрее к заданной точности, нежели тривиальный выбор $W=I.$
- \subsection{ Алгоритм метода сопряженных градиентов с предобуславливателем $W$:}
- 1. По заданному $x_0$ вычисляются вектор невязки $r_0=f-Ax_0,$
- поправка $p_0=W^{-1}r_0$ и величина $\varrho_0=(p_0,r_0)$
- для $m=0,1,2,\ldots$
- 2. Вычисляется вектор $a_m=Ap_m$
- 3. Находится
- $$\lambda_{opt}(x_m,p_m)=\displaystyle\frac{\varrho_m}{(a_m,p_m)}$$
- 4. Вычисляется следующее приближение
- $$x_{m+1}=x_m+\lambda_{opt}(x_m,p_m)p_m$$
- 5. Вычисляется вектор невязки
- $$r_{m+1}=r_m-\lambda_{opt}(x_m,p_m)a_m$$
- 6.Находятся новая поправка $q_{m+1}=W^{-1}r_{m+1}$ и величина\\
- $\varrho_{m+1}=(q_{m+1},r_{m+1})$
- 7.Находится вектор
- $$p_{m+1}=q_{m+1}+\displaystyle\frac{\varrho_{m+1}}{\varrho_m}p_m$$
- Для метода сопряженных градиентов существует теорема, аналогичная
- теореме 3.1
- {\bf Теорема 4.1} Можно утверждать, что при любом $x_0\in R^n,$ выполняется неравенство
- \begin{eqnarray}
- \label{4-1}
- ||x_m-x^*||_A\le \dfrac{1}{T_m\big(\dfrac{k+1}{k-1}\big)}||x_0-x^*||_A \le
- 2\dfrac{(\sqrt{k}-1)^m}{(\sqrt{k}+1)^m}||x_0-x^*||_A.
- \end{eqnarray}
- Однако в отличие от предыдущей теоремы, число $k$ является отношением
- наибольшего и наименьшего собственных значений обобщенной задачи
- на собственные значения $Ax=\lambda Wu,$ где $W-$ предобуславливатель.
- \subsection{ Предобуславливатель при помощи метода симметричной верхней релаксации.}
- Простой, но эффективный предобуславливатель получается из метода симметричной
- верхней релаксации. В этом случае вектор $q=W^{-1}r$ вычисляется по
- следующему алгоритму: начиная с некоторого начального приближения $u^0$
- вычисляются приближения $u^1, u^2,\dots$ по следующим формулам:
- \begin{eqnarray*}
- u^{m+\frac{1}{2}}_{ij}&=&(1-\omega)u^{m}_{ij}-
- \omega(k_x(u^{m+\frac{1}{2}}_{i-1,j}+u^{m}_{i+1,j})
- \\
- &+&
- k_y(u^{m+\frac{1}{2}}_{i,j-1}+u^{m}_{i,j+1})+f_{i,j})/K,
- \end{eqnarray*}
- \begin{eqnarray*}
- u^{m+1}_{ij}&=&(1-\omega)u^{m}_{ij}-
- \omega(k_x(u^{m+\frac{1}{2}}_{i-1,j}+u^{m+1}_{i+1,j})
- \\
- &+&
- k_y(u^{m+\frac{1}{2}}_{i,j-1}+u^{m+1}_{i,j+1})+
- f_{i,j})/K,
- \end{eqnarray*}
- где $\omega-$ параметр метода верхней релаксации.
- Чтобы реализовать первый процесс, начинаем вычисления с элемента $u_{111}$.
- Далее в циклах по $i=1..(N_x-1), j=1..(N_y-1)$
- (используем однородность
- граничных условий ) вычисляем последовательно элементы $u_{ij},$
- причем используем элементы $u_{ij},$ уже вычисленные в этой итерации
- ранее. Аналогично, для реализации второго процесса вычисления начинаются
- с элемента $\displaystyle u_{N_xN_y}$ и циклы идут в обратном направлении:
- $i=(N_x-1)..1, j=(N_y-1)..1$
- Для метода сопряженных градиентов в качестве предобуславливателя
- используется одна итерация метода симметричной верхней релаксации,
- т.е. вектор $q=W^{-1}r$ вычисляется по следующему правилу: полагаем
- $u_0=0$ и вычисляем
- \begin{eqnarray*}
- u^{m+\frac{1}{2}}_{ij}=(1-\omega)u^{m}_{ij}- \omega(u^{m}_{i+1,j}+
- u^{m}_{i,j+1}+u^{m}_{i,j}+r_{i,j})/K.
- \end{eqnarray*}
- Затем уже вычисляется вектор
- \begin{eqnarray*}
- W&=&(1-\omega)u^{m}_{ij}-
- \omega(k_x(u^{m+\frac{1}{2}}_{i-1,j}+u^{m+1}_{i+1,j})
- \\
- &+&
- k_y(u^{m+\frac{1}{2}}_{i,j-1}+u^{m+1}_{i,j+1})
- +r_{i,j})/K.
- \end{eqnarray*}
- Можно показать, что оператор перехода будет симметричен. Поэтому
- использование метода сопряженных градиентов оправдано. Что же касается
- выбора параметра $\omega,$ то известно, что при $0<\omega<2,$ то метод
- верхней релаксации сходится.
- На практике было выяснено, что скорость сходимости метода верхней релаксации
- будет наибольшей в том случае, когда $\omega$ колеблется
- между 1.2 и 1.8.
- \newpage
- \section{Метод Дирихле-Нейман}
- Основной алгоритм Дирихле-Неймана состоит из двух шагов, соответствующих этим двум подобластям $\Omega_i,\:\: i=1,2$. Учитывая начальное приближение $u^0_{\Gamma}$, мы сначала решаем задачу Дирихле в $\Omega_1$ с данными Дирихле $u^0_{\Gamma}$ на $\Gamma$, а затем смешанную задача Неймана-Дирихле , где $\Omega_2$ с условием Неймана на $\Gamma$ определяется решением в $\Omega_1$, полученного на предыдущем шаге, и с условиями Дирихле на остальной $\partial \Omega_2$. Новая итерация $u^1_{\Gamma}$ выбрана в качестве одного из шагов решения для $\Omega_2$, или, более обобщено, в виде линейной комбинации этого шага и $u^0_{\Gamma}$, используя надлежащим образом выбранный релаксации параметра $\theta$. С точки зрения дифференциальных операторов, мы можем написать, что $n\ge 0$:
- \begin{eqnarray}
- \begin{split}
- &(D)\begin{cases}
- -\triangle u_1^{n+1/2} &= \:\: f \:\: \mbox{в} \:\: \Omega_1\\
- \qquad u_1^{n+1/2} &= \:\:0 \:\: \mbox{на} \:\: \partial \Omega_1 \setminus \Gamma \\
- \qquad u_1^{n+1/2} &= \:\: u^n_{\Gamma} \:\:\mbox{на} \:\: \Gamma
- \end{cases}\\[0.5cm]
- &(N)\begin{cases}
- -\triangle u_2^{n+1} &= \:\: f \qquad \qquad \qquad \mbox{в} \:\:\: \Omega_2\\
- \qquad u_2^{n+1} &= \:\:0 \qquad \qquad \qquad \mbox{на} \:\: \partial \Omega_2 \setminus \Gamma \\
- \displaystyle \qquad \frac{\partial u_2^{n+1}}{\partial n_2} &= \displaystyle\:\:- \frac{\partial u_1^{n+1/2}}{\partial n_1} \qquad \: \mbox{на} \:\: \Gamma
- \end{cases}
- \end{split}
- \label{D-N1}
- \end{eqnarray}
- где $\theta \in (0,\theta_{max})$. Используя наш приближение для производных по нормали, (\ref{D-N1}), мы можем получить соответствующую итерацию для дискретной задачи. Если мы определим векторы внутренних степеней свободы, как $v_1=u^{(1)}_I$ и $w_2=u^{(2)}_I$, смотри (\ref{D-N1}), то найдем
- \begin{eqnarray}
- \begin{split}
- &(D) \:\:\: A^{(1)}_{II} v^{n+1/2}_1 +A^{(1)}_{I\Gamma} u^n_{\Gamma}=f^{(1)}_I,\\[0.4cm]
- &(N) \:
- \begin{pmatrix}
- A^{(2)}_{II} & A^{(2)}_{I\Gamma} \\
- A^{(2)}_{\Gamma I} & A^{(2)}_{\Gamma \Gamma}
- \end{pmatrix}
- \begin{pmatrix}
- w^{n+1}_2\\
- \tilde u^{n+1}_{\Gamma}
- \end{pmatrix} =
- \begin{pmatrix}
- f^{(2)}_I \\
- f^{(2)}_{\Gamma}-\lambda^{n+1/2}_{\Gamma}
- \end{pmatrix}, \\[0.4cm]
- &u^{n+1}_{\Gamma}=\theta \tilde u^{n+1}_{\Gamma}+(1-\theta)u^n_{\Gamma},\\
- \end{split}
- \label{D-N2}
- \end{eqnarray}
- где
- \begin{align*}
- \lambda^{n+1/2}_{\Gamma}=A^{(1)}_{\Gamma I} v^{n+1/2}_1 + A^{(1)}_{\Gamma \Gamma} u^n_{\Gamma} - f^{(1)}_{\Gamma}.
- \end{align*}
- Ясно, что (\ref{D-N2}) возникает из разбиения исходной системы (\ref{D-N2}) и, следовательно, обеспечивает последовательный итерационный метод для ее решения, т. е. предел любой сходящейся последовательности удовлетворит правильный набор уравнений.\par
- Затем мы исключаем $v^{n+1/2}_1$ из (\ref{D-N2}) и находим
- \begin{align*}
- \lambda^{n+1/2}_{\Gamma}=-(g^{(1)}_{\Gamma} - S^{(1)} u^n_{\Gamma}).
- \end{align*}
- Используем затем блок разложение локальной матрицы $A^{(2)}$ и ликвидацию $w^{n+1}_2$ из (\ref{D-N2}) получаем следующее уравнение:
- \begin{align*}
- S^{(2)}(u^{n+1}_{\Gamma} - u^n_{\Gamma})=\theta (g_{\Gamma} - Su^n_{\Gamma}),
- \end{align*}
- которая показывает, что алгоритм Дирихле-Неймана является предобусловленная итерация Ричардсона для дополнительной системы Шура, с предобуславливателем $S^{(2)^{-1}}$. Предобусловленный оператор
- \begin{align*}
- S^{(2)^{-1}} S=I+S^{(2)^{-1}} S^{(1)},
- \end{align*}
- применение которого к вектору возводит в степень решение задачи Дирихле (умножение на $S^{(1)}$), и умножение на $S^{(2)^{-1}}$, который соответствует решению проблемы с условиями Неймана на $\Gamma$ и в остальных $\partial \Omega_2$ условиях Дирихле. \par
- Отметим, что спектральная эквивалентность между $S^{(1)}$ и $S^{(2)}$и, следовательно, равномерная оценка для числа $S^{(2)^{-1}}S$, обеспечен существованием устойчивой, дискретной гармоничности, конечного расширения элемента $H_i u_{\Gamma}$ от интерфейса $\Gamma$ в подобласти $\Omega_i$.
- Здесь и в дальнейшем, число обусловленности выдержанного оператор представляет собой отношение наибольшего и наименьшего собственных значений симметричной обобщенной задачи на собственные значения, определенного оператора и его предобусловливателя. Мы используем следующее определение:\\
- {\bf Определение(Оптимальность)}. {\it Итерационный метод решения линейной системы называется оптимальным, если его скорость сходимости к точному решению не зависит от размера системы}
- \newpage
- \section{Метод Нейман-Нейман}
- Основной алгоритм Неймана-Неймана может быть описан следующим образом: мы начинаем с исходного приближения $u^0_{\Gamma}$. Шаг алгоритма Неймана-Неймана заключается в решении задач Дирихле на каждой $\Omega_i$ с данными $u^0_{\Gamma}$ на $\Gamma$, и затем задачу на каждой подобласти, с условиями Неймана, на $\Gamma$, выбранном в качестве различия производных по нормали решений этих двух задач Дирихле. Значения на $\Gamma$ из решений задач Неймана тогда используются для исправления начальной $u^0_{\Gamma}$ и нахождения новой итерации $u^1_{\Gamma}$. С точки зрения сравнения разных операторов, мы можем написать для $n\ge 0$:
- \begin{eqnarray}
- \begin{split}
- &(D_i)\begin{cases}
- \left.
- \begin{aligned}
- -\triangle u_i^{n+1/2} &= \:\: f \qquad \qquad \:\:\mbox{в} \:\: \Omega_i,\\
- \qquad u_i^{n+1/2} &= \:\:0 \qquad \qquad \:\:\mbox{на} \:\: \partial \Omega_i\setminus \Gamma, \\
- \qquad u_i^{n+1/2} &= \:\: u^n_{\Gamma} \qquad \qquad \mbox{на}\:\: \Gamma,
- \end{aligned}
- \right\},\:\:\: i=1,2,
- \end{cases}\\[0.6cm]
- &(N_i)\begin{cases}
- \left.
- \begin{aligned}
- -\triangle \psi_i^{n+1} &=0 \hspace{5cm} \mbox{в} \:\: \Omega_i,\\
- \qquad \psi_i^{n+1} &=0 \hspace{5cm} \mbox{на} \:\: \partial \Omega_i \setminus \Gamma, \\
- \frac{\partial \psi_i^{n+1}}{\partial n_i} &= \frac{\partial u_1^{n+1/2}}{\partial n_1}+\frac{\partial u_2^{\!n+1/2}}{\partial n_2} \hspace{1.3cm} \mbox{на} \:\: \Gamma,
- \end{aligned}
- \right\},\:\:\: i=1,2,
- \end{cases}\\[0.5cm]
- &u^{n+1}_{\Gamma}=u^n_{\Gamma}-\theta(\psi^{n+1}_1 + \psi^{n+1}_2)\quad \mbox{на} \:\: \Gamma
- \end{split}
- \label{NN1}
- \end{eqnarray}
- с подходящим $\theta \in (0,\theta_{max}).$ Используя наше приближение для нормальных производных, можно получить итерации для дискретной задачи. Если мы определим векторы внутренних степеней свободы, как $v_i=u^{(i)}_I$ и $w_i=\psi^{(i)}$, мы находим
- \begin{eqnarray}
- \begin{split}
- &(D_i)\: A^{(i)}_{II} v^{n+1/2}_i + A^{(i)}_{I\Gamma} u^n_{\Gamma}=f^{(i)}_I,\quad i=1,2,\\
- &(N_i)\:\: \begin{pmatrix}
- A^{(i)}_{II} & A^{(i)} \\
- A^{(i)}_{\Gamma I} & A^{(i)}_{\Gamma \Gamma} \end{pmatrix} \begin{pmatrix}
- w^{n+1}_i \\ \eta^{n+1}_i \end{pmatrix}=\begin{pmatrix} 0\\r_{\Gamma} \end{pmatrix},\quad i=1,2, \\
- &u^{n+1}_{\Gamma}=u^n_{\Gamma}-\theta(\eta^{n+1}_1 + \eta^{n+1}_2),
- \end{split}
- \label{NN2}
- \end{eqnarray}
- где остаточный $r_{\Gamma}$ определяется как
- \begin{align*}
- \begin{split}
- r_{\Gamma}=(A^{(1)}_{\Gamma I} v^{n+1/2}_1 + A^{(1)}_{\Gamma \Gamma} u^n_{\Gamma} - f^{(1)}_{\Gamma})\\
- +(A^{(2)}_{\Gamma I} v^{n+1/2}_2 + A^{(2)}_{\Gamma \Gamma} u^n_{\Gamma} - f^{(2)}_{\Gamma})
- \end{split}
- \end{align*}
- Затем мы устраняем $v^{n+1/2}_i$ и $w^{n+1}_i$ из (\ref{NN2}). Проблемы $(D_i)$ дают
- \begin{eqnarray}
- r_{\Gamma}=-(g_{\Gamma}-Su^n_{\Gamma}),
- \label{NN3}
- \end{eqnarray}
- который показывает, что разница $r_{\Gamma}$ местных потоков равна разнице между остаточными дополнительной системы Шура. Использование блок-разложение местной матрицы $A^{(i)}$, проблем $(N_i)$, дает то,
- \begin{align*}
- \eta^{n+1}_i=S^{(i)-1} r_{\Gamma} = -S^{(i)-1}(g_{\Gamma}-Su^n_{\Gamma},
- \end{align*}
- следовательно, мы находим
- \begin{align*}
- u^{n+1}_{\Gamma}-u^n_{\Gamma}=\theta(S^{(1)^{-1}} +S^{(2)^{-1}})(g_{\Gamma}-Su^n_{\Gamma}),
- \end{align*}
- который показывает, что алгоритм Неймана-Неймана также предобусловленная итерация Ричардсона для дополнительной системы Шура, с предобусловливателем $S^{(1)^{-1}} +S^{(2)^{-1}}$.Предобусловленная матрица
- \begin{eqnarray}
- FS=(S^{(1)^{-1}} +S^{(2)^{-1}})S=(S^{(1)^{-1}} +S^{(2)^{-1}})(S^{(1)}+S^{(2)}),
- \label{NN4}
- \end{eqnarray}
- применение которого к вектору возводит в степень решение двух Задач Дирихле и двух задач условием Неймана на $\Gamma$.\par
- Оптимальность этого метода легко следует из результата алгоритма Дирихле-Неймана использовании спектральной теоремы отображения; предобусловленная матрица в (\ref{NN4}) можно записать в виде
- $$ S^{(2)^{-1}}S^{(1)}+2I+(S^{(2)^{-1}}S^{(1)})^{-1},$$ где собственные значения $S^{(2)^{-1}}S^{(1)}$ равномерно ограничены сверху и снизу.\par
- Отметим, что, учитывая положительные значения $\delta^{\dag}_1$ и $\delta^{\dag}_2$ c
- \begin{align*}
- \delta^{\dag}_1+\delta^{\dag}_2=1,
- \end{align*}
- остаточную $r_{\Gamma}$ на правой стороне задач Неймана в (\ref{NN2}) можно заменить на $\delta^{\dag}_1 r_{\Gamma}$ и $\delta^{\dag}_2 r_{\Gamma}$ в $\Omega_1$ и $\Omega_2$, соответственно. Аналогично, при нахождении новой итерации $u^{n+1}_{\Gamma} $ сумма этих двух исправлений $\eta^{n+1}_1$ и $\eta^{n+1}_2$ можно заменить на средне взвешенное значение:
- \begin{align*}
- u^{n+1}_{\Gamma}=u^n_{\Gamma}-\theta(\delta^{\dag}_1 \eta^{n+1}_1 + \delta^{\dag}_2 \eta^{n+1}_2).
- \end{align*}
- Это приводит к предобуславливателю
- \begin{align*}
- D^{(1)}S^{(1)^{-1}}D^{(1)}+D^{(2)}S^{(2)^{-1}}D^{(2)},
- \end{align*}
- где $D^{(i)}$ представляет собой диагональную матрицу, диагональные элементы которой равны $\delta^{\dag}_i$. Вычисление матрицы $D^{(i)}$ обычно используется на практике для того, чтобы улучшить сходимость алгоритма Неймана-Неймана для подобластей с точками пересечения и, в частности, для задач с большими изменениями в коэффициентах.\par
- Обобщения алгоритмов Дирихле-Неймана и Неймана-Неймана возможно, с помощью более общих условий Робина. Отметим, что использование более общих условиях интерфейса часто требуется для некоторых несимметричных или неопределенных задач.
- \newpage
- \section{Метод Дирихле-Дирихле}
- Вернемся к разбиению $\Omega$ на две подобласти $\Omega_1,\Omega_2$ Формулировка двух подзадач с условиями сшивки (\ref{1-1}-\ref{1-2}) допускает следующую интегральную постановку. Обозначим $\lambda=\frac{\partial u}{\partial n}|_{\Gamma}$ и найдем такие $\lambda \in \Lambda',$ $u_i \in V_i,\: i=1,2,$ что
- \begin{gather}
- \int\limits_{\Omega_1} \nabla u_1 \cdot \nabla v_1\: dx+\int\limits_{\Gamma} \lambda v_1 \: ds = \int\limits_{\Omega_1} f v_1\:dx\:\:\:\:\forall v_1 \in V_1, \label{5-1}\\
- \int\limits_{\Omega_2} \nabla u_2 \cdot \nabla v_2\: dx-\int\limits_{\Gamma} \lambda v_2 \: ds = \int\limits_{\Omega_2} f v_2\:dx\:\:\:\:\forall v_2 \in V_2,\label{5-2}\\
- \int\limits_{\Gamma} (u_1 - u_2)\mu ds = 0\:\:\: \mu \in \Lambda'. \label{5-3}
- \end{gather}
- Одним из преимуществ данной постановки является то, что она применима к случаю триангуляций, не стыкующихся на интерфейсе(Две триангуляции называются нестыкующимися, если их следы на интерфейсе не совпадают), поскольку непрерывность функции на Г здесь понимается лишь в слабом смысле, т.е. в смысле равенства (\ref{5-3}). Мы ограничимся случаем стыкующихся триангуляций и заменим пространство $V_i$ на стандартное конечно-элементное подпространство $U^h$, а $\Lambda'$~--- на дискретное пространство функций Дирака $\Lambda'^h$, заданных во внутренних узлах $x_k$ интерфейса $\Gamma$:
- \begin{align*}
- \Lambda'^h=\{\delta(x_k)\}.
- \end{align*}
- Конечно-элементная формулировка заключается в поиске $\lambda^h \in \lambda'^h,\quad$ $u_i^h \in U_i^h$ таких, что
- %\begin{eqnarray}
- \begin{gather}
- \int\limits_{\Omega_1} \nabla u_1^h \cdot \nabla v_1^h\: dx+\int\limits_{\Gamma} \lambda^h v_1^h \: ds = \int\limits_{\Omega_1} f v_1^h\:dx\:\:\:\:\forall v_1^h \in U_1^h,\label{5-4}\\
- \int\limits_{\Omega_2} \nabla u_2^h \cdot \nabla v_2^h\: dx-\int\limits_{\Gamma} \lambda^h v_2^h \: ds = \int\limits_{\Omega_2} f v_2^h\:dx\:\:\:\:\forall v_2^h \in U_2^h,\label{5-5}\\
- \int\limits_{\Gamma} (u_1^h - u_2^h)\mu^h ds = 0\:\:\: \mu^h \in \Lambda'^h.\label{5-6}
- \end{gather}
- %\end{eqnarray}
- В частном случае стыкующихся триангуляций уравнение (\ref{5-6}) сводится к требованию равенства конечно-элементных функций $u_1^h,u_2^h$ в узлах интерфейса:
- \begin{align*}
- u_1^h(x_k) - u_2^h(x_k)=0
- \end{align*}
- Отметим, что (\ref{5-4}-\ref{5-6}) является неконформной аппроксимацией \\ (\ref{5-1}-\ref{5-3}), поскольку пространство $\Lambda'^h$ не является подпространством $\Lambda'$. Тем не менее, можно показать, что (\ref{5-4}-\ref{5-6}) и обычная дискретизация\\ $a(u^h,v^h)=(f,v^h)\:\:\forall v^h \in U^h$ порождают одно и то же сеточное решение.\par
- Алгебраическая формулировка для задачи (\ref{5-4}-\ref{5-6}) выглядит следующим образом:
- \begin{eqnarray}
- \begin{pmatrix}
- B_1 & 0 & C_1^T \\
- 0 & B_2 & -C_2^T \\
- C_1 & -C_2 & 0
- \end{pmatrix}
- \begin{pmatrix}
- u_1 \\ u_2 \\ \lambda
- \end{pmatrix} =
- \begin{pmatrix}
- f_1 \\ f_2 \\ 0
- \end{pmatrix}
- \label{5-7}
- \end{eqnarray}
- где ненулевые элементы матриц $C_1$ и $C_2$~--- только единицы. Исключение неизвестных $u_1$ и $u_2$ из (\ref{5-7}) приводит к системе для вектора $\lambda$ вида
- \begin{eqnarray}
- (C_1 B_1^{-1} C_1^T + C_2 B_2^{-1} C_2^T)\lambda = C_1 B_1^{-1}f_1 - C_2 B_2^{-1}f_2
- \label{5-8}
- \end{eqnarray}
- Таким образом, умножение вектора на $S_D\equiv C_1 B_1^{-1} C_1^T + C_2 B_2^{-1} C_2^T$ требует решения двух краевых задач с условием Неймана на интерфейсе $(B_i^{-1})$. Учитывая вид матриц $C_i^T\:=\:(0\:C_{i\Gamma}^T)$, перепишем матрицу $S_D$ следующим образом:
- \begin{align*}
- S_D=C_{1\Gamma}S_1^{-1}C_{1\Gamma}^T + C_{2\Gamma}S_2^{-1}C_{2\Gamma}^T
- \end{align*}
- где $S_i^{-1}$ ~--- интерфейсный блок матрицы $B_i^{-1}$, для которого верно
- \begin{align*}
- S_i = A_{\Gamma}^{(i)} - A_{\Gamma i} A_{ii}^{-1} A_{i \Gamma}, \:\: i=1,2.
- \end{align*}
- По аналогии с переобуславливателем Нейман-Нейман, выпишем переобуславливатель для $S_D$:
- \begin{align*}
- S_F=C_{1\Gamma}S_1 C_{1\Gamma}^T + C_{2\Gamma} S_2 C_{2\Gamma}^T,
- \end{align*}
- называемый переобуславливателем Дирихле-Дирихле по типу краевых задач $A_{ii}^{-1}$, которые необходимо решить при его реализации. Переобусловленная система на интерфейсе (\ref{5-8}) записывается так:
- \begin{align*}
- S_F S_D \lambda = S_F (C_1 B_1^{-1} f_1 - C_2 B_2^{-1} f_2).
- \end{align*}
- По аналогии с методом Нейман-Нейман, метод итераций Дирихле-Дирихле допускает обобщение на случай многих подобластей
- \newpage
- \section{Метод Шварца}
- Рассмотрим разбиение области $\Omega$ на $m$ перекрывающихся подобластей
- \begin{align*}
- \Omega=\bigcup\limits_{i=1}^m \Omega_i
- \end{align*}
- таких, что для любой $\Omega_i,\: i=1,\dots,m$ существует хотя бы одна подобласть $\Omega_i,\:j \not= i$, для которой $\Omega_i \cup \Omega_j \not= \varnothing $ (подобласть—открытое множество).\par
- Для решения краевой задачи (\ref{1-1}) применим метод Шварца (1869). Пусть приближение $u^n$ к решению (\ref{1-1}) $u$ на $n$-м шаге задано. Следующее приближение $u^{n+1}$ находится после применения т подшагов вида
- \begin{eqnarray}
- \begin{split}
- -\triangle u^{n+\frac{i}{m}} &= f \:\mbox{на} \: \Omega_i\\
- u^{n+\frac{i}{m}} &= u^{n+\frac{i-1}{m}}\: \mbox{на}\: \bar\Omega \setminus \Omega_i,\:\:\: i=1,\dots,m
- \end{split}
- \label{8-1}
- \end{eqnarray}
- Метод Шварца можно сформулировать в терминах слабых постановок. Определим пространства $V_i^0=H_0^1(\Omega_i)\subset V,\:i=1,\dots,m$. Для нахождения решения обобщенной задачи (\ref{1-4}) введем поправку
- \begin{align*}
- z_i=u^{n+\frac{i}{m}} - u^{n+\frac{i-1}{m}} \:\in V_i^0
- \end{align*}
- к текущему приближению на $i$-м подшаге и применим итерации
- найти $z_i$:
- \begin{eqnarray}
- \begin{split}
- a(z_i,v) &= (f,v)-a(u^{n+\frac{i-1}{m}},v),\:\: \forall v \in V_i^0\\
- u^{n+\frac{i}{m}} &= u^{n+\frac{i-1}{m}} + z_i,\:\: i=1,\dots,m.
- \end{split}
- \label{8-2}
- \end{eqnarray}
- Для обоснования сходимости метода Шварца введем в пространстве $V$ ортопроекторы $R_i: V \rightarrow V_i^0$
- \begin{align*}
- a(R_i u,v)=a(u,v) \qquad \forall v \in V_i^0
- \end{align*}
- и определим проектор $Q_i=I-R_i$, для которого
- \begin{align*}
- a(Q_i u,v)=0 \qquad \forall v \in V_i^0
- \end{align*}
- Следовательно,
- \begin{align*}
- (f,v)=a(u,v)=a(Q_i u,v) + a(R_i u,v)=a(R_i u,v)\:\: \forall v \in V_i^0,
- \end{align*}
- и из (\ref{8-2}) имеем
- \begin{eqnarray}
- a(z_i,v)=a(R_i u ,v) - a(u^{n+\frac{i-1}{m}},v)\:\:\: \forall v \in V_i^0
- \label{8-3}
- \end{eqnarray}
- Для произвольного $\omega \in V$ выберем $v=R_i \omega \in V_i^0$, тогда \\ $a(R_i u,V)=a(R_i u,R_i \omega)=a(R_i R_i u, \omega)=a(R_i u, \omega)$ и
- \begin{align*}
- a(R_i z_i,\omega) &= a(R_I u,\omega)-a(R_i u^{n\frac{i-1}{m}},\omega)\:\:\: \forall \omega \in V \\
- &z_i=R_i z_i =R_i u - R_i u^{n+\frac{i-1}{m}},
- \end{align*}
- поэтому
- \begin{eqnarray}
- u^{n+\frac{i}{m}}=u^{n+\frac{i-1}{m}}+z_i=(R_i+Q_i)u^{n+\frac{i-1}{m}} + z_i = Q_i u^{n+\frac{i-1}{m}}+R_i u.
- \label{8-4}
- \end{eqnarray}
- Введем ошибку на текущем подшаге
- \begin{align*}
- \varepsilon^{n+\frac{i}{m}}=u^{n+\frac{i}{m}}-u
- \end{align*}
- Из (\ref{8-4}) для ошибки получаем
- \begin{align*}
- \varepsilon^{n+\frac{i}{m}}=Q_i(u^{n+\frac{i-1}{m}} - u) + R_i u - R_i u = Q_i \varepsilon^{n+\frac{i-1}{m}}
- \end{align*}
- Таким образом, ошибки метода Шварца связаны соотношением
- \begin{eqnarray}
- \varepsilon^{n+1}=T \varepsilon^n,\:\:\: T=Q_m Q_{m-1} \dots Q_1
- \label{8-5}
- \end{eqnarray}
- Сходимость метода Шварца обеспечивается оценкой нормы оператора перехода $\|T\|$. Обозначим $|[u]| =a(u,u)^{\frac{1}{2}} $.\\
- {\bf Теорема 8.1.} {\em Рассмотрим следующие два утверждения:\\ $1)$ Для любого $v \in V$ существует такие $v_i \in V_i^0,\: i=1,\dots,m$, что}
- \begin{eqnarray}
- v=v_1+v_2+\dots+v_m,\label{8-6}\\
- |[v_i]|\le \gamma |[v]| \label{8-7}
- \end{eqnarray}
- {\em с некоторой константой} $\gamma$.
- $2)${\em Для нормы оператора перехода имеет место оценка}
- \begin{eqnarray}
- \|T\| \le a<1. \label{8-8}
- \end{eqnarray}
- {\em Утверждение $1)$ влечет $2)$ с некоторой константой $q$, вообще говоря, зависящей от $m$, $\gamma$; утверждение $2)$ влечет $1) c \gamma = (1-q)^{-1}.$ \\
- Доказательство}. Пусть выполнено (\ref{8-6}). Тогда
- \begin{align*}
- I-T &= Q_1 + R_1 - Q_m \cdots Q_1 = R_1+(R_2 + Q_2)Q_1 - Q_m \cdots Q_1\\
- &= R_1+R_2 Q_1 + (R_3+Q_3) Q_2 Q_1 - Q_m \cdots Q_1 \\
- &= R_1 + R_2 Q_1 + R_3 Q_2 Q_1 + \cdots + R_m Q_{m-1} \cdots Q_1.
- \end{align*}
- Поскольку $\|T\|<1$, то $\|(I-T)^{-1}\|\le (1-\|T\|)^{-1}$, т.е. оператор $I-T$ имеет обратный, и
- \begin{align*}
- v &= (I-T)(I-T)^{-1} v \\
- &= (R_1+ R_2 Q_1 + \cdots + R_m Q_{m-1} \cdots Q_1)(I-T)^{-1}\:\:\: v= v_1 + \cdots v_m,
- \end{align*}
- где
- \begin{align*}
- v_i=R_i Q_{i-1} \cdots Q_1(I-T)^{-1} \:\:\: v \in V_i^0,\:\:\: i=1,\dots,m
- \end{align*}
- Далее, поскольку $\|R_i\|=\|Q_i\|=1$, то
- \begin{align*}
- |[v_i]|\le \|(I-T)^{-1}\| |[v]| \le (1-\|T\|)^{-1} |[v]|=\gamma |[v]|.
- \end{align*}
- Теперь предположим, что выполнены $(6.6-6.7)$. Сперва рассмотрим оператор $R=\sum\limits_{i=1}^m R_i$. Так как все $R_i$ являются проекторами, то оператор $R$ самосопряжен в $V$ и $\|R\| \le m$. Более того,
- \begin{align*}
- |[u]| &= \sup\limits_{v \not= 0} \frac{|a(u,v)|}{|[v]|}=\sup\limits_{v \not= 0} \frac{|a(u,v_1 + \cdots + v_m)|}{|[v]|} \le \sup\limits_{v \not= 0} \sum\limits_{i=1}^m \frac{|a(u,v_i)|}{|[v]|} \\
- &= \sup\limits_{v \not= 0} \sum\limits_{i=1}^m \frac{|a R_i u, v_i)|}{|[v]|} \le \sup\limits_{v \not= 0} \sum\limits_{i=1}^m \frac{|[R_i u]| |[v_i]|}{|[v]|} \le \gamma \sum\limits_{i=1}^m |[R_i u]|\\
- &\le \gamma \sqrt{\,m} (\sum\limits_{i=1}^m a(R_i u,R_i u))^{\frac{1}{2}} = \gamma \sqrt{\,m}(\sum\limits_{i=1}^m a(R_i u,u))^{\frac{1}{2}} \\
- &= \gamma \sqrt{\,m}\: a(R u , u)^{\frac{1}{2}}.
- \end{align*}
- Следовательно,
- \begin{align*}
- a(R u, u) \ge \frac{1}{m \gamma^2} a(u,u),
- \end{align*}
- и оператор $R$ осуществляет взаимно однозначное отображение $V$ на $V$ и имеет ограниченный обратный
- \begin{align*}
- \|R^{-1}\| \le m \gamma^2
- \end{align*}
- Докажем (\ref{8-8}) от противного, что $\|T\|<1$. Пусть $\|T\|=1$, т.е. для любого $\varepsilon >0$ существует такое $v_{\varepsilon} \in V$, что $|[v_{\varepsilon}]|=1,|[T v_{\varepsilon}]|^2 \ge 1-\varepsilon$. Тогда
- \begin{align*}
- 1-\varepsilon \le |[T v_{\varepsilon}]|^2 =|[Q_m \cdots Q_2 Q_1 v_{\varepsilon}]|^2 \le \|Q_m \cdots Q_2 \| \cdot |[Q_1 v_{\varepsilon}]| \le |[Q_1 v_{\varepsilon}]|^2
- \end{align*}
- и в силу $|[R_1 v_{\varepsilon}]|^2 + |[Q_1 v_{\varepsilon}]|^2=1$ имеем
- \begin{align*}
- |[R_1 v_{\varepsilon}]|^2 \le \varepsilon \equiv \varepsilon_1
- \end{align*}
- Оценим $|[R_i v_{\varepsilon}]|^2$. Поскольку $T=Q_m \cdots Q_2(I-R_1)$, то
- \begin{align*}
- |[Q_m \cdots Q_2 v_{\varepsilon} ]|^2 \ge |[T v_{\varepsilon}]|^2 - |[Q_m \cdots Q_2 R_1 v_{\varepsilon}]|^2 \ge \sqrt{\,1-\varepsilon_1}\: - \sqrt{\,\varepsilon_1}=\sqrt{\,1-\varepsilon_2}
- \end{align*}
- где $\varepsilon_2=1-(\sqrt{\,1-\varepsilon_1}-\sqrt{\,\varepsilon_1})^2$. Таким образом,
- \begin{align*}
- 1 - \varepsilon_2 \le |[Q_m \cdots Q_3 Q_2 v_{\varepsilon}]|^2 \le |[Q_2 v_{\varepsilon}]|^2,
- \end{align*}
- и в силу равенства $R_2 = I - Q_2$ имеет место оценка
- \begin{align*}
- |[R_2 v_{\varepsilon}]|^2 \le \varepsilon_2.
- \end{align*}
- Аналогично показываем, что для $i=3,\dots,m$
- \begin{align*}
- |[Q_i v_{\varepsilon}]|^2 \ge 1 - \varepsilon_i,\:\:\: |[R_i v_{\varepsilon}]|^2 \le \varepsilon_i,\:\:\: \varepsilon_i = 1- (\sqrt{\,1-\varepsilon_{i-1}} - \sqrt{\, \varepsilon_{i-1}})^2.
- \end{align*}
- Очевидно, что при $\varepsilon \rightarrow 0$ имеем $\varepsilon_i \rightarrow 0,\:\:i=2,\dots,m$ \\
- Теперь воспользуемся тем, что $R$ обратим и $R^{-1}$ ограничен:
- \begin{align*}
- 1=|[v_{\varepsilon}]|=|[R^{-1} R v_{\varepsilon}]|\le \|R^{-1}\| \sum\limits_{i=1}^m |[R_i v_{\varepsilon}]| \le \|R^{-1}\|\sum\limits_{i=1}^m \sqrt{\,\varepsilon_i} \le m \gamma^2 \sum\limits_{i=1}^m \sqrt{\,\varepsilon_i}.
- \end{align*}
- Получили противоречие для достаточно малого $\varepsilon >0$.\\[0.5cm]
- \subsection{Алгебраическая формулировка метода Шварца}
- Пусть разбиение области $\Omega =\bigcup\limits_{i=1}^m \Omega_i$ и ее триангуляция $\Omega^h $ таковы, что границы $\partial \Omega_i$ проходят по ребрам $\Omega^h$. Заменим $V,V_i$ на их конечно-элементные аналоги $U^h,U_i^h$ размерности $n,n_i,$ где $n(n_i)$ ~--- количество внутренних узлов в $\Omega^h\:\:(\Omega_i^h)$, и зададим операторы сужения $r_i^h : U^h \rightarrow U_i^h$
- \begin{align*}
- r_i^h u^h (x_k) = u^h (x_k)
- \end{align*}
- во всех внутренних узлах $x_k$ триангуляции $\Omega_i^h$.\par
- Матричное представление оператора сужения есть прямоугольная $n_i \times n $ матрица $R_i$, состоящая из нулей и единиц, в каждом столбце которой не более одной единицы. С помощью матрицы $R_i$ зададим \\$n_i \times n_i$--матрицу $A_i$ как сужение матрицы $A$ системы $Au=f$ на подобласти $\Omega_i$ :
- \begin{align*}
- A_i = R_i A R_i^T
- \end{align*} \par
- Алгебраический вариант метода Шварца для решения системы \\$ Au=f$ представляет собой итерационный процесс с $m$ подшагами для нахождения очередного приближения $u^{n+1}$, если задано текущее приближение $u^n$:
- \begin{eqnarray}
- \begin{split}
- A_i z_i &= R_i (f-A u^{n+\frac{i-1}{m}})\\
- u^{n+\frac{i-1}{m}} &= u^{n+\frac{i-1}{m}} + R_i^T z_i,\qquad i=1,\dots,m
- \end{split}
- \label{8-9}
- \end{eqnarray} \par
- Для ошибки итерационного приближения на подшаге $e^{n+\frac{i}{m}}=u^{n+\frac{i}{m}} - u$ верно уравнение
- \begin{align*}
- e^{n+\frac{i}{m}}=e^{n+\frac{i-1}{m}}-R_i^T A_i^{-1} R_i A e^{n+\frac{i-1}{m}} = (I-P_i)e^{n+\frac{i-1}{m}},
- \end{align*}
- где матрица $P_i=I-R_i^T A_i^{-1} R_i$ ~--- проектор:
- \begin{align*}
- P_i^2 = (R_i^T A_i^{-1} R_i A)^2 = R_i^T A_i^{-1} R_i A R_i^T A_i^{-1} R_i A = R_i^T A_i^{-1} A_i A_i^{-1} R_i A = P_i
- \end{align*} \par
- Таким образом, оператор перехода, связывающий $e^n$ и $e^{n+1}$, соответствует мультипликативному методу:
- \begin{eqnarray}
- e^{n+1} = (I-P_m) \cdots (I-P_1)e^n.
- \label{8-10}
- \end{eqnarray} \par
- Перепишем (\ref{8-10}), используя определение ошибки $e^n$ и обозначение\\ $T = (I-P_m) \cdots (I-P_1)$:
- \begin{align*}
- &u^{n+1} - u = T(u^n-u),\\
- &u^{n+1}= u^n+(I-T)u - (I-T)u^n=u^n +(I-T)A^{-1} f - (I-T)u^n.
- \end{align*}
- Поэтому метод Шварца есть метод простой итерации для системы
- \begin{align*}
- (I-T)u=(I-T)A^{-1}f
- \end{align*}
- \newpage
- \subsection{Аддитивный метод Шварца}
- Аддитивная версия метода Шварца отличается от вышерассмотренной мультипликативной (\ref{8-9}) суммированием вкладов подобластей
- \begin{eqnarray}
- \begin{split}
- A_i z_i &= R_i ( f- A u^n),\qquad i=1,\dots,m, \\
- u^{n+1} &= u^n + \sum\limits_{i=1}^m R_i^T z_i.
- \end{split}
- \label{8-11}
- \end{eqnarray}\par
- Ошибки аддитивного метода связаны уравнением
- \begin{eqnarray}
- e^{n+1} = e^n - \sum\limits_{i=1}^m R_i^T A_i^{-1} R_i A e^n = (I-\sum\limits_{i=1}^m P_i)e^n.
- \label{8-12}
- \end{eqnarray}\par
- Таким образом, аддитивный метод Шварца можно интерпретировать, как метод простой итерации для решения системы $Au=f$ с
- переобуславливателем $B=(\sum\limits_{i=1}^m P_i)$.\par
- Привлекательность аддитивного метода Шварца заключается в его параллельной структуре: подзадачи решаются независимо, по окончании каждой итерации необходимо обменяться данными с границ подобластей $\Omega_i$. Перекрывающиеся подобласти удобно строить расширением неперекрывающихся подобластей $\hat\Omega_i$, на которые область $\Omega$ разбита изначально.\par
- Заметим, что матрично-векторную версию мультипликативного или аддитивного метода Шварца можно рассмотреть как метод последовательной или параллельной коррекции на подпространствах.
- \subsection{Связь с классическими итерационными методами}
- Рассмотрим случай минимального перекрытия между двумя триангуляциями $\Omega_1^h,\Omega_2^h$, когда любой узел из $\Omega_1^h \cap \Omega_2^h$ принадлежит либо $\partial \Omega_1$, либо $\partial \Omega_2$. Предположим, что сперва перенумерованы внутренние узлы $\Omega_1^h$, а затем~--- внутренние узлы $\Omega_2^h$. В этом случае для матриц $A,R_1,R_2$ верно представление
- \begin{align*}
- A=\begin{pmatrix} A_{11} & A_{12} \\ A_{21} & A_{22} \end{pmatrix},\:\:\: R_1=(I_1 \:\: 0),\:\:\:R_2=(0\:\:I_2).
- \end{align*} \par
- Одна итерация аддитивного метода Шварца записывается в виде
- \begin{align*}
- u^{n+1} &= u^n + R_1^T A_{11}^{-1} R_1 (f-A u^n) + R_2^T A_22^{-1} R_2 (f-A u^n)\\
- &= u^n + \begin{pmatrix} A_{11} & 0 \\ 0 & A_{22} \end{pmatrix}^{-1} \:\: (f-A u^n),
- \end{align*}
- т.е. представляет собой одну итерацию блочного метода Якоби.\par
- Одна итерация мультипликативного метода Шварца записывается в виде
- \begin{align*}
- \begin{cases}
- u^{n+\frac{1}{2}} &= u^n + R_1^T A_{11}^{-1} R_1 (f - A u^n) \\[0.2cm]
- u^{n+1} &= u^{n+\frac{1}{2}} + R_2^T A_{22}^{-1} R_2 (f- A u^{n+\frac{1}{2}})
- \end{cases}
- \end{align*}
- или
- \begin{align*}
- u^{n+1} = u^n + \begin{pmatrix} A_{11} & 0 \\ A_{12} & A_{22} \end{pmatrix}^{-1} \:\:\: (f-A u^n),
- \end{align*}
- т.е. представляет собой одну итерацию блочного метода Гаусса - Зейделя.
- \subsection{Метод Шварца для сингулярно возмущенных операторов}
- Как уже было отмечено, скорость сходимости итераций (\ref{8-1}) зависит от ширины полосы налегания подобластей $d$: чем меньше перекрытие, тем ближе $\|T\|$ к единице и хуже скорость сходимости. Это замечание верно для задачи (\ref{1-1}) и других эллиптических уравнений. Если перекрытие большое, то большая часть неизвестных входит в решение двух или нескольких подзадач, что ухудшает параллельные свойства аддитивного метода Шварца.\par
- При решении некоторых уравнений с сингулярно возмущенными операторами диффузии отпадает необходимость в больших перекрытиях, что открывает возможности построения эффективных параллельных алгоритмов.\par
- Например, при дискретизации на фиксированной сетке уравнения диффузии-реакции $-\tau \triangle +I$ с малым параметром $\tau > 0$ (типичном при неявных дискретизациях параболических уравнений) норма оператора перехода (\ref{8-12}) стремится к $q < 1$ при $\tau \rightarrow 0$. Более того, для любого $\varepsilon > 0$, при разбиении области на множество регулярных подобластей с таким налеганием, что справедлива оценка
- \begin{align*}
- d> C \sqrt{\,\tau}\left(\ln \frac{\varepsilon h^2}{\tau}\right)^{-1}
- \end{align*}
- одна итерация аддитивного метода Шварца обеспечивает приближение к точному решению системы с точностью $\varepsilon$. Это наблюдение позволяет заменить неявную схему для простейшего уравнения теплопроводности
- \begin{align*}
- (-\tau \triangle + I) u^{n+1} = \tau f + u^n \:\: \mbox{в} \:\: \Omega, \:\: u^{n+1} = 0 \:\: \mbox{на} \:\: \partial \Omega
- \end{align*}
- набором независимых задач в подобластях $\Omega_i$ полученных расширением\\8 $\hat\Omega_i,\: i=1,\dots,m$:
- \begin{align*}
- (-\tau \triangle + I)\hat u_i = \tau f + u^n \:\:\mbox{в} \: \Omega_i,\:\:\: \hat u_i=0\:\: \mbox{на}\:\: \partial \Omega_i,
- \end{align*}
- и заданием
- \begin{align*}
- u^{n+1}|_{\hat \Omega_i}=\hat u_i|_{\hat \Omega_i}
- \end{align*}
- При решении уравнения с оператором конвекции-диффузии $-\tau \triangle + (\vec b \nabla)$ с малым параметром $\tau > 0$ скорость мультипликативного метода Шварца остается высокой даже при минимальном перекрытии между подобластями, если направление перебора подобластей $\Omega_i,\:i=1,\dots,m$ совпадает с вектором конвективного переноса $\vec b$ или ортогонально ему.
- \newpage
- \section{Описание тестового примера}
- \subsection{Прямой метод}
- 1. Находим решение на подобластях например матричной прогонки.
- \begin{center} Решение на большой области :\end{center}
- \begin{align*}
- \begin{bmatrix}
- 18.21 & 28.41 & 33.71 & 35.35 & 33.71 & 28.41 & 18.21\\
- 28.41 & 45.74 & 55.06 & 58.00 & 55.06 & 45.74 & 28.41\\
- 33.71 & 55.06 & 66.79 & 70.53 & 66.79 & 55.06 & 33.71\\
- 35.35 & 58.00 & 70.53 & 74.53 & 70.53 & 58.00 & 35.35\\
- 33.71 & 55.06 & 66.79 & 70.53 & 66.79 & 55.06 & 33.71\\
- 28.41 & 45.74 & 55.06 & 58.00 & 55.06 & 45.74 & 28.41\\
- 18.21 & 28.41 & 33.71 & 35.35 & 33.71 & 28.41 & 18.21
- \end{bmatrix}
- \end{align*}
- \begin{center} Решение на меньшей области:\end{center}
- \begin{align*}
- \begin{bmatrix}
- 11.00 & 14.00 & 11.00\\
- 14.00 & 18.00 & 14.00\\
- 11.00 & 14.00 & 11.00
- \end{bmatrix}
- \end{align*}
- 2. Невязка на линии сцепления:
- \begin{align*}
- f=\begin{bmatrix}
- 60.705550\\
- 58.411626\\
- 45.206164
- \end{bmatrix}
- \end{align*}
- 3. Вычисляем дополнение Шура
- \begin{align*}
- A_{33}=\begin{bmatrix}
- 4 & -1 & 0\\
- -1 & 4 &-1\\
- 0 & -1 & 4
- \end{bmatrix}
- \end{align*}
- \begin{align*}
- A^T_{13} A^{-1}_{11} A_{13}=\begin{bmatrix}
- 0.299107 & 0.098214 & 0.031250\\
- 0.098214 & 0.330357 & 0.098214\\
- 0.031250 & 0.098214 & 0.299107
- \end{bmatrix}
- \end{align*}
- \begin{align*}
- A^T_{23} A^{-1}_{22} A_{23}=\begin{bmatrix}
- 0.352908 & 0.123065 & 0.041495\\
- 0.123065 & 0.343653 & 0.104317\\
- 0.041495 & 0.104317 & 0.302159
- \end{bmatrix}
- \end{align*}
- 4. Получаем следующее доплнение Шура:
- \begin{align*}
- S=A_{33}-A^T_{13} A^{-1}_{11} A_{13}-A^T_{23} A^{-1}_{22} A_{23}=\begin{bmatrix}
- 3.347985 &-1.221280 &-0.072745\\
- -1.221280 &3.325990 &-1.202531\\
- -0.072745 &-1.202531 &3.398734
- \end{bmatrix}
- \end{align*}
- 5.Решение на линии сцепления:
- \begin{align*}
- \begin{split}
- &SU=f\\[0.3cm]
- &U=\begin{bmatrix}
- 33.328494\\
- 39.981758\\
- 28.160384
- \end{bmatrix}
- \end{split}
- \end{align*}
- 6. Решение на подобластях с учетом найденного решения на линии сцепления:
- \begin{center} Решение на большой области:\end{center}
- \begin{align*}
- \begin{bmatrix}
- 18.39 & 28.79 & 34.28 & 36.11 & 34.58 & 29.25 & 18.76\\
- 28.77 & 46.48 & 56.21 & 59.57 & 56.96 & 47.67 & 29.77\\
- 34.22 & 56.14 & 68.53 & 73.01 & 70.01 & 58.70 & 36.66\\
- 35.97 & 59.33 & 72.75 & 77.91 & 75.39 & 64.45 & 42.17\\
- 34.34 & 56.45 & 69.22 & 74.50 & 73.20 & 65.54 & 51.56\\
- 28.94 & 46.92 & 57.19 & 61.66 & 61.37 & 56.96 & 49.19\\
- 18.51 & 29.10 & 34.97 & 37.57 & 37.67 & 35.72 & 32.27
- \end{bmatrix}
- \end{align*}\\
- \begin{center} Решение на меньшей области:\end{center}
- \begin{align*}
- \begin{bmatrix}
- 25.78 & 20.53 & 13.49\\
- 33.25 & 26.84 & 17.43\\
- 24.39 & 20.16 & 13.40
- \end{bmatrix}
- \end{align*}
- \begin{center} Решение задачи:\end{center}
- \setcounter{MaxMatrixCols}{20}
- \begin{align*}
- \begin{bmatrix}
- 18.39 & 28.79 & 34.28 & 36.11 & 34.58 & 29.25 & 18.76 \\
- 28.77 & 46.48 & 56.21 & 59.57 & 56.96 & 47.67 & 29.77 \\
- 34.22 & 56.14 & 68.53 & 73.01 & 70.01 & 58.70 & 36.66 \\
- 35.97 & 59.33 & 72.75 & 77.91 & 75.39 & 64.45 & 42.17 \\
- 34.34 & 56.45 & 69.22 & 74.50 & 73.20 & 65.54 & 51.56 & 33.33 & 25.78 & 20.53 & 13.49\\
- 28.94 & 46.92 & 57.19 & 61.66 & 61.37 & 56.96 & 49.19 & 39.98 & 33.25 & 26.84 & 17.43\\
- 18.51 & 29.10 & 34.97 & 37.57 & 37.67 & 35.72 & 32.27 & 28.16 & 24.39 & 20.16 & 13.40
- \end{bmatrix}\notag
- \end{align*}
- \subsection{Метод сопряженных градиентов}
- 1. Находим решение на подобластях с помощью метода сопряженных градиентов.
- \begin{center} Решение на большой области :\end{center}
- \begin{align*}
- \begin{bmatrix}
- 18.21 & 28.41 & 33.71 & 35.35 & 33.71 & 28.41 & 18.21\\
- 28.41 & 45.74 & 55.06 & 58.00 & 55.06 & 45.74 & 28.41\\
- 33.71 & 55.06 & 66.79 & 70.53 & 66.79 & 55.06 & 33.71\\
- 35.35 & 58.00 & 70.53 & 74.53 & 70.53 & 58.00 & 35.35\\
- 33.71 & 55.06 & 66.79 & 70.53 & 66.79 & 55.06 & 33.71\\
- 28.41 & 45.74 & 55.06 & 58.00 & 55.06 & 45.74 & 28.41\\
- 18.21 & 28.41 & 33.71 & 35.35 & 33.71 & 28.41 & 18.21
- \end{bmatrix}
- \end{align*}
- \begin{center} Решение на меньшей области:\end{center}
- \begin{align*}
- \begin{bmatrix}
- 11.00 & 14.00 & 11.00\\
- 14.00 & 18.00 & 14.00\\
- 11.00 & 14.00 & 11.00
- \end{bmatrix}
- \end{align*}
- 2. Невязка на линии сцепления:
- \begin{align*}
- \begin{bmatrix}
- 60.705550\\
- 58.411626\\
- 45.206164
- \end{bmatrix}
- \end{align*}
- 3. Дальше находим $a_m=A p_m $ и $\lambda_{opt}(x_m,p_m)$.
- Сначала мы решаем задачу в большой и меньшей области,где в правой части рядом с линией сцепления стоят значения вектора $p_m$, вначале он равен нашей невязке, а в остальных нули. После того как мы нашли решения, мы находим вектор $a_m$ по формуле:
- \begin{align*}
- \begin{split}
- a_m&=A_{33}\cdot p_m-y_{11}-y_{12},\\[0.3cm]
- a_1&=\begin{bmatrix}
- 128.61584\\
- 65.77612\\
- 78.98604
- \end{bmatrix}
- \end{split}
- \end{align*}
- где $y_{11}$ и $y_{12}$ вектора решения задачи.
- Когда мы нашли $a_m$,теперь есть все чтобы вычислить $\lambda_{opt}(x_m,p_m)$ по формуле:
- \begin{align*}
- \begin{split}
- \lambda_{opt}(x_m,p_m)&=\frac{(r_m , p_m)}{(a_m , p_m)},\\[0.3cm]
- \mbox{ получается начальная } \lambda_{opt}&=0.60055
- \end{split}
- \end{align*}
- 4. Дальше мы вычисляем приближение с помощью методом сопряженных градиентовc предобуславливателем в виде метода симметричной верхней релаксации, условие выхода берем отношение начальной невязки к следующей и когда отношение будет меньше $eps$ выходим.
- \begin{center}Алгоритм:\end{center}
- -Вычисляем следующее приближение
- \begin{align*}
- \begin{split}
- x_{m+1}&=x_m+\lambda_{opt}(x_m,p_m)\cdot p_m \\[0.3cm]
- x_{1}&=\begin{bmatrix}
- 36.456890\\
- 35.079268\\
- 27.148690
- \end{bmatrix}
- \end{split}
- \end{align*}
- -Вычисляем вектор невязки
- \begin{align*}
- \begin{split}
- r_{m+1}&=r_m - \lambda_{opt}(x_m,p_m)\cdot a_m\\[0.3cm]
- r_{1}&=\begin{bmatrix}
- -16.535058\\
- 18.909592\\
- -2.229126
- \end{bmatrix}
- \end{split}
- \end{align*}
- -Находим вектор
- \begin{align*}
- \begin{split}
- p_{m+1}&=r_{m+1}-\frac{(r_{m+1},a_m)}{(a_m,p_m)} p_m\\[0.3cm]
- p_{1}&=\begin{bmatrix}
- -12.311555\\
- 22.973498\\
- 0.916028
- \end{bmatrix}
- \end{split}
- \end{align*}
- И находим ответ при наших размерах областей за 3 итерации.
- \begin{center} 2 итерация :\end{center}
- \begin{align*}
- %\begin{gather}
- \begin{split}
- a_2=\begin{bmatrix}
- -69.34261\\
- 90.34391\\
- -23.61741
- \end{bmatrix}\qquad
- \lambda_{opt}=0.21872 \qquad \qquad
- x_{2}=\begin{bmatrix}
- 33.764106\\
- 40.104033\\
- 27.349044
- \end{bmatrix}\notag \\[0.8cm]
- r_{2}=\begin{bmatrix}
- -1.368436\\
- -0.850435\\
- 2.936475
- \end{bmatrix}\:\:
- \frac{(r_{2},a_2)}{(a_2,p_1)}=-0.01764091 \qquad
- p_{2}=\begin{bmatrix}
- -1.585623\\
- -0.445162\\
- 2.952635
- \end{bmatrix}\notag
- \end{split}
- \end{align*}\\
- %\end{gather}\\
- \begin{center} 3 итерация :\end{center}
- \begin{align*}
- %\begin{gather}
- \begin{split}
- a_3=\begin{bmatrix}
- -4.97974\\
- -3.09474\\
- 10.68588
- \end{bmatrix}\qquad
- \lambda_{opt}=0.27480\qquad \qquad
- x_{3}=\begin{bmatrix}
- 33.328380\\
- 39.981704\\
- 28.160426
- \end{bmatrix}\notag \\[0.8cm]
- r_{3}=\begin{bmatrix}
- 0.000003\\
- 0.000002\\
- 0.000002
- \end{bmatrix}\:\:
- \frac{(r_{3},a_3)}{(a_3,p_2)}=-0.00000002 \qquad
- p_{3}=\begin{bmatrix}
- 0.000003\\
- 0.000002\\
- 0.000002
- \end{bmatrix}\notag
- \end{split}
- \end{align*}
- \\[0.6cm]
- 5. Решение на подобластях с учетом найденного приближения:
- \begin{center} Решение на большой области:\end{center}
- \begin{align*}
- \begin{bmatrix}
- 18.39 & 28.79 & 34.28 & 36.11 & 34.58 & 29.25 & 18.76\\
- 28.77 & 46.48 & 56.21 & 59.57 & 56.96 & 47.67 & 29.77\\
- 34.22 & 56.14 & 68.53 & 73.01 & 70.01 & 58.70 & 36.66\\
- 35.97 & 59.33 & 72.75 & 77.91 & 75.39 & 64.45 & 42.17\\
- 34.34 & 56.45 & 69.22 & 74.50 & 73.20 & 65.54 & 51.56\\
- 28.94 & 46.92 & 57.19 & 61.66 & 61.37 & 56.96 & 49.19\\
- 18.51 & 29.10 & 34.97 & 37.57 & 37.67 & 35.72 & 32.27
- \end{bmatrix}
- \end{align*}\\
- \begin{center} Решение на меньшей области:\end{center}
- \begin{align*}
- \begin{bmatrix}
- 25.78 & 20.53 & 13.49\\
- 33.25 & 26.84 & 17.43\\
- 24.39 & 20.16 & 13.40
- \end{bmatrix}
- \end{align*}
- \begin{center} Решение задачи:\end{center}
- \setcounter{MaxMatrixCols}{20}
- \begin{align*}
- \begin{bmatrix}
- 18.39 & 28.79 & 34.28 & 36.11 & 34.58 & 29.25 & 18.76 \\
- 28.77 & 46.48 & 56.21 & 59.57 & 56.96 & 47.67 & 29.77 \\
- 34.22 & 56.14 & 68.53 & 73.01 & 70.01 & 58.70 & 36.66 \\
- 35.97 & 59.33 & 72.75 & 77.91 & 75.39 & 64.45 & 42.17 \\
- 34.34 & 56.45 & 69.22 & 74.50 & 73.20 & 65.54 & 51.56 & 33.33 & 25.78 & 20.53 & 13.49\\
- 28.94 & 46.92 & 57.19 & 61.66 & 61.37 & 56.96 & 49.19 & 39.98 & 33.25 & 26.84 & 17.43\\
- 18.51 & 29.10 & 34.97 & 37.57 & 37.67 & 35.72 & 32.27 & 28.16 & 24.39 & 20.16 & 13.40
- \end{bmatrix}\notag
- \end{align*}
- \subsection{Метод Дирихле-Нейман}
- 1. Находим решение на подобластях с помощью метода сопряженных градиентовc предобуславливателем в виде метода симметричной верхней релаксации.
- \begin{center} Решение на большой области :\end{center}
- \begin{align*}
- \begin{bmatrix}
- 18.21 & 28.41 & 33.71 & 35.35 & 33.71 & 28.41 & 18.21\\
- 28.41 & 45.74 & 55.06 & 58.00 & 55.06 & 45.74 & 28.41\\
- 33.71 & 55.06 & 66.79 & 70.53 & 66.79 & 55.06 & 33.71\\
- 35.35 & 58.00 & 70.53 & 74.53 & 70.53 & 58.00 & 35.35\\
- 33.71 & 55.06 & 66.79 & 70.53 & 66.79 & 55.06 & 33.71\\
- 28.41 & 45.74 & 55.06 & 58.00 & 55.06 & 45.74 & 28.41\\
- 18.21 & 28.41 & 33.71 & 35.35 & 33.71 & 28.41 & 18.21
- \end{bmatrix}
- \end{align*}
- \begin{center} Решение на меньшей области:\end{center}
- \begin{align*}
- \begin{bmatrix}
- 11.00 & 14.00 & 11.00\\
- 14.00 & 18.00 & 14.00\\
- 11.00 & 14.00 & 11.00
- \end{bmatrix}
- \end{align*}
- 2. Невязка на линии сцепления:
- \begin{align*}
- \begin{bmatrix}
- 60.705550\\
- 58.411626\\
- 45.206164
- \end{bmatrix}
- \end{align*}
- 3. Дальше мы решаем уравнение Пуассона, в узлах на лиции сцепления решаем по условию Неймана:
- \begin{align*}
- 2U_{ij}-\frac{1}{2}U_{i-1,j}-\frac{1}{2}U_{i+1,j}-U_{i,j+1}=(r-SY^{-})_{ij}
- \end{align*}
- А на в остльных узлах мы решаем с условием Дирихле.
- Задаем матрицу, где первый столбец будет равен нашей невязке, а остальные элементы равны нули и решаем по условию Неймана. Первый столбец решения будет равняться поправке $p_0=W^{-1}r_0$, и теперь мы можем вычислить величину $\varrho_0=(p_0,r_0)$\\
- \begin{align*}
- p_0=\begin{bmatrix}
- 64.0113\\
- 77.6476\\
- 55.0629
- \end{bmatrix}\quad
- \varrho_0=10910.6
- \end{align*}
- 4. Дальше решаем задачу в большой и меньшей области,где в правой части рядом с линией сцепления стоят значения вектора $p_m$, а в остальных нули. После того как мы нашли решения, мы находим вектор $a_m$ по формуле:
- \begin{align*}
- a_m&=A_{33}\cdot p_m-y_{11}-y_{12},\\[0.3cm]
- a_1&=\begin{bmatrix}
- 115.47406\\
- 113.86441\\
- 89.11418
- \end{bmatrix}
- \end{align*}
- где $y_{11}$ и $y_{12}$ вектора решения задачи. Дальше по алгоритму с помощью
- методом сопряженных градиентов c предобуславливателем в виде метода симметричной верхней релаксации, находим приближение в процедуре Grad2 мы вычисляем приближение с помощью, условие выхода берем отношение начальной невязки к следующей и когда отношение будет меньше eps выходим.
- \begin{center}Алгоритм:\end{center}
- - Находим $\lambda_{opt}(x_m,p_m)$
- \begin{align*}
- \lambda_{opt}(x_m,p_m)&=\frac{\varrho_m}{(a_m,p_m)} \\
- \lambda_{opt}&=0.5161
- \end{align*}
- -Вычисляем следующее приближение
- \begin{align*}
- x_{m+1}&=x_m+\lambda_{opt}(x_m,p_m)\cdot p_m\\
- x_{1}&=\begin{bmatrix}
- 33.03715\\
- 40.07501\\
- 28.41876
- \end{bmatrix}
- \end{align*}
- -Вычисляем вектор невязки
- \begin{align*}
- r_{m+1}&=r_m - \lambda_{opt}(x_m,p_m)\cdot a_m\\
- r_{1}&=\begin{bmatrix}
- 1.10811\\
- -0.3553\\
- -0.7872
- \end{bmatrix}
- \end{align*}
- -Находим новую поправку $q_{m+1}$ и величину $\varrho_{m+1}$
- \begin{align*}
- q_{m+1}&=W^{-1}r_{m+1} \qquad \quad \varrho_{m+1}=(q_{m+1},r_{m+1})\\
- q_{1}&=\begin{bmatrix}
- 0.573822\\
- -0.1936389\\
- -0.52036478
- \end{bmatrix} \quad\: \varrho_{1}=1.11427
- \end{align*}
- -Находим вектор
- \begin{align*}
- p_{m+1}&=q_{m+1}-\frac{\varrho_{m+1}}{\varrho_m} p_m\\
- p_{1}&=\begin{bmatrix}
- 0.58036\\
- -0.18571\\
- -0.51474
- \end{bmatrix}
- \end{align*}
- И находим при наших размерах областей, за 3 итерации.
- \begin{center} 2 итерация :\end{center}
- \begin{gather}
- \begin{split}
- a_2=\begin{bmatrix}
- 2.20728\\
- -0.7074\\
- -1.56837
- \end{bmatrix}
- \lambda_{opt}=0.50199 \:\:
- & x_{2}=\begin{bmatrix}
- 33.3285\\
- 39.9818\\
- 28.1604
- \end{bmatrix}
- r_{2}=\begin{bmatrix}
- 0.00007\\
- -0.00017\\
- 0.000137
- \end{bmatrix}\notag \\[0.8cm]
- q_{2}=\begin{bmatrix}
- 0.000019\\
- -0.00006\\
- 0.000055
- \end{bmatrix} &\varrho_{2}=2 \cdot 10^{-7} \:\:
- p_{2}=\begin{bmatrix}
- 0.00002\\
- -0.00006\\
- 0.000055
- \end{bmatrix}\notag
- \end{split}
- \end{gather}\\
- \begin{center} 3 итерация :\end{center}
- \begin{gather}
- \begin{split}
- a_3=\begin{bmatrix}
- 0.00014\\
- -0.00030\\
- 0.00026
- \end{bmatrix}
- \lambda_{opt}=0.50001 \:\:
- & x_{3}=\begin{bmatrix}
- 33.328497\\
- 39.981746\\
- 28.160392
- \end{bmatrix}
- r_{3}=\begin{bmatrix}
- -0.0000000044\\
- -0.0000000021\\
- -0.0000000009
- \end{bmatrix}\notag \\[0.8cm]
- q_{3}=\begin{bmatrix}
- -0.0000000038\\
- -0.0000000033\\
- -0.0000000018
- \end{bmatrix} &\varrho_{3}=3 \cdot 10^{-12} \:\:
- p_{3}=\begin{bmatrix}
- -0.0000000038\\
- -0.0000000033\\
- -0.0000000018
- \end{bmatrix}\notag
- \end{split}
- \end{gather}\\
- 5. Решение на подобластях с учетом найденного приближения:
- \begin{center} Решение на большой области:\end{center}
- \begin{align*}
- \begin{bmatrix}
- 18.39 & 28.79 & 34.28 & 36.11 & 34.58 & 29.25 & 18.76\\
- 28.77 & 46.48 & 56.21 & 59.57 & 56.96 & 47.67 & 29.77\\
- 34.22 & 56.14 & 68.53 & 73.01 & 70.01 & 58.70 & 36.66\\
- 35.97 & 59.33 & 72.75 & 77.91 & 75.39 & 64.45 & 42.17\\
- 34.34 & 56.45 & 69.22 & 74.50 & 73.20 & 65.54 & 51.56\\
- 28.94 & 46.92 & 57.19 & 61.66 & 61.37 & 56.96 & 49.19\\
- 18.51 & 29.10 & 34.97 & 37.57 & 37.67 & 35.72 & 32.27
- \end{bmatrix}
- \end{align*}\\
- \begin{center} Решение на меньшей области:\end{center}
- \begin{align*}
- \begin{bmatrix}
- 25.78 & 20.53 & 13.49\\
- 33.25 & 26.84 & 17.43\\
- 24.39 & 20.16 & 13.40
- \end{bmatrix}
- \end{align*}
- \begin{center} Решение задачи:\end{center}
- \setcounter{MaxMatrixCols}{20}
- \begin{align*}
- \begin{bmatrix}
- 18.39 & 28.79 & 34.28 & 36.11 & 34.58 & 29.25 & 18.76 \\
- 28.77 & 46.48 & 56.21 & 59.57 & 56.96 & 47.67 & 29.77 \\
- 34.22 & 56.14 & 68.53 & 73.01 & 70.01 & 58.70 & 36.66 \\
- 35.97 & 59.33 & 72.75 & 77.91 & 75.39 & 64.45 & 42.17 \\
- 34.34 & 56.45 & 69.22 & 74.50 & 73.20 & 65.54 & 51.56 & 33.33 & 25.78 & 20.53 & 13.49\\
- 28.94 & 46.92 & 57.19 & 61.66 & 61.37 & 56.96 & 49.19 & 39.98 & 33.25 & 26.84 & 17.43\\
- 18.51 & 29.10 & 34.97 & 37.57 & 37.67 & 35.72 & 32.27 & 28.16 & 24.39 & 20.16 & 13.40
- \end{bmatrix}\notag
- \end{align*}
- \newpage
- \section*{Заключение}
- \addcontentsline{toc}{section}{Заключение}
- В выпускной квалификационной работе были изучены и описаны методы декомпозиции, которые выделяются эффективностью решения задач в областях специального вида. После анализа всех методов можно установить, что прямой метод является очень трудоемким, так как в нем лишь для построения матрицы S нам надо решить в большой области и потом в малой, столько раз сколько узлов на линии сцепления и после этого надо решить задачу с полной матрицей размерностью равной размерностью интерфейса. Это требует довольно много времени, поэтому лучше использовать итерационные методы,
- которые будут решать значительно быстрее. За то время пока в прямом методе находится матрица S,
- в итерационных методах за это время решается сама задача, так как им не требуется обращать саму матрицу S, а просто вычисляют результат этой матрицы к вектору.
- Была реализована модельная задача L-образной области в программной среде Delphi, решающие уравнение Пуассона, с различными граничными условиями Дирихле и Неймана. После реализации была проведена сравнительная оценка методов по устойчивости и количеству итераций
- Вы не решали задачу Неймана для сложной области, а использовали ее решение в квадрате
- для решения задачи Дирихле в сложной области в качестве предобуславливателя Нейман-Дирихле.
- \begin{center}
- \begin{tabular}{|m{2cm}|c|c|c|c|}
- \hline размер областей $N_1\times N_2$ & \multicolumn{2}{|c|}{метод сопряженных градиентов}& \multicolumn{2}{|c|}{метод Дирихле-Нейман}\\
- \cline{2-5} & $R/R_1$ & кол-во итераций & $R/R_1$ & кол-во итераций \\
- \hline 7х3 & $7\cdot 10^{-9} $ & 3 & $3\cdot 10^{-9}$ & 3 \\
- \hline 16х8 & $6\cdot 10^{-9} $ & 8 & $1\cdot 10^{-7}$ & 3 \\
- \hline 32х16 & $8\cdot 10^{-5} $ & 12 & $2\cdot 10^{-6}$ & 3 \\
- \hline 64х32 & $5\cdot 10^{-5} $ & 18 & $2\cdot 10^{-5}$ & 3 \\
- \hline 128х64 & $9\cdot 10^{-5} $ & 25 & $9\cdot 10^{-5}$ & 3 \\
- \hline 256х128 & $8\cdot 10^{-5} $ & 36 & $3\cdot 10^{-7}$ & 4 \\
- \hline 512х256 & $9\cdot 10^{-5} $ & 51 & $2\cdot 10^{-7}$ & 4 \\
- \hline
- \end{tabular}
- \vspace{5mm}
- Таблица 1.\\
- \end{center}
- \newpage
- \renewcommand{\refname}{Список литературы}
- \addcontentsline{toc}{section}{Список литературы}
- \bibliographystyle{gost705}
- \begin{thebibliography}{99}
- \bibitem{1}Carbey M., Kuznetsov Yu., Vassileuski Yu. Parallel Schwarz method for a convection-diffusion problem.: SIAM J.Sci.Comp. 2000
- \bibitem{2}Mandel J. Balancing domain decomposition: Commun. Appl. Numer. Meth. 1993
- \bibitem{3}Quarteroni A.. Valli A. Domain decomposition methods for partial differential equations.: Oxford Science Publications, 1999.
- \bibitem{4}Деммель ДЖ. Вычислительная линейная алгебра. Теория и приложения. Пер. с англ.---М.:Мир, 2001.
- \bibitem{5}Andrea Toselli, Olof B. Widlund. Domain Decomposition Methods - Algorithms and Theory:Springer, 2005.
- \bibitem{6}Василевский Ю.В., Ольшанский М.А. Краткий курс по многосеточным методам декомпозиции области.- М.: МГУ им. М.В. Ломоносова, 2007.
- \bibitem{7}Sergey Nepomnyaschikh. Domain decomposition methods. In Lectures on advanced computational methods in mechanics, volume 1 of Radon Ser. Comput. Appl. Math.,pages 89-159. Walter de Gruyter, Berlin, 2007
- \bibitem{8}А.А. Самарский, Е.С. Николаев. Методы решения сеточных уравнений. М.: Наука, 1978.
- \bibitem{9}Лебедев В.И. Метод композиции. М.: ОВМ АН СССР, 1986, 191 с.
- \end{thebibliography}
- \end{document}
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement