La première approche qu’on propose d’introduire est l’approche VPINNs pour PINNs variationnel. L’idée est assez simple il s’agit de résoudre à l’aide d’un PINNs l’équation sous une forme faible plutôt que sous sa forme forte. On se place dans cadre stationnaire mais l’approche peut être étendue au cas instationnaire. Soit une équation du type:
\begin{equation*}
\mathcal{L}(u,\partial_x u, \partial_{xx} u,\boldsymbol{\beta})=f(x)
\end{equation*}
avec \(u(x):\mathbb{R}^d\rightarrow \mathbb{R}\) la solution. L’approche utilisées dans les PINNS d’orifine consiste à définir un résidu:
\begin{equation*}
R(x)=\mid \mathcal{L}(u,\partial_x u, \partial_{xx} u,\boldsymbol{\beta}) -f(x)\mid
\end{equation*}
A partir de ce résidu, on calcul la fonction de coût résidu en évaluant le résidu à chaque point de collocation et ensuite ou couple cette fonction de coût à celle sur les données et les conditions limites. Maintenant on va écrire l’équation sous forme faible. Soit \(v(x)\in C^p(\Omega)\) alors la forme faible est donnée par
\begin{equation*}
\langle \mathcal{L}(u,\partial_x u, \partial_{xx} u,\boldsymbol{\beta}), v\rangle_{L^2}=\langle f(x), v\rangle_{L^2}
\end{equation*}
En général on va utiliser cette forme faible pour résoudre l’équation en utilisant pour
\(v(x)\) une base d’un sous espace vectoriel. Ici on va faire de même.
Définition 12.42. Fonction de coût résiduelle pour les VPINNs.
On se donne un sous espace:
\begin{equation*}
V= \operatorname{Vect}(v_1(x),...,v_K(x))
\end{equation*}
et un réseau de neurones \(u_{\theta}(x)\text{.}\) Le résidu associé au VPINNs est donné par
\begin{equation*}
r_k=\mid \langle \mathcal{L}(u,\partial_x u, \partial_{xx} u,\boldsymbol{\beta}),v_j\rangle_{L^2}-
\langle f(x), v_j\rangle_{L^2}\mid
\end{equation*}
et la fonction de coût associée:
\begin{equation}
\mathcal{J}_{res}(\theta)=\sum_{k=1}^K r_k \tag{12.38}
\end{equation}
Les autres fonctions coûts sont données par:
On ajoute aussi les fonctions de coûts sur les conditions limites et sur les données. Voila, on a le principe général de la méthode. Maintenant il peut être intéressant de modifier la forme variationnelle. Pour cela on introduit l’exemple du Laplacien:
\begin{equation*}
-u^{''}(x)=f(x)
\end{equation*}
en multipliant par une fonction \(v\in C^p(\Omega)\) a support compact et en intégrant on obtient:
\begin{equation*}
-\int_{\Omega} u^{''}(x) v(x)=\int_{\Omega}f(x)v(x)
\end{equation*}
À partir de là on peut définir plusieurs formes variationnelles avec notre réseau:
-
Forme classique:
\begin{equation*}
-\int_{\Omega} u_{\theta}^{''}(x) v(x)=\int_{\Omega}f(x)v(x)
\end{equation*}
Forme faible:
\begin{equation*}
\int_{\Omega} u_{\theta}^{'}(x) v^{'}(x) -\int_{\partial \Omega}u^{'}(x)v(x)=\int_{\Omega}f(x)v(x)
\end{equation*}
Forme ultra-faible:
\begin{equation*}
-\int_{\Omega} u_{\theta}(x) v^{''}(x)-\int_{\partial \Omega}u^{'}(x)v(x)+\int_{\partial \Omega}u(x)v^{'}(x)=\int_{\Omega}f(x)v(x)
\end{equation*}
Puisque les fonctions tests sont supposées à support compact. Par conséquent on peut considérer que \(\int_{\partial \Omega}u^{'}(x)v(x)=0\text{.}\) La formulation faible permet de dériver le réseau une seule fois ce qui est moins coûteux et permet de prendre des fonctions d’activation moins régulière. C’est encore plus vrai avec la formulation ultra faible. Il s’agit d’un des plus gros avantages de la méthode des PINNS variationnelle. On peut diminuer la régularité et les calculs de dérivées.
Pour les fonctions de bases, on utilise classiquement des polynômes orthogonaux type Jacobi, Legendre ou autre. On peut aussi utiliser des fonctions sinusoïdales. Pour l’intégration les auteurs proposent d’utiliser des quadratures de Gauss. Cependant il semble aussi possible d’utiliser une quadrature de type Monte-Carlo comme pour les PINNs standard.