Cette preuve est basée sur les propriétés des vecteurs Gaussiens. On remarque que les lois d’échantillonnage et a priori sont Gaussiennes. On écrit le vecteur aléatoire
\begin{equation*}
z=\begin{pmatrix} \theta \\ y \end{pmatrix}
\end{equation*}
avec \(\theta= (\omega, b)^t\) les paramètres du modèle linéaire. On peut écrire ce vecteur aléatoire sous la forme
\begin{equation*}
\begin{pmatrix} \theta \\ y \end{pmatrix}=
\begin{pmatrix} I_d \amp 0\\ A_x \amp I_d \end{pmatrix} \begin{pmatrix} \theta \\ \epsilon \end{pmatrix}
\end{equation*}
On sait par hypothèse que \(\epsilon\) et \(\theta\) sont des variables aléatoires Gaussiennes donc le vecteur des deux est aussi Gaussien. Ensuite on applique une transformation linéaire. Or une transformation linéaire d’un vecteur aussi est encore un vecteur Gaussien. Notre vecteur est donc Gaussien. En utilisant la loi d’une transformation linéaire d’un vecteur Gaussien on obtient que
\begin{equation*}
\mathbb{E}[z]= \begin{pmatrix} \mathbb{E}[\theta] \\ \mathbb{E}[y] \end{pmatrix}=
\begin{pmatrix} \mathbb{E}[\theta] \\ \mathbb{E}[A \theta + \epsilon] \end{pmatrix}=
\begin{pmatrix} \mathbb{E}[\theta] \\ A\mathbb{E}[\theta] + \mathbb{E}[\epsilon] \end{pmatrix}=
\begin{pmatrix} 0 \\ 0 \end{pmatrix}
\end{equation*}
et
\begin{equation*}
\Sigma_z= \begin{pmatrix} \operatorname{cov}(\theta,\theta) \amp \operatorname{cov}(\theta,A \theta+\epsilon) \\
\operatorname{cov}(A\theta+\epsilon,\theta) \amp \operatorname{cov}(A\theta+\epsilon,A\theta+\epsilon) \end{pmatrix}
\end{equation*}
Puisqu’on sait que les paramètres \(\theta\) suivent une Gausssienne \(\mathcal{N}(0,\frac{1}{\alpha})\) (loi a priori) on à
\begin{equation*}
\operatorname{cov}(\theta,\theta) =\frac{1}{\alpha} I_d
\end{equation*}
On passe ensuite au terme
\begin{equation*}
\operatorname{cov}(A\theta+\epsilon) = \operatorname{cov}(\theta,A\theta)+\operatorname{cov}(\theta,\epsilon)= \operatorname{cov}(\theta,A\theta)
\end{equation*}
car le bruit est indépendant des paramètres du modèle. Puisque la covariance est une application bilinéaire on a
\begin{equation*}
\operatorname{cov}(\theta,A\theta+\epsilon) = \operatorname{cov}(\theta,A\theta) = \frac{A^t}{\alpha}
\end{equation*}
Le troisième terme est le transposé. Il faut maintenant estimer le dernier terme:
\begin{equation*}
\operatorname{cov}(A\theta+\epsilon,A\theta+\epsilon)= \operatorname{Var}(A\theta) + \operatorname{Var}(\epsilon)
= \frac{A A^t}{\alpha} + \sigma^2I_d
\end{equation*}
On a donc la matrice final de covariance pour la loi jointe
\begin{equation*}
\Sigma_z= \frac{1}{\alpha}\begin{pmatrix} I_d \amp A^t \\
x_1 \amp AA^t +\alpha\sigma^2 I_d \end{pmatrix}
\end{equation*}
On conclut en appliquant la formule qui permet à partir de la densité jointe de construire la densité conditionnelle pour un vecteur Gaussien.