next up previous contents
suivant: Résolution numérique monter: Le modèle de choix précédent: Le modèle Logit   Table des matières

Estimation des paramètres

Une fois faite la spécification des variables, il s'agit d'estimer la valeur des paramètres des fonctions d'utilité. La méthode employée est celle du maximum de vraisemblance. Nous allons chercher les $\theta$ tels que la situation observée (échantillon extrait de l'enquête ménage) ait la plus grande probabilité de se produire, connaissant la loi du modèle (ici le Logit).
La vraisemblance de l'échantillon s'écrit :
\begin{displaymath}
\mathcal L\left (\vec{X},\vec{\theta} \right)=\prod_{n} \left( \prod_{j} {\left(P_n(i)\right)}^{g_{jn}}\right)
\end{displaymath} (2.5)

avec : et on cherche :

\begin{displaymath}
\mbox{Max}_{\theta} \; \mathcal L\left (\vec{X},\vec{\theta...
...{\theta} \; \ln \mathcal L\left (\vec{X},\vec{\theta} \right)
\end{displaymath}

Il s'agit d'un problème non linéaire sans contraintes.

Soit $\Gamma(\theta)=\ln \mathcal L\left (\vec{X},\vec{\theta} \right)$, la log-vraisemblance. On a alors :

\begin{displaymath}
\Gamma(\theta)=\ln \left( \prod_{n} \left( \prod_{j} {\left...
...\right)=\sum_{n}\sum_{j}g_{jn}.\ln\left(P_{nj}(\theta)\right)
\end{displaymath}

avec : $P_{nj}(\theta)=\frac{e^{V_{jn}(\theta)}}{\sum_p e^{V_{jn}(\theta)}}$
d'où:

\begin{displaymath}
\Gamma (\theta )=\sum_n \sum_j \left[ g_{jn}.\ln\left( \frac{e^{V_{jn}(\theta)}}{\sum_p e^{V_{pn}(\theta)}}\right) \right]
\end{displaymath}



\begin{displaymath}
\Rightarrow
\Gamma (\theta )=\sum_n \sum_j \left[ g_{jn}.V...
...-g_{jn}. \ln \left( \sum_p e^{V_{pn}(\theta)} \right) \right]
\end{displaymath}



\begin{displaymath}
\Rightarrow
\Gamma (\theta )=\sum_n \sum_j \left( g_{jn}.V...
... g_{jn}. \ln \left( \sum_p e^{V_{pn}(\theta)} \right) \right]
\end{displaymath}



\begin{displaymath}
\Rightarrow
\Gamma (\theta )=\sum_n \sum_j \left( g_{jn}.V...
..._p e^{V_{pn}(\theta)} \right) \underbrace{\sum_j g_{jn}}_{=1}
\end{displaymath}


Au total:
\begin{displaymath}
\Gamma (\theta )=\sum_n \sum_j \left( g_{jn}.V_{jn}(\theta) \right)-\sum_n \ln \left( \sum_p e^{V_{pn}(\theta)} \right)
\end{displaymath} (2.6)

Nous cherchons donc à maximiser la fonction $\Gamma$ telle qu'elle est formulée dans l'équation (2.6) en fonction des paramètres $\theta$.

Théorème 2   Dans le cas d'un Logit multinomial, la log-vraisemblance est concave.

Preuve Voir [5],page 16.

Cette propriété est fondamentale, elle garantit l'unicité de la solution au problème.
Nous allons donc chercher à résoudre $\nabla \Gamma (\theta )=0$, condition nécessaire à l'optimalité de la solution.

\begin{displaymath}\nabla \Gamma (\theta )=0 \Leftrightarrow \frac{\partial \Gamma (\theta )}{\partial \theta_{i_k}}=0 \; \forall i,k\end{displaymath}

Déteminons les dérivées partielles :

\begin{displaymath}\frac{\partial \Gamma (\theta )}{\partial \theta_{i_k}}=
\fr...
...)-\sum_n \ln \left( \sum_p e^{V_{pn}(\theta)} \right) \right)
\end{displaymath}



\begin{displaymath}
=\sum_n \left( \frac{\partial }{\partial \theta_{i_k}} \lef...
... \ln \left( \sum_p e^{V_{pn}(\theta)} \right) \right) \right)
\end{displaymath}



\begin{displaymath}
=\sum_n \left( g_{in}X_{i_k n} \right)
-\sum_n \frac{ \fra...
...m_p e^{V_{pn}(\theta)} \right) }{ \sum_p e^{V_{pn}(\theta)}}
\end{displaymath}


d'où :

\begin{displaymath}
\frac{\partial \Gamma (\theta )}{\partial \theta_{i_k}}=\...
...{X_{i_k n} .e^{V_{in}(\theta)} }{\sum_p e^{V_{pn}(\theta)} }
\end{displaymath} (2.7)


Remarque :
$\theta_{i_k}$ est un paramètre qui peut correspondre à :
La formule 2.7 est valable dans le premier cas.
Dans le deuxième la formule est la même, seulement, $X_{i_k n}$ vaut 1 si l'individu n a pour caractéristique la modalité qui correspond à $\theta_{i_k}$, 0 sinon.
Dans le dernier cas, $X_{i_k n}$ vaut 1.

next up previous contents
suivant: Résolution numérique monter: Le modèle de choix précédent: Le modèle Logit   Table des matières
2003-06-21