+Gesucht sei der Erwartungswert $<A>$.
+\[
+\begin{array}{l}
+ \displaystyle <A> = \sum_i p_i A_i \, \textrm{, wobei} \\[2mm]
+ \displaystyle p_i = \frac{e^{- \beta E_i}}{\sum_j e^{\beta E_j}} \, \textrm{, Boltzmann Wahrscheinlichkeitsverteilung} \\[2mm]
+ \displaystyle E_i \, \textrm{Energie im Zustand i}
+\end{array}
+\]
+Anstatt "uber alle Zust"ande zu summieren, greift man nur einige zuf"allige Zust"ande auf, deren Wahrscheinlichkeit idealerweise nat"urlich der Boltzmannverteilung entspricht (importance sampling).
+\[
+ <A>_{est} = \frac{1}{N} \sum_{i=1}^{N} A(i)
+\]
+$N$ entspricht hierbei der Anzahl der Iterationen in der Computersimulation.
+\begin{itemize}
+ \item $P(A,t)$ sei die Wahrscheinlichkeit der Konfiguration $A$ zur Zeit $t$
+ \item $W(A \rightarrow B)$ sei Wahrscheinlichkeit pro Zeiteinheit, da"s die Konfiguration von $A$ nach $B$ wechselt
+\end{itemize}
+Damit gilt:
+\[
+ P(A,t+1) = P(A,t) + \sum_B \Big( W(B \rightarrow A) P(B,t) - W(A \rightarrow B) P(A,t) \Big)
+\]
+und f"ur gro"se $t$ ist dir willk"urliche Anfangskonfiguration vergessen, $P(A,t) \rightarrow p(A)$.\\
+Eine Bedingung f"ur eine zeitunabh"angige Wahrscheinlichkeitsverteilung ist:
+\[
+ W(A \rightarrow B) P(A,t) = W(B \rightarrow A) P(B,t) \qquad \textrm{(detailed balance)}
+\]
+und somit gilt:
+\[
+ \frac{W(A \rightarrow B)}{W(B \rightarrow A)} = \frac{p(B)}{p(A)} = \frac{e^{- \beta E(B)}}{e^{- \beta E(A)}} = e^{- \beta \delta E}
+\]
+Eine Realisierung einer solchen Boltzmannverteilung bietet der Metropolis Algorithmus [\ref{lit4}].\\
+\[
+ W(A \rightarrow B) = \left\{
+ \begin{array}{ll}
+ e^{- \beta \delta E} & : \delta E > 0 \\
+ 1 & : \delta E < 0
+ \end{array} \right.
+\]
+Der Pseudocode eines Programms k"onnte nun wie folgt aussehen: