ISTI - 04 - Tipologie di Convergenza
1 Informazioni Lezione
Data:
In questa lezione abbiamo introdotto alcune tipologie di convergenza. Infine, abbiamo terminato la lezione introducendo il concetto di momento per una distribuzione di probabilità e calcolando i momenti di una normale standard.
2 Convergenza
Il concetto generale di convergenza è uno dei concetti più importanti introdotti nello studio dell'analisi matematica. In generale abbiamo varie tipologie di convergenza. Tra queste tipologie troviamo anche
2.1 Convergenza Puntuale
Questo tipo di convergenza viene introdotta nello studio delle serie e successioni di funzioni ed è definita come segue: una successione di funzioni \((s_n(x))_{n \in \mathbb{N}}\) converge puntualmente in \(x_0\) al valore \(s(x_0)\) se e solo se
\[\forall \epsilon > 0 \; \; \exists n_{\epsilon, x_0} : \;\; |s_n(x_0) - s(x_0) | < \epsilon \;\;, \;\; \forall n > n_{\epsilon, x_0}\]
Detto altrimenti abbiamo questo tipo di convergenza se, fissato \(\epsilon > 0\), è possibile determinare un indice dopo del quale tutti i termini della successione numerica \((s_n(x_0))_{n \in \mathbb{N}}\) vivono nell'intervallo \([s(x_0) - \epsilon, \,\, s(x_0) + \epsilon]\). Notiamo che in questo tipo di convergena l'indice \(n_{\epsilon, x_0}\) dipende sia da \(\epsilon\) che dal punto considerato.
2.2 Convergenza Uniforme
La convergenza uniforme è simile a quella puntuale. A differenza da quella puntuale però, in quella uniforme chiediamo di essere in grado di determinare un singolo indice \(n_{\epsilon}\) dopo del quale tutte le funzioni \(s_n(x)\) sono contenute nella striscisa \([s(x) - \epsilon, s(x) + \epsilon]\). Formalmente abbiamo la seguente definizione:
Una successione \((s_n(x))_{n \in \mathbb{N}}\) converge uniformemente ad \(s(x)\) in un insieme \(A\) se, comunque si fissi \(\epsilon > 0\), esiste \(n_{\epsilon}\) tale che
\[\forall n > n_{\epsilon}: |s_n(x) - s(x) | < \epsilon \,\, \forall x \in A\]
In questo caso notiamo che l'indice \(n_{\epsilon}\) non dipende da \(x\), come nel caso della convergenza puntuale.
2.3 Convergenza in Probabilità
Formalmente diciamo che una successione di v.a. \((X_n)_{n \in \mathbb{N}}\) converge in probabilità alla variabile casuale \(X\), in simboli \(X_n \overset{p}{\longrightarrow} X\), se per ogni \(\epsilon > 0\)
\[\lim_{n \to \infty} P(|X_n - X| < \epsilon) = 1\]
intuitivamente abbiamo questo tipo di convergenza quando più cresce \(n\) e più è probabile che \(X_n = X\).
Questo tipo di convergenza è presente nella legge (debole) dei grandi numeri, che dice che se \(X_1, X_2, ..., X_n\) sono v.a. i.i.d. con media \(\mu\), allora
\[\bar{X}_n := \frac{X_1 + ... + X_n}{n} \overset{p}{\longrightarrow} \mathbb{E}[X]\]
ovvero che per ogni \(\epsilon > 0\)
\[\lim_{n \to \infty} P(|\bar{X}_n - \mu| < \epsilon) = 1\]
Osservazione: La legge forte dei grandi numeri ci dice invece che
\[P(\lim_{n \to \infty} \bar{X}_n = \mu) = 1\]
2.4 Convergenza in Distribuzione
Infine, l'ultimo tipo di convergenza che andiamo a considerare è la convergenza in distribuzione.
Una successione di variabili casuali \((X_n)_{n \in \mathbb{N}}\) con funzione di ripartizione \(F_n\) si dice convergente in distribuzione alla variabile casuale \(X\) con funzione di ripartizione \(F\) se il seguente limite esiste in ogni punto \(x \in \mathbb{R}\) in cui \(F\) risulti continua
\[\lim\limits_{n \to \infty} F_n(x) = F(x)\]
In questo caso si scrive \(X_n \overset{d}{\longrightarrow} X\). Notiamo che questo tipo di convergenza non richiede che \(X\) e \(X_n\) assumano i medesimi valori.
Dunque, per vedere se c'è una convergenza in distribuzione dobbiamo controllare che la successione di funzioni \(F_n\) converge puntualmente ad \(F\) in tutti i punti che non siano punti di salto per \(F\). Notiamo che lavorando con funzioni di ripartizione, ovvero limitate e monotone, è possibile far vedere che la convergenza puntuale su tutti i punti implica anche la convergenza uniforme.
Osservazione: Spesso in statistica scriviamo \(X_n \overset{d}{\longrightarrow} X\) per intendere una convergenza in distribuzione. Notiamo come questo porta ad una confusione dei concetti di variabile aleatoria e distribuzione, in quanto in realtà non stiamo convergendo al valore della variabile aleatoria \(X\), ma solamente alla distribuzione di \(X\). In ogni caso, nei casi in cui siamo effettivamente interessati al valore della v.a. \(X\), e non alla sua distribuzione, possiamo utilizzare la convergenza in probabilità, indicandola con \(X_n \overset{p}{\longrightarrow} X\).
2.4.1 TLC nel caso Multivariato
Lo stesso concetto della convergenza in distribuzione visto per singole variabili aleatorie può essere applicato a vettori di variabili aleatorie. In questo caso scriviamo
\[\mathbb{R}^k \ni \underline{X}_n \overset{d}{\longrightarrow} \underline{X} \in \mathbb{R}^k\]
In particolare è possibile esprimere il TLC nel caso multivariato come segue: consideriamo una sequenza di vettori multivariati \(\underline{X}_1,\underline{X}_2,...,\underline{X}_n\) i.i.d aventi media \(\mathbb{E}[\underline{X}_1] = \underline{\mu}\) e matrice di covarianza \(Cov[\underline{X}_1] = \Sigma\). Vale il seguente risultato di convergenza in distribuzione
\[\frac{(\underline{X}_1 + \underline{X}_2 + ... + \underline{X}_n ) - n\underline{\mu}}{\sqrt{n}} \;\; \overset{d}{\longrightarrow} \;\; \mathcal{N}(\underline{0}, \Sigma)\]
dove \(\mathcal{N}(\underline{0}, \Sigma)\) è la distribuzione di una multivariata normale.
2.5 Proprietà utili
Seguono alcune proprietà utili rispetto alle varie tipologie di convergenza
Se ho una convergenza in distribuzione \(X_n \overset{d}{\longrightarrow} X\), e so che \(a_n \overset{p}{\longrightarrow} c\) e \(b_n \overset{p}{\longrightarrow} d\), allora vale
\[a_nX_n + b_n \overset{d}{\longrightarrow} cX + d\]
3 Calcolo dei Momenti
Terminiamo la lezione introducendo il concetto di momento.
Definizione: Il momento di ordine n non-centrato di una variabile aleatoria \(X\) è definito come segue
\[m_n := \int X^n f(X) \,\, dx\]
invece il momento di ordine n centrato di \(X\) è definito come segue
\[\int (X - \mathbb{E}[X])^n f(X)\,\, dx\]
Utilizzando questi momenti possiamo calcolare varianza e covarianza. Valgono infatti le seguenti formule
\(Var[X] = \mathbb{E}[X^2] = \mathbb{E}[X]^2 = m_2 - m_1^2\)
\(Var[X^2] = m_4 - m_2^2\)
3.1 Momento di una Normale Standard
Nel caso di una normale standard \(X \sim \mathcal{N}(0,1)\), vale la seguente cosa
\[\begin{split} m_n &= \int_{-\infty}^{\infty} x^n \cdot \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}} dx \\ &= \int_{-\infty}^{\infty} x^{n-1} \cdot x \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}} dx \\ &= ... \;\; \text{(integrazioni per parti)}\\ &= (n-1)\int_{-\infty}^{\infty}x^{n-2}\phi(x) dx \\ &= (n-1) m_{n-2} \end{split}\]
Dunque tutti i momenti dispari sono \(0\) mentre tutti i dispari pari sono diverso \(0\). Ad esempio
\[m_6 = 5 \cdot m_4 = 5 \cdot 3 \cdot m_2 = 5 \cdot 3 \cdot 1 = 15\]