AR - 10 - Cascate Informative II
Lecture Info
Data:
Capitolo Libro: Chapter 16 - Information Cascades
Introduzione: In questa lezione abbiamo continuato e portato a termine la trattazione dell'effetto herding iniziata la scorsa lezione. In particolare abbiamo analizzato il modello definito la scorsa lezione per far vedere che la presenza delle cascate informative è un qualcosa di molto generale.
1 Effetto Herding
Ricordiamo il modello introdotto la scorsa lezione: Abbiamo due stati, \(G\) e \(B\), ciascuno indicato da due segnali \(g\) e \(b\). La probabilità degli stati è ottenuta fissando il parametro \(p \in (0, 1)\) come segue
\(P(G) = p\)
\(P(B) = 1 - p\)
mentre la probabilità dei segnali condizionata ad un particolare stato è ottenuta fissando il parametro \(q \in (\frac12 ,1)\) come segue
\(P(g|G) = q, \,\,\, P(b|G) = 1 - q\)
\(P(b|B) = q, \,\,\, P(g|B) = 1 - q\)
in altre parole, con probabilità \(q\) il segnale che riceviamo riflette lo stato corretto del mondo.
1.1 Primo Individuo
Supponiamo adesso che il primo individuo riceve il segnale \(g\). Allora le sue probabilità sullo stato del mondo vengono aggiornate come segue
\[\begin{split} P(G|g) &= \frac{P(g|G) \cdot P(G)}{p(g)} \\ &= \frac{P(g|G) \cdot P(G)}{P(g|G) \cdot P(G) + P(g|B) \cdot P(B)} \\ &= \frac{q \cdot p}{q \cdot p + (1 - q) \cdot (1-p)} \end{split}\]
Notiamo poi che \(q > \frac12\), e quindi \(1 - q < q\). Da questo segue che
\[\begin{split} \frac{q \cdot p}{q \cdot p + (1 - q) \cdot (1-p)} &> \frac{q \cdot p}{q \cdot p + q \cdot (1-p)}\\ &= \frac{q \cdot p}{q \cdot (p + 1 - p)} \\ &= p \end{split}\]
Dunque abbiamo trovato che
\[P(G | g) > p\]
e quindi ricevere il segnale \(g\) va ad aumentare la probabilità dello stato \(G\). Un risultato analogo vale per il caso \(P(B | b)\).
1.2 Sequenza di Segnali
Consideriamo adesso una sequenza di segnali
\[S = s_1, s_2, ..., s_n, \,\,\,\ \forall i = 1,...,n: s_i \in \{g, b\}\]
e poniamoci il seguente quesito: in quali casi la sequenza \(S\) supporta uno dei due possibili stati? Utilizzando Bayes otteniamo,
\[\begin{split} P(G|S) &= \frac{P(S|G) \cdot P(G)}{p(S)} \\ &= \frac{P(S|G) \cdot P(G)}{P(S|G) \cdot P(G) + P(S|B) \cdot P(B)} \end{split}\]
Per procedere assumiamo che gli eventi sono indipendenti tra loro, e inoltre che li vedo tutti assieme. Da queste ipotesi segue che non mi interessa il particolare ordine in cui arrivano i segnali. Posso quindi assumere che in \(S\) ci siano \(\alpha\) segnali di tipo \(g\) e \(\beta\) segnali di tipo \(b\) per ottenere,
\[P(G|S) = \frac{q^{\alpha} \cdot (1 - q)^{\beta} \cdot p}{q^{\alpha} \cdot (1 - q)^{\beta} \cdot p + (1 - q)^{\alpha} \cdot q^{\beta} \cdot (1-p)}\]
A questo punto abbiamo tre possibili casi:
Se \(\alpha = \beta\), allora
\[P(G|S) = \frac{q^{\alpha} \cdot (1 - q)^{\alpha} \cdot p}{q^{\alpha} \cdot (1 - q)^{\alpha}} = p\]
Se \(\alpha > \beta\), allora
\[(1 - q)^{\alpha} \cdot p^{\beta} < (1 - q)^{\beta} \cdot q^{\alpha - \beta} \cdot q^{\beta} = (1 - q)^{\beta} \cdot q^{\alpha}\]
e quindi,
\[P(G|S) > \frac{q^{\alpha} \cdot(1 - q)^{\beta} \cdot p}{q^{\alpha} \cdot(1 - q)^{\beta} \cdot p + q^{\alpha} \cdot(1 - q)^{\beta} \cdot (1-p)} = p\]
Se \(\alpha < \beta\), allora
\[P(G|S) < p\]
1.3 Probabilità Innesco Cascata
Ritorniamo ora nel modello in cui i segnali sono privati e andiamo a calcolare la probabilità che si inneschi la cascata. A tale fine definiamo i seguenti eventi
\(C_n :=\) Si innesca una cascata al passo \(n\)
\(C_{\leq n} :=\) Si innesca una cascata entro il passo \(n\)
Notiamo che l'evento \((S_{n-2} = S_{n-1} = S_n)\) è una condizione sufficiente alla generazione di una cascata. Vale quindi la seguente relazione
\[P(C_n) \geq P(S_{n-2} = S_{n-1} = S_n)\]
Continuamo quindi calcolando
\[\begin{split} P(S_{n-2} = S_{n-1} = S_n) &= P(S_{n-2} = S_{n-1} = S_n | S_n = g) \cdot p(g) \\ &\,\,\,\,\, + P(S_{n-2} = S_{n-1} = S_n | S_n = b) \cdot P(b)\\ &= P(ggg) + P(bbb) \\ &= P(ggg | G) \cdot P(G) + P(ggg | B) \cdot P(B) \\ &\,\,\,\,\, + P(bbb | G) \cdot P(G) + P(bbb | B) \cdot P(B) \\ &= q^3 \cdot p + (1-q)^3 \cdot (1-p) + (1-q)^3 \cdot p + q^3 \cdot (1-p) \\ &= q^3 + (1-q)^3 \end{split}\]
Consideriando poi il complemento di \(C_n\), troviamo che
\[P(\neg C_n) \leq 1 - (q^3 + (1-q)^3)\]
Consideriamo adesso l'evento \(\neg C_{\leq n}\), ovvero l'evento che non si verifica una cascata entro il passo \(n\). Notiamo che
\[\begin{split} P(\neg C_{\leq n}) &< P(\neg (S_1 = S_2 = S_3) \land \\ &\;\;\;\;\;\neg (S_4 = S_5 = S_6) \land \\ &\;\;\;\;\;\ldots \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\,\, \land \\ &\;\;\;\;\;\neg (S_{n-2} = S_{n-1} = S_n)) \\ &= \prod_{i = 1}^{\frac{n}{3} -1} P(\neg (S_{3i} = S_{3i+1} = S_{3i+2})) \\ &= [1 - (q^3 + (1-q)^3)]^{\frac{n}{3}} \\ \end{split}\]
Dal fatto che \(1 - (q^3 + (1-q)^3) < 1\), segue che
\[\lim_{n \to \infty} P(\neg C_{\leq n}) = 0\]
e quindi la cascata informativa si innesca a.s. (almost surely).