03. Variabili Aleatorie

3. Variabili Aleatorie

#ArgomentoFondamentale

variabile aleatoria

In generale, una variabile si dice aleatoria se esiste una distribuzione di probabilità.
Infatti le probabilità possono essere uniformi oppure no

Variabile aleatoria Degenere

va degenere - $x \sim \mathrm{deg}(a)$

XDeg(a) con aR è detta variabile aleatoria degenere ed è quella tale per cui:
P(X=a)=1

Ne deriva che:

GraficoDistribuzioneDegenere 1.png|Andamento funzione di ripartizione di una variabile degenere

Media

Media di variabili aleatorie Discrete

media di variabili aleatorie discrete ($e[x]$)

ΩZ o numerabile
Sia X la variabile aleatoria su Ω con probabilità P(X=x), xΩ
Definisco la media di X il valore
E[X]=xΩxP(X=x)
Ossia la media dei valori di Ω presi con il loro peso. (E sta per Expectation)

Media di variabili aleatorie Continue

media di variabili aleatorie continue ($ex$)

EX=RxfX(x)dx

Proprietà della media

Linearità della media

linearità della media

La media, sia continua che discreta, è lineare:

E[aX+b]=aEX+b


Dimostrazione

Sia g(x) una funzione lineare. In questo caso aX+b

Per la media di una variabile continua:

E[aX+b]=Eg(x)==R(ax+b)fX(x)dx==aRxfX(x)dx+bRfX(x)dx=1==aEX+b

Mentre la media di una variabile discreta:

E(aX+b)=k(axk+b)pk==akxkpk+bkpk=1==aEX+b

Momento

momento di va di rordine $r>0$

Il momento di una VA è definito come:
EXr=k(xk)rpkEXr=RxrfX(x)dx
a seconda che X sia una variabile aleatoria discreta o continua.

si definiranno:

  • r=1: Primo momento (coincide con la [[#Media]])
  • r=2: Secondo momento

Varianza

varianza $\mathrm{var}(x)$

GraficoVarianza 1.png|500

La varianza è una misura quadratica di quanto X si discosta dalla sua [[#Media e momenti]] (ossia dal suo valore centrale).
σ2=Var(X)=E(XEX)2
Spesso si indica la varianza con σ2.

Facendo alcuni conti:

Var(X)=E(XEX)2==E[X22XEX+(EX2)]==EX22EXEXμ+(EX)2μ2==EX22(EX)2+(EX)2==EX2(EX)2

Da cui vediamo che la varianza è uguale al 2° #Momento meno il 1°:

Deviazione standard

deviazione standard o scarto quadratico medio ($\sigma$)

La deviazione standard è ottenuta calcolando la radice quadrata della [[#Varianza]]

σ=σ2

La Deviazione standard è poco robusta.

Variabili aleatorie DISCRETE

Condizioni necessarie e sufficienti per densità discreta

cns per densità discreta
  1. pk0
  2. kZpk=1
    La funzione Discreta soddisfa le proprietà 1. e 2. se e solo se è una densità discreta di qualche variabile aleatoria X

Tipi di variabili aleatorie discrete

Variabile Aleatoria Binomiale

va binomiale (discreta): $x \sim \mathrm{bin}$

Si dice che X si distribuisce in accordo con una variabile binomiale e si scrive XBin(n,p) se X è di parametri (n,p) con:

  • nN
  • p[0,1]

Allora, detto X= "Il numero di successi su n prove indipendenti in cui il successo è un evento di probabilità p"
P(X=x)=(nx)px(1p)nx,x{0,1,...,n}Z

GraficoVABinomiale.png


Ricavare la binomiale

Si supponga di avere una scatola contente una pallina con uno 0 e una pallina con un 1. Immagino di voler riempire n caselle con 0 o 1 a seconda della pallina che estraggo, ripetendo l'estrazione n volte con reimmissione
Siano

  • K l'evento: "Ottengo 1, k volte" (lo posso leggere anche come la somma di tutte le caselle)
  • xi= "Valore della casella i-esima" {0,1}
    K=i=1nxi{0,1,2,3,...,n}
    La probabilità che una qualsiasi casella abbia valore 0, o abbia valore 1, è 12
    P(xi=0)=P(xi=1)=12i
    La probabilità che K=0, uguale alla probabilità che K = n è:
    P(K=0)=P(i=1nxi=0)=i=1nP(xi=0)=(12)nP(K=n)=P(i=1nxi=1)=i=1nP(xi=1)=(12)n
    Proviamo a calcolare la probabilità che K=2:
    P(K=2)=P("2 volte 1", "n-2 volte 0"=Cj)==P(j=1(n2)Cj)==j=1(n2)P(Cj)
    1j(n2) perché ci sono (n2) modi di disporre 2 palline in n caselle. Si tratta infatti di una combinazione semplice di n elementi in classe di 2: Cn,2.

P(Cj)=(12)2(12)n2

Generalizzando otteniamo che:
P(K=k)=(nk)(12)k(12)nk
Qualora l'evento considerato non abbia probabilità 12 ma p si ha:
P(K=k)=(nk)(p)k(1p)nk

Media VA Binomiale

media va binomiale $(ex)$

Sia XBin(n,p) con nN,p[0,1]
La #Variabile Aleatoria Binomiale è:
EX=np

Varianza VA Binomiale

media va binomiale $(\text{var}(x))$

Sia XBin(n,p) con nN,p[0,1]
La #Variabile Aleatoria Binomiale è:
Var(X)=np(1p)

Variabile Aleatoria di Bernoulli

È un caso particolare di [[#Variabile Aleatoria Binomiale]] in cui n=1

va di bernoulli (discreta): : $x \sim \mathrm{ber}$

XBer(p)Bin(1,p)
con x{0,1}
P(X=x)=px(1p)1x={1px=0p,x=1

Media VA di Bernoulli

media va di bernoulli $(ex)$

Sia XBer(p) con p[0,1],x{0,1}
La [[#Media di variabili aleatorie Discrete]] per la [[#Variabile Aleatoria di Bernoulli]] è:
EX=p

Varianza VA Binomiale

media va di brenoulli $(\text{var}(x))$

Sia XBer(p) con p[0,1]
La [[#Varianza]] per la [[#Variabile Aleatoria di Bernoulli]] è:
Var(X)=p(1p)

Variabile Aleatoria Geometrica

va geometrica (discreta)

XGeo(p), p[0,1]
P(X=x)=(1p)x1pxN={1,2,...,}{0}Z
con X= "Prova di primo successo"

GraficoVAGeometrica.png

esempio - prova di primo successo

Sia S il successo con P(S)=p[0,1]

P(X=x)=P(Probabilità di avere successo alla prova x)=P(SS...SS)==P(S)P(S)P(S)=(1p)x1p

Media VA Geometrica

media va geometrica

Sia XGeo(p) con p[0,1]
La [[#Media di variabili aleatorie Discrete]] per la [[#Variabile Aleatoria Geometrica]] è:
EX=1p


Dimostrazione:

Per definizione la [[#Media di variabili aleatorie Discrete]] è
EX=x=1xP(X=x)=x=1x(1p)x1p==px=1xqx1==px=1ddqqx==pddqx=1qx==pddq(x=0qxq0)

Riconosco la serie geometrica x=0qx che converge a 11q.

=pddq(x=0qxq0)==pddq(11qq0)==pddq(11q1)==pddq(11q1)==p(1q)2==p(1q)2=pp2=1p
c.v.d.

Dove va a finire il meno?

Una ditta produce lampadine con vita media: 70 accensioni
Una volta installata la lampadina "L" (presa a caso), calcolare P("si accende").


Sia S l'evento: "si accende"
Sia

SS...SSP(S)=q
e
SS...SSP(S)=p
EX=1q
La media è uguale a 1 fratto la "probabilità che si accenda dopo un certo numero di volte in cui non si è accesa". Il problema richiede la probabilità dell'evento complementare.

P(S)=1P(S)==11EX==1170=6970

Varianza VA Geometrica

varianza va geometrica

Sia XGeo(p) con p[0,1]
La [[#Varianza]] per la [[#Variabile Aleatoria Geometrica]] è:
Var(X)=1pp2

Variabile Aleatoria di Poisson

va di poisson (discreta)

XPois(λ) con λ>0
P(X=x)=eλλxx!xN0=N{0}

Dato il tasso di successo λ, X è il numero di successo nell'intervallo unitario.

GraficoDensitàPoissonBar.png

Teoria delle code

La Variabile di Poisson trova applicazione nella teoria delle code. Il Tasso λ è infatti il numero di successi medio in un dato intervallo di tempo. Ad esempio: il numero di persone che entrano in banca tra le 10:00 e le 10:01 in media.

Media VA di Poisson

media va di poisson

Per XPois(λ)
EX=λ


Dimostrazione:

EX=x0xP(X=x)==x0xeλλxx!==x0eλλx!==eλx1λx(x1)!==eλx10λx1+1(x1)!=

Chiamo x1=s:

=eλx10λx1+1(x1)!==eλs0λs+1(s)!==λeλs0λs(s)!=

In cui riconosco la serie di Taylor Mac-Laurin che converge a eλ.

=eλs0λs(s)!==λeλeλ=λ
c.v.d.

Da precedenti osservazioni in una banca, si è visto che arrivano mediamente 6 clienti al minuto.

Calcolare
P("Arrivano 2 clienti tra 12:00 e 12:01")


Il tasso di arrivo è di 6 clienti al minuto. λ=6=EX, dove EX= "il numero di arrivi al minuto".

Di fatto sto chiedendo P(X=2).

P(X=2)=e6622!

Varianza VA Poisson

varianza va di poisson

Sia XPois(λ) con λ>0
La [[#Varianza]] per la [[#Variabile Aleatoria di Poisson]] è:
Var(X)=λ

Variabili aleatorie CONTINUE

Nel mondo reale molte variabili sono continue (il tempo ad esempio). Poi nei fatti noi non siamo in grado di misurare le cose in modo continuo e quindi le osservazioni saranno PUNTUALI (discrete).

Per le variabili aleatorie continue diremo che:

XfXC(R)

Ci interessa quindi conoscere solo la densità continua

Densità continua

densità continua ($f$)

Sia f una funzione continua. f:RR

Definisco il:

Supporto

Il supporto di f è l'insieme delle x per cui f(x) è diversa da 0.
Supp(f)={xR:f(x)0}Dom(f)
Inoltre, sia XfXSupp(fX)=Supp(X).
Dove
Supp(X)={insieme dei valori che X può assumere}

Condizioni necessarie e sufficienti per densità continua

cns per densità continua
  1. fX0
  2. RfX(x)dx=1
    La funzione continua soddisfa le proprietà 1. e 2. se e solo se è una densità continua di qualche variabile aleatoria X

Supporto

Il supporto di f è l'insieme delle x per cui f(x) è diversa da 0.

Supp(f)={xR:f(x)0}Dom(f)

Inoltre, sia XfXSupp(fX)=Supp(X).
Dove

Supp(X)={insieme dei valori che X può assumere}

Tipi di variabili aleatorie continue

Variabile aleatoria Uniforme

va uniforme (continua) - $x \sim \mathrm{unif}(a,b)$

XUnif(a,b) con a<b,(a,b)R

dove la #Densità continua è

fX(x)=1ba1(a,b)(x)={0x(a,b)1bax(a,b)

dove 1E(x), con E un qualche insieme, è detta funzione indicatrice e vale:

1E(x)={0xE1xE
e
Supp(fX)=(a,b)=Supp(X)

Vediamo alcuni casi semplici:

Sia XUnif:
Calcoliamo P(X(a,b))

P(X(a,b))=(a,b)fX(x)dx==abfX(x)dx==ab1(ba)1(a,b)(x)dx==ab1(ba)dx=baba=1

Calcoliamo P(X[a,b]) per capire che differenza c'è tra usare un intervallo aperto e uno chiuso.

P(X[a,b])=[a,b]fX(x)dx=={a}fX(x)dx+abfX(x)dx+{b}fX(x)dx==0+ab1(ba)1(a,b)(x)dx+0==ab1(ba)dx=baba=1

Calcoliamo P(X<a)

P(X<a)=P(x(,a)=(,a)fX(x)dx==afX(x)dx==a1(ba)1(a,b)(x)dx=0

Essendo x sempre fuori dall'intervallo (a,b) e quindi la funzione indicatrice sarà sempre nulla

Media VA Uniforme

media va uniforme

Sia XUnif(a,b) con a,bR
La [[#Media di variabili aleatorie Continue]] per la [[#Variabile aleatoria Uniforme]] è:
E(X)=a+b2

Varianza VA Uniforme

varianza va uniforme

Sia XUnif(a,b) con a,bR
La [[#Varianza]] per la [[#Variabile aleatoria Uniforme]] è:
Var(X)=(ba)212

Variabile Aleatoria Esponenziale

Si ritrova spesso nel descrivere la quantità di tempo che passa prima che uno specifico evento accada.

Ad esempio, il tempo, a partire da ora, primo che ci sia un terremoto o che scoppi una nuova guerra, o che una chiamata ricevuta risulti da qualcuno che ha sbagliato numero.

va esponenziale (continua): $x \sim \mathrm{exp}(\lambda)$

XExp(λ),λ>0

La [[#Densità continua]] è

fX(x)=λeλx1(0,)(x)={0x<0λeλxx>0

e
Supp(X)=Supp(fX)=(0,)

Vediamo alcuni casi semplici:

Calcoliamo P(X<1).
Ricordo x>0 evento certo in Ω.

P(X<1)=P(x<1,x>0)=P(0<x<1)==01λeλx1(0,)(x)dx==[eλx]01=eλ+1

Calcolare P(1<X<32)

$
\begin

\mathcal{P} (1<X<\frac{3}{2}) &= \int_{1}^{\frac{3}{2}} \lambda e^{-\lambda x}1_{(0, \infty)}(x) , dx = \

&= \left[ -e^{-\lambda x} \right]_{1}^{\frac{3}{2}} = -e^{- \frac{3}{2}\lambda} + e^{-\lambda}

\end{align}
$

Calcolare P(5<X<5)

P(1<X<32)=P(X[5,5])==P(X[5,5],X(0,))==P(X[5,5](0,))==P(X(0,5])==05λeλxdx==[eλx]05=1e5λ

Media VA Esponenziale

media va esponenziale

Sia XExp(λ) con λ>0
La [[#Media di variabili aleatorie Continue]] per la [[#Variabile Aleatoria Esponenziale]] è:
E(X)=1λ

Varianza VA Esponenziale

varianza va esponenziale

Sia XExp(λ) con λ>0
La [[#Varianza]] per la [[#Variabile Aleatoria Esponenziale]] è:
Var(X)=1λ2

Variabile Aleatoria Gamma

va gamma (continua): $x \sim \mathrm{gamma}(\lambda, \nu)$

XGamma(λ,ν)

La [[#Densità continua]] è
fX(x)=λνΓ(ν)xν1eλx1(0,)(x)
e [[#Supporto]]:

Supp(fX)=Supp(X)=(0,)

e dove Γ(λ) è la #Funzione Gamma calcolata in λ

Verifichiamo che P(X(0,))=1
Verifico a partire dalla densità fX.

P(X(0,))=(0,)fX(x)dx==0λνΓ(ν)xν1eλx1(0,)dx

Applico il seguente cambio di variabile:

λx=q

Da cui x=qλ e dx=dqλ

ottengo così

0λνΓ(ν)xν1eλx1(0,)dx=λνΓ(ν)1λν11λ̸0qν1eqdq

in cui riconosco 0qν1eqdq=Γ(ν) per cui ottengo

Γ(ν)Γ(ν)=1
Funzione Gamma
funzione gamma ($\gamma$)

La funzione Gamma è la funzione:
Γ(z)=0sz1esds,z>0

Proprietà della funzione gamma
proprietà della funzione gamma

La funzione gamma gode delle seguenti proprietà:

  • Γ(z+1) = zΓ(z)
  • Γ(12)=π
  • Γ(z+1)=z! se zN
  • Γ(2)=1

Dimostrazione:

Cominciamo da Γ(z+1)=zΓ(z)

zΓ(z)=0zsz1esds=Per parti[z1zszes]00z1z(es)szds==[ze0ze0]0+0szesds=Γ(z+1)=Γ(z+1)
c.v.d

Da questo, segue immediatamente la terza affermazione (per zN):
Γ(z+1)=zΓ(z)=z(z1)Γ(z1)...
Continuando fino ad ottenere
Γ(z+1)=z!
c.v.d

Media VA Gamma

media va gamma

EX=νλ


Dimostrazione

EX=RxfX(x)dx==RxλνΓ(ν)xν1eλx1(0,)(x)dx=λνΓ(ν)0xνeλxdx=[λx=yx=λ1ydx=λ1dy]=λνΓ(ν)0λνyνeyλ1dx==λ1Γ(ν)0yνeydx
Da Γ(ν+1)=νΓ(ν) per [[#Proprietà della funzione gamma]] si ha che 1Γ(ν)=νΓ(ν+1). Allora
=λ1Γ(ν)0yνeydx==λ1νΓ(ν+1)0yνeydx=Γ(ν+1)=νλ
c.v.d.

Varianza VA Gamma

varianza va gamma

Var(X)=νλ2

Variabile Aleatoria Normale o Gaussiana

La Variabile Normale si ritrova in moltissime applicazioni pratiche. È stata introdotta inizialmente come approssimazione di una [[#Variabile Aleatoria Binomiale]] per grandi valori del parametro n.
È usata, ad esempio, come distribuzione:

va normale o gaussiana (continua): $x \sim n(\mu, \sigma^{2})$

XN(μ,σ2) con μR,σ2>0

La [[#Densità continua]] è
fX(x)=12πσ2e(xμ)22σ2
con xR.

Il [[#Supporto]]:

Supp(fX)=Supp(X)=R


Per μ=0 e σ2=1 si parla di Normale Standard: XN(0,1)

GraficoDistribuzioneNormale 2.png

Verifichiamo che P(XR)=1

P(XR)=RfX(x)dx=Re(xμ)22σ22πσ2dx==12πσ2e(xμ)22σ2dx=[y=xμx=y+μdx=dy]==22πσ20ey22σ2dy=[ω=y2y=ω12dy=12ω12]==22πσ20eω2σ212ω121dω

Moltiplico e divido per la quantità

Γ(12)(12σ2)12

ottengo

P(XR)=12πσ2Γ(12)(12σ2)120Γ(12)(12σ2)12eω2σ2ω121dω

Noto che l'integrale è diventato quello per la probabilità P(XR) per XGamma(12σ2,12) che abbiamo già dimostrato essere uguale a 1 in #Variabile Aleatoria Gamma.
Per cui rimane

P(XR)=12πσ2Γ(12)(12σ2)12

dove Γ(12)=(π) per le proprietà della [[#Funzione Gamma]]. Per cui

P(XR)=12πσ2π12σ2==12πσ22πσ2=1

Media VA Normale

media va normale

E(X)=μ

Varianza VA Normale

varianza va normale

Var(X)=σ2


Dimostrazione

Var(X)=E(Xμ)2==R(xμ)2fX(x)dx==R(xμ)2e(xμ)22σ22πσ2dx=[xμ=yx=y+μdx=dy]==12πσ2Ry2ey22σ2dy=[y2=ty=t12dy=12t121dt]==22πσ2Rtet2σ212t121dt==12πσ2Rt12et2σ2dt=[t2σ2=lt=2σ2ldt=2σ2dl]==12πσ̸2R(2σ̸2l)12el2σ2dl==2σ2π0l12eldl==2σ2π0l321eldl==2σ2πΓ(32)=2σ2π12π=σ2
c.v.d.

Funzione di Ripartizione

#ArgomentoFondamentale

funzione di ripartizione ($f_{x}(x)$)

Data XfX si dice funzione di ripartizione di X la funzione così definita:
FX(x)=P(Xx)=xfX(y)dy

Dall'analisi, per il Teorema Fondamentale del Calcolo Integrale abbiamo

fX(x)=ddxFX(x)

Proprietà della funzione di ripartizione

proprietà funzione di ripartizione

$
\begin

  1. &\quad \mathcal{P}(X \in (-\infty,x]) = \mathcal{P}(X \le x) = F_{X}(x) \
  2. &\quad \mathcal{P}(X \in (x_{1}, x_{2}]) = \mathcal{P}(x_{1}<X\le x_{2}) = F_{X}(x_{2}) - F_{X}(x_{1}) \
  3. &\quad \mathcal{P}(X \le x_{2}) = F_{X}(x_{1}) + \mathcal{P}(x_{1}<X<x_{2}) \
  4. &\quad \lim_{x \to \infty} F_{X}(x) = 1 \qquad \qquad \lim_{x \to - \infty}F_{X}(x) = 0 \
  5. &\quad \lim_{x \to x_{0}^{+}} F_{X}(x) = F_{X}(x_{0}) \qquad \text{(Continuità)}
    \end{align}
    $

Trasformazioni di variabili aleatorie

È data una variabile aleatoria XfX(x).
Si ha inoltre che

Y=g(X)

Vogliamo caratterizzare Y, ossia trovarne la [[#Densità continua]] o densità discreta.

osservazione

Se X è discreta, allora anche g è una funzione discreta.

esempio

Sia XExp(λ) e Y=X. Caratterizzare Y (trovarne la densità).

Alcune considerazioni:

  • X è continua
  • è continua
    Anche Y è continua

Per l'esponenziale, X(0,) per cui Y=g(X)(0,)

Supp(fY)=Supp(Y)=(0,)
Come primo passo devo trovare FY per poi derivare e cercare fY.

FY(y)=P(Yy)==P(Xy)==P(Xy2)==y2fX(t)dt==y2λeλx1(0,)(t)dt==0y2λeλxdt==1eλy2
Per y(0,)

Per cui la [[#Densità continua]] è data da
fY(y)=ddyFY(y)==2λyeλy2y>0
In R:
fY(y)={0,y02λyeλy2,y>0
verificato che la funzione sia continua in 0. Ossia
fY(y)=2λyeλy21(0,)(y)

Drawing 2023-04-08 17.47.02 2. Misure e Probabilità - Ricapitolandolo.excalidraw.png