04. Inferenza Statistica

Definizioni generali

Vettori di Variabili Aleatorie

vettori di va

X=(X1,X2,,Xn)Rn
Dove considereremo le Xk indipendenti tra loro

Osservazioni

osservazioni ($x$)

Sono realizzazioni di X:
x=(x1,x2,,xn)
fatte su un certo campione

Densità

Siano X,Y due Variabili Aleatorie indipendenti continue,

P(Xx,Yy)=F(X,Y)(x,y)P(Xx)P(Yy)=FX(x)FY(y)

Derivando otteniamo:

2xyF(X,Y)(x,y)=FX(x)FY(y)=fX(x)fY(y)=f(X,Y)(x,y)

Dove distinguiamo tra #Densità congiunta e #Densità marginali

Posso anche dire che la funzione di ripartizione congiunta è data dall'integrale

F(X,Y)(x,y)=P(Xx,Yy)=xyf(X,Y)(s,z)dsdz

Inoltre

Rf(X,Y)(x,y)dx=fY(y)Rf(X,Y)(x,y)dy=fX(x)
esempio

Calcolare la [[#Densità congiunta]] fX(x),xR dato il [[#Vettori di Variabili Aleatorie]] X=(X1,X2,...,Xn) nel caso in cui XkExp(λ),λ>0k.

fX=k=1nfXk(xk)==k=1nλeλxk1(0,)(xk)==λneλk=1nxk1(0,)(xk)

❗❗❗❗❗❗❗❗❗❗❗❗❗
❗❗❗ COMPLETARE ❗❗❗
❗❗❗❗❗❗❗❗❗❗❗❗❗ altri esempi

Densità congiunta

f(X,Y)(x,y)

Densità marginali

fX(x)fY(y)

2023-05-04


Inferenza Statistica

Statistica descrittiva

statistica descrittiva

Parto da un campione o da alcune osservazioni

  • x=(x1,x2,,xn): Osservazioni in generale (variabile)
  • xOSS= "x osservato": La successione di numeri nota

Media Campionaria

media campionaria

x=1nk=1nxk
La media dei valori che ho osservato

Momento

Momento campionario

momento campionario

mr=1nk=1n(xk)r

m1=x

Momento teorico

momento teorico

$

M_{R} = EX^{r} = \begin{cases}
\int_\mathbb{R} x^{r}f_{X}(x) , dx \
\sum\limits_{k}(x_{k})^{r}p_{k}
\end{cases}
$

Famiglia di distribuzioni di probabilità

famiglia di distribuzione di probabilità

Date

  • fX(x)=fX(x,θ) dove θ è il parametro che caratterizza X continua
  • pk=pk(θ) dove θ è il parametro che caratterizza X discreta

Si dice famiglia di distribuzione:

  • F{fX(x,θ),xR:θRm}: X continua
  • F{pk(θ),kZ:θRm}: X discreta
esempio

{e(xμ)222π,xR:μR}
la famiglia delle densità N(μ,σ2=1) con θ=[μ1], μR.


{eλλkk!,kN0:λ>0}

la famiglia delle densità Pois(λ) con θ=λ(0,)

Massima affidabilità

Massimizzare l'affidabilità del risultato (già ottenuto)

Suppongo che la popolazione P oggetto di studio si distribuisca in accordo con X1 con densità fX1.

Tutte le osservazioni provengono dalla popolazione PX1, quindi:

X=(X1,,Xn)

è tale che XkX1k, inoltre le Xk sono indipendenti

In generale

maxθP(XI)=maxIfX(x,θ)dx

Per massimizzare l'affidabilità, esistono 2 metodi:

  1. #Metodo della massima Verosimiglianza
  2. #Metodo dei Momenti

Funzione di verosimiglianza

funzione di verosimiglianza

L(θ,x)=fX(x,θ)
Dove x è dato e θ è da "stimare". In questo caso θ è la variabile di interesse.
L è continua rispetto alla variabile θ.
Devo massimizzare. Cerco
θ^MV, il punto di massimo per L.

Metodo della massima Verosimiglianza

Consiste nel trovare i punti di massimo della #Funzione di verosimiglianza imponendo

dLdθ(θ,x)=!0

esempio

Sia PN(μ,1)
X=(X1,,Xn) dove XkN(μ,1)k

Dato il campione x=(x1,,xn), voglio determinare μ^MV, ossia la stima di μ ottenuta con il #Metodo della massima Verosimiglianza


Scrivo la [[#Funzione di verosimiglianza]]
L(μ,x)=fX(x,μ)==k=1nfXk(x,μ)==k=1ne(xkμ)222π==1(2π)ne12k=1n(xkμ)2
Posso ora derivarla e imporre uguale a 0:

dLdμ=ddμ1(2π)n2e12k=1n(xkμ)2=1(2π)n2ddμe12k=1n(xkμ)2==1(2π)n2e12k=1n(xkμ)2(122k=1n(xkμ))==1(2π)n2(k=1n(xkμ))e12k=1n(xkμ)2

Impongo uguale a zero per trovare i massimi e ottengo:

μ^MV=1nk=1nxk=x

Notiamo che lo stimatore di massima verosimiglianza è proprio la media campionaria.
La media campionaria è quindi la migliore stima per la media vera.

esempio

Sia PExp(λ),λ>0
X=(X1,,Xn) dove XkExp(λ)

Dato il campione x=(x1,,xn), voglio determinare λ^MV, ossia la stima di λ ottenuta con il [[#Metodo della massima Verosimiglianza]]


Scrivo la [[#Funzione di verosimiglianza]]
L(λ,x)=fXk(x,λ)==λneλk=1nxk
Per cui derivo e impongo uguale a 0.

ddλL=nλn1eλk=1nxk+λn(eλk=1nxkk=1nxk)=!0
Posso riscrivere k=1nxk=nx.
ddλL=nλn1eλnx+λn(eλnxnx)=!0eλnx(nλn1λnnx)=!0nλn1=λnnxnλn1λn=nxλ1=x

per cui la stima di λ, λ^MV è
λ^MV=1x

teorema

Data una funzione monotona h, il punto di massimo per la [[#Funzione di verosimiglianza]] L(θ,x) coincide con il punto di massimo di h(L(θ,x))

In particolare questa affermazione è vera se h=log.

GraficoMaxVerosimiglianzaLog.png

Questo ci permette di semplificare di molto i calcoli

esempio

Ricalcoliamo λ^MV applicando il teorema appena enunciato

L(λ,x)=λneλnx
calcolo
ln(L(λ,x))=ln(λn)+ln(eλnx)=nln(λ)λnx
Derivo e impongo uguale a zero

ddλln(L(λ,x))=nλnx=!0n(1λx)=01λ=x
Quindi lo stimatore di massima verosimiglianza è
λ^MV=1x

❗❗❗❗❗❗❗❗❗❗❗❗❗
❗❗❗ COMPLETARE ❗❗❗
❗❗❗❗❗❗❗❗❗❗❗❗❗

Altri esempi

Metodo dei momenti

teorema

Metodo di stima parametrica dei momenti, dei parametri θRn. Devo risolvere il sistema:
MR=mrr=1,2,,N

Dove:

  • MR: [[#Momento teorico]] di ordine R
  • mr: [[#Momento campionario]] di ordine r
esempio

Data una popolazione distribuita come una normale fornire una stima del parametro μ con il #Metodo dei momenti:
PN(μ,σ2=2)


Il parametro è a una sola dimensione, quindi basta un'equazione.
M1=m1EX=xRxfX(x)dx=x

Essendo una normale, la media teorica è proprio μ, per cui la stima è data dalla media campionaria:
μ^MOM=x

Variabile aleatoria Stimatore

#ArgomentoFondamentale

Data una popolazione P caratterizzata dal parametro θ.

Abbiamo definito la stima di θ il valore θ^, ricavabile dal [[#Metodo della massima Verosimiglianza]] o dal [[#Metodo dei momenti]].
θ^=g(x) è una funzione dell'osservazione x=(x1,x2,,xn): campione della popolazione, di numerosità nN.

nθ^θ

Si ha quindi che Θ^ è la variabile aleatoria stimatore.
Θ^=g(X) dove X=(X1,X2,...,Xn) è la variabile aleatoria di x e XkPk.

Proprietà desiderabili dello stimatore

proprietà desiderabili dello stimatore

Le proprietà desiderabili della [[#Variabile aleatoria Stimatore]] sono la

  • [[#Correttezza]]
  • [[#Consistenza]]

Correttezza

correttezza

EΘ^=θ

Consistenza

consistenza

limnVar(Θ^)=0P(Θ^=θ)=1
Con n= Numerosità campionaria