DHTML JavaScript Menu Courtesy of Milonic.com

Genova        
Numero 37, anno X        
Agosto 2010        

Google: bing:  

 

di Diego Rosa

Parte seconda

 

Algebra probabilistica (nella definizione assiomatica)

Siano A, B,C.. degli eventi (accadimenti, numeri o risultati di una misura, risultati di un sorteggio..). A tali eventi si possono associare degli insiemi o meglio dei sottoinsiemi dell’insieme detto universo o spazio degli eventi i cui elementi sono tutti i possibili accadimenti o risultati di misura. Tale universo è determinato dagli accadimenti o fenomeni che si vogliono registrare o misurare . Nel lancio del dado, ad esempio, l’universo è l’insieme dei numeri delle 6 facce se vogliamo registrare il singolo numero di una faccia che esce ad ogni lancio, alla coppia pari o dispari ( insieme di 2 elementi) se ci interessa l’uscita di un pari o di un dispari. Assimilando gli eventi a dei sottoinsiemi possiamo definire delle operazioni proprie della teoria degli insiemi. In particolare all’evento impossibile si può associare il sottoinsieme vuoto = Φ, a quello certo l’insieme universo U. Ancora all’evento che si verifica esclusivamente se non si verifica l’evento A, si può associare la famiglia dei sottoinsiemi che costituiscono il complemento di A rispetto all’universo, denotato Ac. Ancora all’evento costituito dal verificarsi di A oppure di B la somma logica od unione dei loro sottoinsiemi, denotata AUB ed a quello costituito dal verificarsi di A e B il prodotto logico o intersezione dei loro sottoinsiemi, AB.
Dato un universo U, le famiglie di sottoinsiemi in esso contenute che godono di certe proprietà che le definiscono come "σ algebra" costituiscono un "campo di eventi".

Tali proprietà sono:

1) U e Φ (insieme vuoto) fanno parte della famiglia

2)L’unione U e l’intersezione di 2 o più elementi della famiglia appartengono alla famiglia stessa

3) il complemento rispetto ad U di ogni elemento della famiglia, fa parte della famiglia.

Dato un campo di eventi ad ogni evento o sottoinsieme E si può assegnare un numero reale P(E) che definisce la probabilità, funzione di E.

Si ha per ipotesi assiomatica:

1) P(E)≥0 ; P(U) = 1

Se gli eventi A e B sono incompatibili cioè (AB)= Φ (insieme vuoto)

2) P(AUB)= P(A)+ P(B)

Utilizzando tali ipotesi si può dedurre:

3) 0 ≤P(A) ≤1

4) P(Φ) = 0

5) P(AC) = 1-P(A) , AC = complemento di A rispetto ad U

6) P(A-B) = P(A) - P(B)

7) (AB) = probabilità di A e B = P(A)*P(B), se gli accadimenti A sono indipendenti da quelli B

8) (AUB)= probabilità di A o B = P(A)+P(B) - P(AB),

poiché AUB = AU(B-AB) = AUB – (AB)

Ed ancora per più elementi Ai

per r e s due qualunque valori diversi di i. Se gli Ai costituiscono l’universo si ha anche

Se la probabilità di A è influenzata dal verificarsi o meno dell’elemento B, si definisce probabilità condizionata P(A/B) la probabilità del verificarsi di A nell’ipotesi che B si sia verificato.

in tal caso si ha:

Se la probabilità di A è indipendente da B, P(A/B) = P(A) e si ha come sopra indicato

P(AB)= P(A)* P(B)

Notiamo ancora che simmetricamente:

11) P(AB)= P(A)*P(B/A)

Se lo spazio degli eventi U è suddiviso in sottoinsiemi-evento due a due ad intersezione nulla (eventi tra loro reciprocamente indipendenti) Hi :

Si ha:

Dalle 10) ed 11) abbiamo ancora;

14) P(B/A)*P(A) = P(B)*P(A/B) da cui

Ponendo B = Hi ed utilizzando la 12) otteniamo


Rev. Thomas Bayes

E’ la celebre formula Formulata dal Rev. Thomas Bayes, pubblicata nel 1763 da R. Price e ripresa da Laplace nel 1774.

Se A è un evento determinato da n possibili cause H1, H2 ,..Hi,..Hn e la probabilità a priori di accadimento di Hi è P(Hi), la probabilità che verificatosi A la causa sia da attribuire ad Hi è proporzionale al prodotto della probabilità P(Hi) per la probabilità "P(A/Hi)" che la causa Hi determini A.

L’interpretazione assiomatica conduce a risultati congruenti a quelli dati dall’interpretazione frequentista ad esempio dalla 9’) se gli n elementi Ai sono equiprobabili abbiamo P(Ai) =1/n e se m su n sono quelli favorevoli la probabilità di un caso favorevole è m*P(Ai)= m/n. Per quanto attiene alla probabilità condizionata se la frequenza di accadimento contemporaneo di A e B è k e quella di B è m la frequenza condizionata P(A/B) = k/m come quanto è indicato dalla teoria assiomatica.

 

 

Variabili casuali e distribuzioni statistiche

Se una variabile X può assumere i valori x1, x2,.., xn con probabilità risp.: P(x1), P(x2)..., P(xn)

 P(X1)+P(X2)...+P(Xn) = 1, X è definita quale variabile causale.

Il valor medio di X, E(X) è la media aritmetica ponderata attraverso P(Xi):

Se le probabilità sono tutte uguali, è dato dalla media aritmetica

17’) = x1+x2+...+xn

La quantità X’ = X - è la variabile casuale ridotta con media = 0

Il valor medio di X corrisponde alla speranza matematica nella interpretazione soggettivista della probabilità, ed è pari al prodotto del guadagno possibile del giocatore per la probabilità di realizzarlo.

La varianza di X è data da:

18) σ2 = E((X-)2)

La sua radice è lo scarto quadratico medio

19) σ = [(x1-)2 P(x1)+ (x2-)2 P(x2)+…+ (xn-)2 P(xn)]1/2

Se le P(xi) sono equiprobabili si ha più semplicemente

20) σ = [[(x1-)2 + (x2-)2 +…+ (xn-)2]/n]1/2

La probabilità P(x) è una funzione della variabile aleatoria x ed è denominata anche distribuzione. Sommando i valori P(xi) si ottiene la funzione detta di ripartizione o degli accumuli di probabilità.

Si ha:

Se la variabile casuale X assume valori numerici continui x corrispondenti ad es. ai punti di un segmento di retta o della stessa retta reale (costituita dai numeri razionali ed irrazionali), si definisce densità di probabilità la funzione di x, f(x) tale che si abbia detta Pr la probabilità della variabile X a situarsi tra x e x+Δx

f(x) è dunque la derivata della ripartizione della probabilità che è data da :

Deve essere

anzi ogni funzione a valori reali integrabile (secondo Lebesgue) tale che valga l’integrale 23)
o l’ equivalente esteso al campo di esistenza di f(x) può essere considerata una densità di probabilità.

 

La distribuzione binomiale

La probabilità del verificarsi di un dato evento e durante una prova, una verifica, come , ad esempio, un dato numero nel lancio di un dado, sia p, il non verificarsi (evento n) q = (1-p). Il calcolo combinatorio ci consente di determinare la probabilità che nel corso di n prove o verifiche, l’evento si presenti k volte. La probabilità di una determinata sequenza di k eventi e ed (n-k) eventi n ad es. eeneneenn..,essendo gli eventi tra loro statisticamente indipendenti, sarà : ppqpqppnn..cioè pk (1-p)n-k (per la proprietà commutativa ed associativa del prodotto). Tutte le sequenze che danno k volte e sono favorevoli, e queste sono esattamente le combinazioni k a k di n numeri pari a .

 

Si ha :

La ripartizione (probabilità cumulata) è data 

Risulta un valore medio E(Pnk)= np ed una varianza σ2 = np(1-p)

La somma con n = intero qualsiasi è , come deve essere =1 rappresentando lo sviluppo di Newton della potenza
na di [p+(1-p)] cioè di 1 = 1.

 

Distribuzione di Poisson


Siméon Denis Poisson

La distribuzione binomiale quando n diventa molto grande ed al contrario p molto piccola in modo tale che il valor medio np converga verso un valore finito λ, tende alla distribuzione di Poisson

25) p(k) = (λk e )/k!

Così chiamata dal matematico, fisico e statistico francese S.D. Poisson

Il valor medio e la varianza di k è sono entrambi = λ

La ripartizione di p(k), P(k)rip risulta come sempre = 

Per i = ∞ abbiamo, tenendo conto che dall’analisi eλ=1+λ/1+λ2/2!+..+λn/n!+ .. ,
e sostituendo nella 25)

 

 


Fig. 1 - Andamenti della distribuzione di Poisson
Per alcuni valori del valore medio λ