Siano A, B,C.. degli eventi (accadimenti, numeri
o risultati di una misura, risultati di un sorteggio..). A tali
eventi si possono associare degli insiemi o meglio dei sottoinsiemi
dell’insieme detto universo o spazio degli eventi i cui elementi
sono tutti i possibili accadimenti o risultati di misura. Tale
universo è determinato dagli accadimenti o fenomeni che si vogliono
registrare o misurare . Nel lancio del dado, ad esempio, l’universo
è l’insieme dei numeri delle 6 facce se vogliamo registrare il
singolo numero di una faccia che esce ad ogni lancio, alla coppia
pari o dispari ( insieme di 2 elementi) se ci interessa l’uscita di
un pari o di un dispari. Assimilando gli eventi a dei sottoinsiemi
possiamo definire delle operazioni proprie della teoria degli
insiemi. In particolare all’evento impossibile si può associare il
sottoinsieme vuoto = Φ, a quello certo l’insieme universo U. Ancora
all’evento che si verifica esclusivamente se non si verifica
l’evento A, si può associare la famiglia dei sottoinsiemi che
costituiscono il complemento di A rispetto all’universo, denotato Ac.
Ancora all’evento costituito dal verificarsi di A oppure di B la
somma logica od unione dei loro sottoinsiemi, denotata AUB ed a
quello costituito dal verificarsi di A e B il prodotto logico o
intersezione dei loro sottoinsiemi, AB.
Dato un universo U, le famiglie di sottoinsiemi in esso contenute
che godono di certe proprietà che le definiscono come "σ algebra"
costituiscono un "campo di eventi".
Tali proprietà sono:
1) U e Φ (insieme vuoto) fanno parte della
famiglia
2)L’unione U e l’intersezione
di 2 o più elementi della famiglia appartengono alla famiglia stessa
3) il complemento rispetto ad U di ogni elemento
della famiglia, fa parte della famiglia.
Dato un campo di eventi ad ogni evento o
sottoinsieme E si può assegnare un numero reale P(E) che definisce
la probabilità, funzione di E.
Si ha per ipotesi assiomatica:
1) P(E)≥0 ; P(U) = 1
Se gli eventi A e B sono incompatibili cioè
(AB)=
Φ (insieme vuoto)
2) P(AUB)= P(A)+ P(B)
Utilizzando tali ipotesi si può dedurre:
3) 0 ≤P(A) ≤1
4) P(Φ) = 0
5) P(AC) = 1-P(A) , AC = complemento di A rispetto
ad U
6) P(A-B) = P(A) - P(B)
7) (AB) = probabilità di A e B = P(A)*P(B), se gli
accadimenti A sono indipendenti da quelli B
8) (AUB)= probabilità di A o B = P(A)+P(B) - P(AB),
poiché AUB = AU(B-AB) = AUB – (AB)
Ed ancora per più elementi Ai
per r e s due qualunque valori diversi di i. Se
gli Ai costituiscono l’universo si ha anche
Se la probabilità di A è influenzata dal
verificarsi o meno dell’elemento B, si definisce probabilità
condizionata P(A/B) la probabilità del verificarsi di A nell’ipotesi
che B si sia verificato.
in tal caso si ha:
Se la probabilità di A è indipendente da B, P(A/B)
= P(A) e si ha come sopra indicato
P(AB)= P(A)* P(B)
Notiamo ancora che simmetricamente:
11) P(AB)= P(A)*P(B/A)
Se lo spazio degli eventi U è suddiviso in
sottoinsiemi-evento due a due ad intersezione nulla (eventi tra loro
reciprocamente indipendenti) Hi :
Si ha:
Dalle 10) ed 11) abbiamo ancora;
14) P(B/A)*P(A) = P(B)*P(A/B) da cui
Ponendo B = Hi ed utilizzando la 12) otteniamo
Rev. Thomas Bayes
E’ la celebre formula Formulata dal Rev. Thomas
Bayes, pubblicata nel 1763 da R. Price e ripresa da Laplace nel
1774.
Se A è un evento determinato da n possibili cause
H1, H2 ,..Hi,..Hn e la probabilità a priori di accadimento di Hi è
P(Hi), la probabilità che verificatosi A la causa sia da attribuire
ad Hi è proporzionale al prodotto della probabilità P(Hi) per la
probabilità "P(A/Hi)" che la causa Hi determini A.
L’interpretazione assiomatica conduce a risultati
congruenti a quelli dati dall’interpretazione frequentista ad
esempio dalla 9’) se gli n elementi Ai sono equiprobabili abbiamo
P(Ai) =1/n e se m su n sono quelli favorevoli la probabilità di un
caso favorevole è m*P(Ai)= m/n. Per quanto attiene alla probabilità
condizionata se la frequenza di accadimento contemporaneo di A e B è
k e quella di B è m la frequenza condizionata P(A/B) = k/m come
quanto è indicato dalla teoria assiomatica.
Variabili casuali e distribuzioni statistiche
Se una variabile X può assumere i valori x1,
x2,.., xn con probabilità risp.: P(x1), P(x2)..., P(xn)
P(X1)+P(X2)...+P(Xn) = 1, X è definita
quale variabile causale.
Il valor medio di X, E(X) è la media aritmetica
ponderata attraverso P(Xi):
Se le probabilità sono tutte uguali,
è dato dalla media
aritmetica
17’)
= x1+x2+...+xn
La quantità X’ = X -
è la variabile casuale
ridotta con media = 0
Il valor medio di X corrisponde alla speranza
matematica nella interpretazione soggettivista della probabilità, ed
è pari al prodotto del guadagno possibile del giocatore per la
probabilità di realizzarlo.
Se le P(xi) sono equiprobabili si ha più
semplicemente
20) σ = [[(x1-)2 + (x2-)2 +…+ (xn-)2]/n]1/2
La probabilità P(x) è una funzione della variabile aleatoria x ed è
denominata anche distribuzione. Sommando i valori P(xi) si ottiene
la funzione detta di ripartizione o degli accumuli di probabilità.
Si ha:
Se la variabile casuale X assume valori numerici
continui x corrispondenti ad es. ai punti di un segmento di retta o
della stessa retta reale (costituita dai numeri razionali ed
irrazionali), si definisce densità di probabilità la funzione di x,
f(x) tale che si abbia detta Pr la probabilità della variabile X a
situarsi tra x e x+Δx
f(x) è dunque la derivata della ripartizione
della probabilità che è data da :
Deve essere
anzi ogni funzione a valori reali integrabile
(secondo Lebesgue) tale che valga l’integrale 23)
o l’ equivalente esteso al campo di esistenza di f(x) può essere
considerata una densità di probabilità.
La distribuzione binomiale
La probabilità del verificarsi di un dato evento
e durante una prova, una verifica, come , ad esempio, un dato numero
nel lancio di un dado, sia p, il non verificarsi (evento n) q =
(1-p). Il calcolo combinatorio ci consente di determinare la
probabilità che nel corso di n prove o verifiche, l’evento si
presenti k volte. La probabilità di una determinata sequenza di k
eventi e ed (n-k) eventi n ad es. eeneneenn..,essendo gli eventi tra
loro statisticamente indipendenti, sarà : ppqpqppnn..cioè pk
(1-p)n-k (per la proprietà commutativa ed associativa del prodotto).
Tutte le sequenze che danno k volte e sono favorevoli, e queste sono
esattamente le combinazioni k a k di n numeri pari a
.
Si ha :
La ripartizione (probabilità cumulata) è data
Risulta un valore medio E(Pnk)= np ed una
varianza σ2 = np(1-p)
La somma
con n = intero
qualsiasi è , come deve essere =1 rappresentando lo sviluppo di
Newton della potenza
na di [p+(1-p)] cioè di 1 = 1.
Distribuzione di Poisson
Siméon Denis Poisson
La distribuzione binomiale quando n diventa molto
grande ed al contrario p molto piccola in modo tale che il valor
medio np converga verso un valore finito λ, tende alla distribuzione
di Poisson
25) p(k) = (λk e-λ )/k!
Così chiamata dal matematico, fisico e statistico
francese S.D. Poisson
Il valor medio e la varianza di k è sono entrambi
= λ
La ripartizione di p(k), P(k)rip
risulta come sempre =
Per i = ∞ abbiamo, tenendo conto che dall’analisi
eλ=1+λ/1+λ2/2!+..+λn/n!+ .. ,
e sostituendo nella 25)
Fig. 1 - Andamenti della distribuzione di Poisson
Per alcuni valori del valore medio λ