probabilità, teorìa della-

Indice

teoria che ha avuto inizio in relazione allo studio dei giochi d'azzardo. Fra i primi studiosi che se ne occuparono si ricordano L. Pacioli, G. Cardano, G. Galilei. È però con il 1654 che si fa ufficialmente iniziare la storia della teoria quando, come riferisce M. Boldrini, il cavaliere De Méré chiese a Pascal quante volte fosse necessario “gettare una coppia di dadi perché si possa equamente scommettere uno contro uno di tirare almeno una volta un doppio sei." Pascal risolse facilmente il problema: il numero cercato è compreso fra 24 e 25 ed è precisamente 24,605”. A Pascal si aggiunsero altri nomi illustri, come i suoi contemporanei Fermat, Huygens, J. Bernoulli, che riassunse le conoscenze probabilistiche del tempo nell'opera Ars coniectandi (1713), Buffon, de Moivre. Va ascritto però a merito di Laplace l'aver organizzato teoricamente, oltre che perfezionato, il calcolo delle probabilità dedicandovi due opere fondamentali: Théorie analytique des probabilités (1812) ed Essai philosophique sur les probabilités (1814). § Della probabilità si hanno diverse concezioni che si possono riassumere nelle seguenti fondamentali. Secondo la concezione classica, che prevalse dal sec. XVII al XIX, la probabilità di un evento E è il rapporto tra il numero dei casi favorevoli al suo verificarsi e il numero dei casi possibili (somma dei casi favorevoli e di quelli contrari), essendo tutti i casi egualmente possibili. Alla definizione classica di probabilità si obietta di essere sostanzialmente circolare poiché implica la nozione di “egualmente possibile”, cioè di “egualmente probabile”, nozione quest'ultima appunto da definirsi. Secondo la concezione, talvolta denominata frequentistica, dovuta soprattutto a R. von Mises e a H. Reichenbach, la probabilità di un evento è il limite cui tende la frequenza relativa di successo via via che cresce indefinitamente il numero delle prove. A essa si ricollega la nozione prettamente statistica di probabilità identificata con la frequenza effettiva dei casi osservati (probabilità a posteriori). Una terza concezione, di cui viene trovata traccia addirittura in Carneade, ma che in tempi più vicini a noi è stata proposta da J. M. Keynes, F. P. Ramsey, H. Jeffreys e sviluppata da J. Savage e dall'italiano B. De Finetti, considera la probabilità “solo in quanto espressione dello stato d'animo di un individuo (reale o ipotetico) di fronte a eventi incerti (per lui, nel suo stato momentaneo di informazione)” (De Finetti). Essa pertanto è soggettiva prescindendo “dall'esistenza di alcunché, nella natura delle proposizioni o nel mondo dei fatti cui le proposizioni si riferiscono, che legittimi l'introduzione di un concetto più o meno analogo cui attribuire il nome di probabilità” (De Finetti). Nell'interpretazione soggettivistica la probabilità viene così definita (L. Daboni): “La probabilità di un evento E, secondo l'opinione di un dato individuo, è il prezzo p che egli stima equo attribuire all'importo unitario esigibile al verificarsi di E. La probabilità di E si interpreta allora come la quota di scommessa che un individuo – in base alle sue informazioni e opinioni – giudica equo pagare per riscuotere l'importo unitario se E si verifica (e nulla se si verifica l'evento opposto)”. Ad A. Kolmogorov si deve infine l'approccio assiomatico alla teoria delle probabilità, approccio che permette di superare tutte le precedenti formulazioni potendo le probabilità dei diversi eventi essere perfettamente arbitrarie, ma dovendo nel contempo soddisfare determinati assiomi. Tali assiomi verranno qui di seguito brevemente illustrati previo un necessario cenno all'algebra degli eventi. Un insieme S di tutti i possibili risultati di un dato esperimento è denominato spazio campione (sample space). Un evento E è un insieme di risultati o, in altre parole, un sottoinsieme di S. Un evento è detto semplice, o elementare, se non può essere scomposto in altri eventi, composto nel caso contrario; per esempio l'evento consistente nell'ottenere un numero dispari nel lancio di un dado è composto, consistendo negli eventi 1, 3, 5; l'evento consistente nell'ottenere il numero 3 è semplice. L'insieme S è pure un evento ed è detto evento certo. L'insieme vuoto ø è detto evento impossibile. L'evento contrario all'evento E è l'evento Ē ed è quello che si verifica quando non si verifica E (pertanto l'unione di E ed Ē è l'insieme degli eventi S). L'intersezione di due eventi E₁ed E₂ (E₁∩E₂) è l'evento che si verifica se si verificano sia E₁ sia E₂: esso consiste di tutti gli eventi semplici che appartengono sia a E₁ sia a E₂(i due eventi sono incompatibili se non possono verificarsi simultaneamente, cioè se non hanno eventi semplici in comune: in tale caso l'evento E₁∩E₂ è impossibile). La riunione di due eventi E₁ ed E₂ (E₁∪E₂) è l'evento che si verifica se si verificano o l'uno, o l'altro, oppure entrambi; esso consiste degli eventi semplici che appartengono ad almeno uno dei due eventi. A ogni evento E si può assegnare una misura P(E), denominata probabilità dell'evento E, se valgono i seguenti assiomi: 0≤P(E)≤1; P(S)=1; se E₁ ed E₂ sono incompatibili allora: P(E₁∪E₂)=P(E₁)+P(E₂). Ne deriva che P(ø)=0 e che P(Ē)=1-P(E). Il terzo assioma esprime quello che nella teoria classica viene denominato principio o teorema delle probabilità totali: se due o più eventi sono incompatibili, la probabilità che si verifichi almeno uno degli eventi è data dalla somma delle probabilità dei singoli eventi. per esempio, la probabilità che una carta estratta da un mazzo di quaranta sia un qualsiasi re o un fante di picche è data da 4/40 (probabilità di uscita di un re)+1/40 (probabilità di uscita di un fante di picche)=5/40. Sia ora A un evento con probabilità P(A)>0. La probabilità che un evento E si verifichi quando A si è già verificato, cioè la probabilità condizionata, o probabilità subordinata, di E dato A, in simbolo P(E/A), si definisce come segue:

da cui: P(E∩A)=P(A)∤P(E/A). Quest'ultima formula esprime il cosiddetto teorema delle probabilità composte, dimostrato per la prima volta da de Moivre: la probabilità dell'intersezione di due eventi è uguale alla probabilità condizionata di un evento, essendosi verificato l'altro, moltiplicata per la probabilità dell'altro evento. Se gli eventi sono indipendenti, cioè se P(E/A)=P(E), la formula precedente diviene:

In altri termini, la probabilità. che due o più eventi indipendenti, tali cioè che il verificarsi dell'uno non modifichi la probabilità degli altri, è data dal prodotto delle probabilità dei singoli eventi. Per esempio, la probabilità di ottenere un doppio 3 gettando due dadi è data da 1/6∤1/6=1/36. Sul teorema delle probabilità composte è costruito il cosiddetto teorema di Bayes (enunciato nell'opera An Essay towards Solving a Problem in the Doctrine of Chances, 1763) il quale afferma che “la conoscenza di un evento influisce sulla valutazione della probabilità dell'altro nello stesso senso (e rapporto) in cui agisce la conoscenza del secondo sulla valutazione di probabilità del primo” (L. Daboni). Se si considera oltre che E subordinato ad A anche A subordinato a E, il teorema di Bayes si esprime con la formula:

ovvero: . Se poi, invece di un solo evento A si considerano n eventi incompatibili A₁, A₂, ..., An, la formula assume la forma seguente:

Ancora secondo il Daboni, “le valutazioni finali P(Ai/E) sono proporzionali a quelle iniziali P(Ai) secondo certi fattori che variano con le probabilità subordinate P(E/Ai) dette verosimiglianze (delle ipotesi Ai per l'evento E)”. La moderna teoria della probabilità soggettiva (e ovviamente quella assiomatica) rifiuta la classica “legge empirica del caso”, ritenendola di carattere sperimentale, cioè deterministico, non probabilistico. Afferma infatti B. De Finetti, accettando l'impostazione bayesiana, che “l'esperienza non può mai né confermare né smentire una valutazione di probabilità ma può (dati statistici) costituire un'informazione atta a trasformare l'opinione iniziale (cioè quella di prima della loro conoscenza) nell'opinione finale (cioè quella di dopo)”. Nella sfera del determinismo cadono quindi le altre due leggi fondamentali della teoria classica, quella dei grandi numeri (o teorema di Bernoulli, enunciato nell'opera Ars coniectandi) e quella meno famosa dei piccoli numeri (o legge del caso dei fenomeni rari) dovuta al von Bortkiewicz. Secondo la legge dei grandi numeri, come spiega M. Boldrini, “dato un evento F la cui percentuale rimane costante e uguale a p, si può eseguire un numero n di prove così grande, che la differenza fra frequenza e probabilità sia inferiore, in valore assoluto, a un numero positivo ε, prefissato piccolo come si vuole”. Per la legge dei piccoli numeri, i fenomeni rari, cioè quelli che si manifestano poco frequentemente, si distribuiscono secondo l'esponenziale di Poisson.

Quiz

Mettiti alla prova!

Testa la tua conoscenza e quella dei tuoi amici.

Fai il quiz ora