Questo sito contribuisce alla audience di

Che cos'è la fisica

Errori nelle misure

In fisica la misura rappresenta un'operazione fondamentale, e come tale deve essere il più precisa possibile. Quindi il metodo e gli strumenti di misura devono essere adeguati al tipo di misurazione da eseguire. Per misurare una grandezza fisica bisogna fare uso di strumenti, ma anche le operazioni di misura più accurate eseguite con le tecniche più avanzate e con gli strumenti più moderni non permettono di eliminare completamente gli errori, al massimo di limitarli. Gli errori che si possono commettere nell'eseguire una misura sono di due tipi, gli errori sistematici e gli errori accidentali.

Gli errori sistematici dipendono dal limite dello strumento o del metodo usato e sono solitamente i più semplici da eliminare, perché hanno un'origine precisa che, una volta individuata, permette di eliminare o ridurre gli errori stessi. Un errore sistematico avviene sempre nello stesso senso, cioè sempre per eccesso o per difetto: il valore trovato sarà sempre maggiore del valore vero oppure sempre minore. Se per esempio un cronometro va avanti o rimane indietro, commetteremo un errore sistematico, che potrà essere eliminato conoscendo l'intervallo di tempo che lo produce.

Gli errori accidentali dipendono invece da una serie di cause non esattamente individuabili e non ben definite, variano in modo imprevedibile e possono agire per eccesso o per difetto sulla misura. Alcune volte agiranno aumentando il valore della misura, altre riducendolo. Nella misura del tempo impiegato da un oggetto a percorrere una certa distanza, per esempio, è molto difficile far coincidere l'istante della partenza dell'oggetto con l'istante in cui parte il cronometro, e la stessa cosa accadrà al momento dell'arrivo. La ripetizione dell'esperimento darà quindi origine di volta in volta a valori leggermente diversi.

La teoria degli errori

Misurare una grandezza fisica implica dunque la possibilità di commettere un errore. Per questo motivo, dovendo conoscere il valore della misura di una grandezza, anziché ricercare il valore esatto si ricorre al suo valore più attendibile, quello cioè che ha la maggiore probabilità di verificarsi. La teoria che studia il comportamento delle misure e la riduzione degli errori si chiama teoria degli errori.

Ogni misura, per essere sufficientemente accurata, deve essere eseguita più volte; nella ripetizione della misura si ottengono sempre risultati leggermente differenti: il valore della misura che più si avvicina al valore reale sarà dato dal suo valore medio, indicato con &xbar; e dato dalla somma dei valori ottenuti in n esperimenti diviso per il numero degli esperimenti:

Il risultato della misura va poi dato facendolo seguire dall'errore che lo accompagna, in modo da determinare l'intervallo di incertezza della misura stessa. Nel caso di un numero limitato di misurazioni il modo più semplice per determinare l'errore è dato dal calcolo dell'errore massimo o errore assoluto, indicato con ε e dato dalla differenza tra il valore massimo ottenuto e il valore minimo, divisa per due:

Il risultato della misura in questo caso è dato dalla combinazione tra il valore medio e l'errore assoluto, ovvero:

Se si vuole conoscere il grado di precisione con cui è stata eseguita una misura si fa ricorso all'errore relativo, che rappresenta l'incidenza dell'errore massimo in rapporto al valore della misura: si definisce pertanto errore relativo il rapporto tra l'errore massimo e la media aritmetica dei valori, espresso in genere in termini percentuali. In questo modo si stabilisce l'ordine di grandezza dell'errore, pari alla percentuale trovata del valore della misura.

Per confrontare il grado di precisione di due serie di misure occorre confrontare il loro errore relativo.

Le cifre significative

Poiché le misure delle grandezze fisiche non sono esprimibili con esattezza, occorre prestare attenzione al modo in cui si scrivono i risultati delle misure.

I due risultati 4,2±0,1 m e 4,20±0,01 m non sono uguali, ma differiscono per il numero di cifre significative: il primo ha una precisione di due cifre significative, il secondo di tre cifre significative. L'ultima cifra significativa, quella più a destra, deve avere lo stesso ordine di grandezza dell'errore di misura.

Quando si eseguono operazioni tra grandezze occorre tener conto delle cifre significative. In particolare, quando si sommano (o si sottraggono) due grandezze, il risultato deve essere scritto in modo tale che l'ultima cifra significativa sia ottenuta come somma (o differenza) di sole cifre significative. Quando si moltiplicano (o si dividono) due grandezze, il numero delle cifre significative del risultato è uguale al minimo numero di cifre significative dei valori iniziali.

Divertiti con i quiz di Sapere.it!

Su Sapere.it sono arrivati i quiz!

Tantissime domande a risposta multipla per sfidare amici e famigliari in ogni campo dello scibilie: geografia, cinema, musica, sport, scienze, arte, architettura, letteratura, storia e curiosità, queste le categorie che metteranno alla prova la tua conoscenza.

Comincia subito a giocare coi i quiz di Sapere.it!

Enciclopedia De Agostini

Dall’esperienza De Agostini, un’enciclopedia ancora più vicina alle tue esigenze.

Agile, utile, dinamica, sempre a portata di mano, per esplorare, approfondire, conoscere, ricercare, aggiornarsi: oltre 185.000 termini che soddisfano la tua voglia di conoscenza quotidiana.

Vai all'Enciclopedia