informazióne (informatica)
dato o insieme di dati codificati e immessi in un sistema informatico. Un'informazione è tanto più importante quanto maggiormente riduce il numero di ulteriori possibilità e l'incertezza; si definisce quantità di informazioni una funzione crescente di N/n, dove N è il numero degli eventi possibili e n il numero degli elementi del sottoinsieme degli eventi indicato dall'informazione. Per motivi di praticità e per attribuire alla quantità di informazioni le proprietà delle grandezze misurabili, si è stabilito di prendere come funzione crescente la funzione logaritmica e porre per definizione la quantità di informazioni I =klog (N/n), dove k è una costante che dipende dalla scelta dell'unità di misura. Si assume come unità di misura della quantità di informazioni quella per cui n=N/2 e che riduce l'incertezza della metà. Si ha I=klog 2 da cui si ricava k=1/log 2. Utilizzando i logaritmi in base due per semplificare le formule, si ha k=1. L'unità di quantità di informazioni viene chiamata bit e la quantità di informazioni espressa in bit è I=log2(N/n). Una quantità di informazioni di 1 bit risolve l'incertezza tra due casi equiprobabili: per esempio, nel caso del lancio di una moneta, un messaggio che consenta di dire se si è realizzata testa o croce contiene la quantità di informazioni di 1 bit; analoga quantità di informazioni contiene una lettera dell'alfabeto binario, che contiene solo i due segni 0 e 1. Nei casi pratici, si presentano problemi più complessi, per cui bisogna definire la quantità di informazioni in modo più generalizzato: la quantità di informazioni è una funzione che ha le stesse caratteristiche dell'entropia introdotta in meccanica statistica, per cui viene generalmente chiamata entropia. Questa analogia non è soltanto formale poiché ogni messaggio contiene una quantità di informazioni che tende a ridurre l'incertezza e l'indifferenziazione, tale quantità di informazioni viene anche chiamata entropia negativa o neghentropia.