Unicode

codifica universale dei caratteri, che permette di rappresentare e di rendere comprensibili ai computer decine di migliaia di simboli codificati, invece dei 256 permessi dalla codifica ASCII.Uno dei principali problemi affrontati nell'utilizzo dei computer è sempre stata la rappresentazione dei dati. Per la codifica dei caratteri di testo, all'inizio sono stati utilizzati i codici ASCII, che impiegano 8 bit per un totale di 256 combinazioni possibili. Con essa è possibile rappresentare: i caratteri maiuscoli dell'alfabeto esteso di 26 caratteri (i ventuno dell'alfabeto italiano più J, K, X, Y e W), gli stessi caratteri in minuscolo, le dieci cifre arabe per rappresentare i numeri, i segni di interpunzione come il punto, la virgola, le parentesi, i caratteri nazionalizzati (come le vocali accentate in italiano e simboli quali ü, ç, £), oltre a una serie di caratteri di controllo necessari per lavorare con stampanti e terminali video. Tuttavia, dalla codifica ASCII rimangono esclusi parecchi caratteri come quelli del cinese, del giapponese e dell'arabo, oltre a una serie di altri simboli non previsti all'inizio, come, per esempio, quello dell'Euro (€).Per avere una codifica di respiro maggiore è stato creato il codice Unicode, in cui ogni carattere viene rappresentato da due byte, per cui, grazie all'utilizzo di sedici bit (otto bit per due byte) si ottengono 65.536 combinazioni possibili. Con Unicode, si è scelto di mantenere la continuità con il passato, facendo corrispondere ai codici dei numeri da 0 a 256 esattamente quelli della codifica ASCII. Gli altri valori sono stati organizzati per gruppi, in modo da coprire le necessità locali degli alfabeti di tutti i paesi del mondo.

Quiz

Mettiti alla prova!

Testa la tua conoscenza e quella dei tuoi amici.

Fai il quiz ora