martedì 10 maggio 2011

Unità di misura nell'informatica

I calcolatori moderni utilizzano, per la memorizzazione dei dati, i famosi HardDisk che altro non sono se non dei dischi magnetici impilati in grado di memorizzare i nostri dati cambiando il loro stato magnetico fra due stati diversi possibili. Questi due stati magnetici possono rappresentare i valori 0 e 1, di conseguenza un sistema di codifica dei dati di questo genere è detto binario e lo si può considerare la base dell'elaborazione automatica dell'informazione.
Ogni parte del nostro HardDisk, che assume un valore binario, viene indicato con il termine bit, da binary digit (cifra binaria), dunque come le cifre decimali sono alla base della nostra rappresentazione abituale dei numeri, così i bit sono l'unità elementare dell'informazione dei calcolatori.
A una successione di 8 bit, che combinati assieme nelle varie configurazioni di 0 e 1 possono dare 28=256 dati differenti, si da il nome di byte e di questo byte si considerano i multipli, cioè i tanto famosi kilobyte, megabyte, gigabyte, terabyte ecc. che usualmente vengono rappresentati dalle sigle KByte, MByte,GByte, TByte ecc. o più semplicemente KB, MB, GB, TB ecc. Solitamente i prefissi kilo, mega, giga, tera ecc. sono associati rispettivamente a potenze crescenti di 10, cioè 103,106,109,1012 ecc. ma nel caso binario questi multipli sono definiti in termini di potenze di 2, cercando di approssimarli ai valori comunemente utilizzati da tutti. Nella seguente tabella farò un breve riassunto delle unità di misura sperando che possa risultare utile e/o interessante per alcuni di voi:
  

Multiplo Sigla Valore
bit bit 21=2
byte Byte 28=256 (bit)
kilobyte KB 210=1024 (byte)
megabyte MB 220=1048576 (byte)
gigabyte GB 230 (byte)
terabyte TB 240 (byte)

Nessun commento:

Posta un commento