QNA > b > Byte A 10 Bit: Non Sarebbe Grande Se L'onnipresente Definizione Di 'Byte' Significasse 10 Bit Invece Di 8?

Byte a 10 bit: Non sarebbe GRANDE se l'onnipresente definizione di 'byte' significasse 10 bit invece di 8?

Si potrebbe sostenere che sarebbe uno spreco. Una grande quantità di ciò che immagazziniamo e trasmettiamo digitalmente è testo leggibile dall'uomo. Poiché l'intera gamma di caratteri alfanumerici e di punteggiatura è (per lo più) adeguatamente rappresentata nella capacità di un byte a 8 bit, immagazzinare o trasmettere i due bit extra senza alcuno scopo sarebbe uno spreco.

Non posso citare alcun riferimento, ma se dovessi indovinare, questa premessa ha probabilmente molto a che fare con la base del byte a 8 bit. Alcune delle prime comunicazioni digitali sono state fatte usando telescriventi che trasmettevano testo in serie. Erano incredibilmente lenti per gli standard moderni, e nemmeno così veloci per gli standard dell'epoca (50 baud era uno standard). Usavano dati a 7 bit, perché questo era adeguato a rappresentare i set di caratteri che trasmettevano. Più tardi, gli standard ASCII e EBCDIC lo hanno esteso a 8 bit. Sì, so che i set di caratteri moderni sono di natura multi-byte, ma c'è ancora un'enorme quantità di dati immagazzinati e trasmessi nella rappresentazione a singolo byte.

Nella progettazione e fabbricazione della logica digitale, una delle premesse è che si può raddoppiare la capacità di un blocco logico semplicemente usando due di alcuni componenti esistenti che comprendono il blocco. Questo promuove la scalabilità senza riprogettazione. Il raddoppio dei blocchi logici risulta nella naturale evoluzione verso potenze di due nelle dimensioni dei componenti di progettazione.

Se dovessi indovinare, i due fattori di cui sopra sono probabilmente la base principale per l'esistenza del byte a 8 bit come standard che usiamo oggi.

Di Horner

Come viene definita la magia nera nella serie di Harry Potter? :: Quali cose interessanti si possono fare con Google Now?
Link utili