Quanti GB si usano per lo streaming di un film in HD di 2 ore?
In astratto, ogni volta che vuoi conoscere la quantità di dati che stai usando per lo streaming di un video tutto quello che devi fare è moltiplicare il bitrate del video per il tempo totale di esecuzione (misurato in secondi) e dividere per 8 per ottenere una cifra finale. Se usiamo come riferimento il bitrate di 5 megabit di Netflix per i contenuti HD, 2 ore dovrebbero equivalere a 4,5 gb.
In dettaglio però... diventa un po' complicato.
Quando si guarda un film su pellicola, ogni fotogramma che passa attraverso il proiettore è un'immagine completa. Mentre è possibile produrre un file digitale non compresso che fa lo stesso, le dimensioni esorbitanti e i requisiti di elaborazione significano che non lo farete quasi mai al di fuori di un ambiente professionale dove ci si aspetta di fare un ampio lavoro di editing e post processing prima di rilasciare un taglio finito. Qualsiasi cosa venga trasmessa in streaming farà un uso pesante di algoritmi di compressione per ridurre la larghezza di banda richiesta per trasmetterla - e ci sono un'abbondanza di fattori che vanno a capire quanti dati vengono consumati da un video compresso.
In primo luogo, ci sono due tipi fondamentali di compressione: bitrate fisso e bitrate variabile. Il bitrate fisso ha il vantaggio di non sorprendere mai la vostra infrastruttura con un'improvvisa impennata nella quantità di dati che devono essere spinti, ma soffre del fatto che spesso state usando più dati di quelli strettamente necessari e la qualità può finire per soffrire, in particolare nelle scene in cui c'è molto movimento. La compressione a bitrate variabile generalmente vi darà il file più piccolo possibile senza compromettere la qualità, ma è molto più incline a problemi relativi ai colli di bottiglia quando il bitrate aumenta per mantenere la qualità e generalmente richiede molto tempo per produrre. Nessuno dei due è davvero ideale per lo streaming, quindi la maggior parte applica generalmente un approccio ibrido in cui si usa una codifica a bitrate variabile ma si stabilisce un limite fisso sul bitrate massimo e minimo che è considerato accettabile.
Allora, cominciamo con il funzionamento degli algoritmi di base a bitrate variabile. Quando si usa questo metodo si usano due diversi tipi di fotogrammi per fare il video: keyframes e delta frames. I fotogrammi chiave sono un'immagine completa, molto simile a quella che otterreste con le singole celle in una bobina di film. I fotogrammi delta contengono solo dati sulle parti dell'immagine che sono cambiate dall'ultimo fotogramma. Se si ha una scena che non presenta molto (o nessun) movimento o cambiamenti di illuminazione, si ottengono keyframe molto piccoli e la larghezza di banda necessaria è ridotta quasi a zero. In effetti si potrebbe teoricamente richiedere un solo keyframe all'inizio per l'intero video. Quando hai una tonnellata di dettagli e movimento in corso, l'algoritmo produrrà delta frames più dettagliati o invierà keyframes più spesso, fino al punto in cui fondamentalmente sta fornendo un master non compresso.
Ora, come detto prima questo non funziona per lo streaming. Se hai solo un singolo fotogramma chiave e questo viene perso durante il transito, l'intero video sarà composto per lo più da fotogrammi Delta vuoti (probabilmente hai già visto cosa sembra questo - ogni volta che un video che stai trasmettendo si trasforma improvvisamente in un colore piatto con strani contorni statici di oggetti in movimento, è il risultato della perdita di un fotogramma chiave). E praticamente nessuno ha abbastanza banda internet per guardare un video non compresso con un bitrate che potrebbe essere misurato in gigabyte al secondo, anche se è solo brevemente. Uno dei modi più semplici per cercare di proteggersi da entrambi questi scenari è iniziare con i fotogrammi chiave, stabilendo un limite sia all'estremità superiore che a quella inferiore per quanto spesso verrà inviato un nuovo fotogramma chiave. Quindi diciamo al nostro algoritmo che, indipendentemente dal fatto che sia necessario o meno, se sono passati 100 fotogrammi senza produrre un nuovo keyframe, allora lo farà per il 101°. E dall'altra parte, gli diciamo che ogni volta che produce un fotogramma non compresso i successivi 15 devono essere fotogrammi delta compressi, indipendentemente da come questo influisca sulla qualità dell'immagine. E ora abbiamo un file che è abbastanza prevedibile da non doverci preoccupare che crei un collo di bottiglia. Possiamo quindi classificarlo attraverso un bitrate medio per l'intero tempo di esecuzione, o semplicemente dal bitrate massimo richiesto a seconda di ciò che è appropriato per il caso d'uso specifico. La cifra fornita da Netflix all'inizio della risposta, per esempio, ci sta dicendo il bitrate massimo perché le probabilità sono buone che chiunque abbia quel tipo di velocità non avrà mai bisogno di preoccuparsi della larghezza di banda.
Il fatto è che nessuna delle due misure sarà in realtà una rappresentazione molto affidabile di quanti dati sono richiesti per uno specifico pezzo di tempo all'interno del file, e l'ultimo approccio sta presentando una figura del caso peggiore. Inoltre non fanno alcuna concessione per le ritrasmissioni o il ridimensionamento come risultato di problemi di rete. Quindi sono davvero più simili ad approssimazioni che a indicatori completamente affidabili del vostro consumo di dati.
Articoli simili
- Perché alcune persone usano "o'clock" per le direzioni, come a ore 12 (proprio di fronte), a ore 6:30 (proprio dietro), o a ore 9 (a sinistra)?
- Approssimativamente quanti gigabyte ci vogliono per guardare un film di due ore su YouTube?
- Cosa significa quando qualcuno dice 'a ore due', o 'a ore sette' per indicare una particolare direzione senza indicarla? Come funziona questo sistema?
- Quanti GB consuma un film di 3 ore guardando su YouTube?