Sembra che i videogiochi debbano avere qualcosa come 60 fotogrammi al secondo per essere fluidi e realistici. Ma TV e film ne hanno solo 24 o 25. Perché la differenza?
Sembra che i videogiochi debbano avere qualcosa come 60 fotogrammi al secondo per essere fluidi e realistici. Ma TV e film ne hanno solo 24 o 25. Perché la differenza?
Due motivi:
C'è una grande differenza nella sensazione del gameplay quando la risposta dell'input & avviene solo 24 volte al secondo contro 60 volte al secondo, specialmente per i giochi frenetici come gli sparatutto in prima persona.
I buffer di rete e i buffer di input sono riempiti su thread separati, il che significa che il nuovo stato dal server di gioco, o la pressione di pulsanti dal tuo gamepad, deve attendere fino alla successiva iterazione nel motore di gioco "ciclo di aggiornamento". Questa attesa può durare fino a 42 ms per 24 aggiornamenti al secondo, mentre solo 16 ms per 60 aggiornamenti al secondo. Questa è una differenza di 26 ms o circa il 25% del "ritardo" riscontrato su una connessione al server di 150 ms rispetto a una connessione al server di 50 ms.
Le fotocamere nel mondo reale hanno quello che viene chiamato un otturatore, che è aperto per un intervallo di tempo continuo , determinato dall '"angolo dell'otturatore" o "velocità dell'otturatore". Ad esempio, un'immagine in movimento acquisita a 24 fotogrammi al secondo potrebbe avere l'otturatore aperto per 0,02083 secondi per fotogramma (1/48 di secondo o angolo dell'otturatore di 180 °). Questo intervallo di tempo continuo cattura e fonde tutto il movimento che accade al suo interno, portando a ciò che vediamo come sfocatura di movimento.
I giochi, d'altra parte, rendono solo un momento di tempo istantaneo . Non esiste un intervallo equivalente in cui il movimento viene registrato e miscelato, e invece crei quello che è essenzialmente un campione cristallino del mondo in un particolare istante - qualcosa che non è possibile nel mondo reale. Poiché nel fotogramma renderizzato non viene registrato alcun movimento, il movimento sullo schermo può apparire a scatti a meno che la frequenza dei fotogrammi non venga aumentata per compensare (catturando più movimenti intermedi). Aumentando il frame rate si converte essenzialmente sui "frame rate" della vita reale, lasciandoci con la sfocatura di movimento biologica che otteniamo dai nostri occhi (che sono come le persiane che sono sempre aperte).
Anche se i giochi moderni dispongono di " motion blur "ora, questo cattura il motion blur solo in base a determinati presupposti e non (ancora) ricrea completamente il motion blur che vediamo nei film o nei rendering CGI di alta qualità.
Guarda un vero demo mondiale di 15 fps contro 30 fps contro 60 fps
Penso che ci sia un pezzo di storia che ti manca qui, quindi permettimi di provare a completarlo.
Se utilizzi 60 fps contro 24 fps su Google, trova infiniti fili di persone che chiedono qual è la differenza. La maggior parte delle persone ti dirà che i 24 fps sono stati lo standard dagli anni '20, ma il motivo è poco spiegato.
Se guardiamo indietro alla creazione del film, noteremo che i 24 fps non sono sempre stati standard. Lo stesso Edison inizialmente consigliava 48 fps affermando che "qualsiasi cosa di meno affaticherà l'occhio". I film di Edison, tuttavia, non seguivano questo standard, né sembravano affatto standardizzati (con i singoli film con una variazione maggiore di 10 fps nel corso del film). L'americano Mutoscope, uno dei rivali di Edison, in realtà utilizzava 40 fps, ma la fotocamera risultante pesava quasi una tonnellata.
Tuttavia, questi filmati veloci consumavano troppa pellicola (un lusso all'epoca) e di Il tempo di Victor Milner lo standard era di 16 fps. Più che considerazioni pratiche, molti appassionati di cinema hanno effettivamente criticato i film più veloci di 16 fps come "troppo veloci". The Birth of a Nation, ad esempio, è rallentato fino a 12 fps in alcune sezioni.
Il problema principale con il periodo tra il 1910 e il 1920 era che la velocità della pellicola variava così tanto. Anche per un singolo filmografo i loro frame rate tendevano a variare tra i film. Verso la metà degli anni '20, i cameraman avevano iniziato a essere orgogliosi della loro velocità uniforme e di essere in grado di approssimare i 16 fps (che di solito misuravano in piedi di pellicola). Nel frattempo, i teatri avevano iniziato a richiedere velocità sempre più elevate. Sebbene 16 fps possano sembrare più professionali, in un teatro affollato (o piccolo), il pubblico sembrava più in grado di decernere il film a 24 fotogrammi al secondo.
Quando Annapolis fu girato nel 1928, lo studio imponeva 24 fotogrammi al secondo. Anche se molte troupe cinematografiche non hanno apprezzato le ricariche più frequenti della telecamera (16 fotogrammi al secondo corrispondono a circa 1.000 piedi in 16 minuti). Quando le telecamere motorizzate divennero comuni, 24 fotogrammi erano diventati uno standard de facto.
È importante notare che non si trattava di una limitazione tecnica, né (spesso) finanziaria. Era il risultato finale di due forze opposte (troupe e attori vs studi cinematografici e teatri) che desideravano una velocità diversa.
Vale la pena notare che molti televisori ( es. NTSC) usa 59,94 fotogrammi al secondo (60 Hz / 1,001) contando l'interlacciamento. Se riduci l'interlacciamento è 29,97 fps. Ciò ha a che fare con il modo in cui viene effettivamente implementato l'interlacciamento (in particolare, per rimuovere il battito basato su fonti di alimentazione a 60 Hz trovate negli Stati Uniti). Inizialmente hanno scelto 60 fps per abbinare la fonte di alimentazione, ma questo in realtà causa l'intermodulazione (battito), che appare come uno sfarfallio.
Ci sono alcune prove che suggeriscono che l'acuità visiva umana diminuisce bruscamente dopo circa 30 fotogrammi al secondo, sebbene la maggior parte degli esseri umani possa ancora rilevare discontinuità nell'illusione di movimento fino a 60-75 fotogrammi al secondo. Inoltre, c'è una vasta libreria di prove che l'occhio umano può rilevare il jitter oltre 300 fotogrammi al secondo (Steinmetz 1996). Quindi è una domanda decente da porre, perché non 60? 60fps stesso è un artefatto di una tecnologia diversa (la televisione utilizza 30 fotogrammi al secondo e fotogrammi interlacciati).
Ok, quindi siamo stati costretti a 60 fps, perché mantenere il nostro standard a 24 fps?
Quando la realizzazione di filmati casalinghi è diventata per la prima volta una considerazione possibile (leggi videocamere VCR, mio padre ne aveva una da anni, la cosa effettivamente prendeva un nastro VCR e ci scriveva), erano ottimizzate per la produzione TV (es. 60fps). Di conseguenza, i filmati casalinghi avevano una frequenza dei fotogrammi notevolmente superiore rispetto ai film standard. Sfortunatamente, questo è diventato rapidamente associato alla produzione amatoriale (che era la maggior parte dei film domestici). Considera i film che presentano un film girato con una fotocamera a mano. La maggior parte delle persone può immediatamente distinguere la velocità molto più veloce, ma più sorprendentemente è che la maggior parte delle persone ti dirà che sembra di qualità inferiore.
La verità è che pensiamo che i 24 fps abbiano un aspetto migliore perché siamo stati addestrati a farlo.
Diversi registi hanno cercato di staccarsi dai 24 fps (Peter Jackson ha girato a 48 , James Cameron a 60 anni), ma quasi sempre sono costretti a mostrare questi film al vecchio standard. La gente pensa solo che sia migliore. La velocità del film (come molte cose) è un fenomeno sociale.
Odio citare la voce di Wikipedia per il frame rate, ma ha senso:
Nei moderni giochi orientati all'azione in cui i giocatori devono tracciare visivamente gli oggetti animati e reagiscono rapidamente, i frame rate compresi tra 30 e 60 FPS sono considerati accettabili dalla maggior parte delle persone, anche se possono variare in modo significativo da gioco a gioco.
Guardare film e televisione è un'attività estremamente passiva.
Giocare a un videogioco, d'altra parte, richiede una partecipazione attiva.
Tuttavia, allora hai Quanti fotogrammi possono vedere gli umani? che osserva che il il vero problema è il motion blur.
Se potessi vedere la tua mano in movimento molto chiara e nitida, i tuoi occhi dovevano farne più istantanee per renderla fluida. Se avessi un film con 50 immagini molto nitide e nitide al secondo, di tanto in tanto il tuo occhio riusciva a distinguere molti dettagli e avevi la sensazione che il film balbetti.
Pensa al moderno giochi: hai mai giocato a Quake con 18fps? Non c'è sfocatura di movimento in quei giochi, quindi hai bisogno di molti fotogrammi al secondo in più.
Non sono un esperto in materia, ma ecco perché per me ha senso che le registrazioni del mondo reale possano essere eseguite a meno fps rispetto alle animazioni pur essendo di qualità superiore: un fotogramma animato mostra un singolo istante nel tempo mentre un fotogramma registrato mostra un breve intervallo di tempo. Non è la stessa cosa che sfocare solo parti dell'immagine con movimento.
Questo è il motivo: supponiamo che l'intervallo di tempo che ottieni in un fotogramma registrato sia di 1 millisecondo e supponiamo che l'universo funzioni a, diciamo, 1 miliardo di fps (il numero effettivo è il tempo di planck, ma non divagiamo). Quindi il fotogramma registrato è la media di 1 milione di punti di tempo in modo che il fotogramma 1 sia effettivamente basato su un'enorme quantità di informazioni. Al contrario, la cornice animata contiene solo le informazioni di un singolo istante nel tempo. Quindi non pensare al fotogramma registrato come a un solo fotogramma, consideralo come un riepilogo di un milione di fotogrammi.
Da questa prospettiva ha molto senso che l'animazione debba essere eseguita a un fps superiore a le registrazioni devono. È possibile simulare l'effetto eseguendo il computer a 1 miliardo di fps e calcolare una media fino a 24 fps. Sono sicuro che 1 miliardo di fps sarebbe eccessivo per quello scopo, e sarebbe interessante sapere a che punto si verificano i rendimenti decrescenti. Potrebbe essere un numero molto basso come 60 o 100.
Così registrato i fotogrammi sono più sfocati di quelli animati. La sfocatura nei fotogrammi registrati porta molte informazioni extra su ciò che accade tra i fotogrammi, mentre la semplice aggiunta di sfocatura a un fotogramma animato rimuove le informazioni. È simile alla differenza tra sfocatura e anti-alias, tranne per il fatto che stiamo lavorando con il tempo anziché con lo spazio.
Hai bisogno di framerate più alti perché la risoluzione e la chiarezza dei monitor sono molto più elevate di TV e cinema e stai cercando di individuare ogni minimo movimento o dettaglio poiché potrebbe essere fondamentale nel gioco.
La TV e il cinema hanno provato a fare affidamento sulla sfocatura e per le panoramiche lente o le conversazioni funziona bene, ma un segmento con un'azione drammatica è già un incubo. Il tremolio / sfocatura ha rovinato Avatar per me sul grande schermo.
Non puoi sfocare un gioco se vuoi fornire la chiarezza e i dettagli che le persone si aspettano su un computer, quindi devi fornire più fotogrammi in per mantenere l'illusione del movimento.
Ancor più del processo di input e della reattività, della risoluzione e degli standard ad-hoc, ci sono i picchi di framerate.
Mi sono posto la tua domanda molto tempo fa, e, sulla ricerca personale , Ho trovato questo motivo uno dei più affidabili:
Nei giochi, un carico pesante improvviso per i processori può verificarsi istantaneamente e in modo imprevedibile. Immagina un'imboscata in uno sparatutto in prima persona: in un frame, all'improvviso, possono essere calcolati decine di modelli di NPC e IA, proiettili, ecc. Questo provoca una delle cose più fastidiose che puoi incontrare durante il gioco: quel framerate cade quasi rendendo ingiocabile il tuo gioco . Sotto i picchi di framerate possono rovinare un'intera squadra finalista in un torneo professionistico.
Quei picchi di framerate potrebbero non verificarsi in televisione o nei film.
In breve, il mio punto è: non è lo standard significa framerate che è importante nel gameplay, né il massimo dei picchi, ma i possibili under-peak che potrebbero rovinare l'esperienza.
Prima di tutto, il film è passato da 16 fps a 24 fps a causa del suono. Il suono non poteva rimanere sincronizzato a 16 fps, quindi dovevano rendere 24 fps lo standard. Da allora 24 fps è lo standard e non è cambiato a causa dei costi. Ma ora, nel mondo del digitale, potrebbe cambiare, ma i direttori della fotografia ritengono che 24 fps abbia solo quell'aspetto "filmico". Alcuni registi stanno prendendo in considerazione frame rate più elevati per i film.Peter Jackson sta girando Lo Hobbit a 48 fps, ma poiché i film vengono riprodotti a 24 fps, solo alcuni cinema possono riprodurre il film a 48 fps per catturare quella qualità extra . Tutti gli altri cinema riprodurranno un film convertito che non sarà in grado di vedere la qualità extra a 48 fps. Se riproduci qualcosa girato a 48 fps a 24 fps, verrà riprodotto due volte più lentamente.
Quindi, frame rate più alti daranno più qualità e, nel caso dei giochi per computer, non esiste uno standard a 24 fps per impedire loro di funzionare a velocità più elevate. Se l'industria cinematografica / televisiva vuole ascendere a un nuovo livello di qualità, tutto deve essere conforme a un nuovo standard che viene girato a una frequenza di fotogrammi più elevata e quindi riprodotto a una frequenza di fotogrammi più elevata.
C'è un'ottima ragione per questo. Vedi, i film sono video, quindi occupano spazio video. Naturalmente, questo significa che i film più lunghi occupano più spazio. Ora, il modo in cui funzionano i film è che vengono renderizzati come fotogrammi, quindi riprodotti a un certo framerate. Di conseguenza, un film a 30 fps è più grande di un film paragonabile a 20 fps.
Poiché l'occhio umano non è in grado di distinguere realmente tra framerate superiori a 30 fps, non ha molto senso far girare un film a fps inferiori perché è più piccolo, viene renderizzato più rapidamente e le persone hanno difficoltà a capire la differenza.
Tuttavia, i videogiochi funzionano in modo diverso. Sono renderizzati in tempo reale, quindi più fps non significa più spazio. Pertanto, va bene eseguire un videogioco a fps più alti. Ai giocatori piace anche vantarsi di avere fps più alti degli altri, anche se è difficile per loro vedere la differenza.
Quindi, mentre i film devono avere fps bassi, i giochi tendono ad avere fps relativamente alti. Dopotutto, non li riguarda davvero, quindi non è necessario limitarli.
Pensare in modo molto più semplice su questo. Quando si tratta di film, il più delle volte è fotogramma per fotogramma. Che è creare o modificare qualcosa in ogni fotogramma inserito in uno spettacolo televisivo o in un film. Quindi, dicendo questo, nell'animazione gli animatori devono dipingere e dettagliare ogni singolo fotogramma, tuttavia con i framerate potresti essere in grado di dire che con l'animazione, fanno in modo che vengano riprodotti 24-25 fotogrammi al secondo. ma poiché nell'animazione le cose sono fatte per fotogramma, verrà mostrato qualsiasi errore, quindi in quei 25 fotogrammi di animazione, qualcuno potrebbe semplicemente dipingere la stessa cosa di nuovo in ogni fotogramma, e poi cambiare quando arriva al 25 ° fotogramma . Per quanto riguarda i giochi, le cose non sono fatte o costruite come i film o il cinema, quindi in alcuni casi invece dei fotogrammi, è solo un grande gioco di scena o di gioco. Inoltre, poiché con i giochi c'è più software e codice da inserire, devono esserci ... alcuni passaggi da compiere affinché le cose siano più fluide. In questo caso, aumentando la quantità di FPS.