Domanda:
Perché i framerate dei videogiochi devono essere molto più alti dei frame rate della TV e del cinema?
callum
2011-06-29 06:06:07 UTC
view on stackexchange narkive permalink

Sembra che i videogiochi debbano avere qualcosa come 60 fotogrammi al secondo per essere fluidi e realistici. Ma TV e film ne hanno solo 24 o 25. Perché la differenza?

I film hanno 24-25 perché Hollywood ci ha indotti a pensare che 24-25 FPS sembrino "giusti". Mi aspetto che originariamente fosse una misura di taglio dei costi (meno fotogrammi, meno spese) di qualche tipo.
+1 perché risulta che questo è un argomento davvero interessante. Dopo aver esaminato questo per la mia risposta, ho continuato a scavare per vedere se l'HDTV avesse avuto un impatto su questo (mi aspettavo un frame rate più alto a causa della qualità superiore), ma sembra che 24/25/30 sia la norma. Tuttavia, sono possibili 60 fps. Di nuovo, da Wikipedia su HDTV: http://en.wikipedia.org/wiki/High-definition_television - 720p60 e 1080p-60fps (quest'ultimo apparentemente non attualmente disponibile).
@Strix Pensavo fosse chiaro nella mia risposta, ma il motivo per cui i giochi usano 60 fps è perché erano originariamente progettati per la TV (frequenza di aggiornamento di 60 fps).
Meta topic: http://meta.gaming.stackexchange.com/questions/2466/is-this-question-about-the-history-of-cinema-and-game-console-design-decisions-on
Andando a votare fortemente contro la migrazione a GameDev. Questa non è una domanda * di interesse * per gli sviluppatori: è solo una domanda a cui lo sviluppatore è più adatto. Questo non lo rende più adatto lì, non più di [questa domanda] (http://travel.stackexchange.com/questions/448/are-there-cheap-gps-navigator-devices-with-downloadable-maps -for-the-whole-world) di Travel.SE si adatterebbe a GIS.se. Vota per mantenerlo aperto o chiuso sui suoi meriti, ma la migrazione è, IMO, un non-inizio. (Per quel che vale, il mio voto è di tenerlo aperto. È interessante, responsabile, richiede esperienza e argomento.)
Sono d'accordo con @LessPop_MoreFizz. Questa è una domanda che potrebbe interessare qualsiasi giocatore a cui interessano i frame rate.
Va menzionata la differenza tra monitor LCD e CRT?cioè, i CRT così come i vecchi televisori soffrono dell'effetto afterlight della fluorescenza (scusate se ho tradotto male)
Nove risposte:
#1
+187
DuckMaestro
2011-06-29 23:49:15 UTC
view on stackexchange narkive permalink

Due motivi:

1. Reattività dell'input

C'è una grande differenza nella sensazione del gameplay quando la risposta dell'input & avviene solo 24 volte al secondo contro 60 volte al secondo, specialmente per i giochi frenetici come gli sparatutto in prima persona.

I buffer di rete e i buffer di input sono riempiti su thread separati, il che significa che il nuovo stato dal server di gioco, o la pressione di pulsanti dal tuo gamepad, deve attendere fino alla successiva iterazione nel motore di gioco "ciclo di aggiornamento". Questa attesa può durare fino a 42 ms per 24 aggiornamenti al secondo, mentre solo 16 ms per 60 aggiornamenti al secondo. Questa è una differenza di 26 ms o circa il 25% del "ritardo" riscontrato su una connessione al server di 150 ms rispetto a una connessione al server di 50 ms.

2. Mancanza di sfocatura di movimento fisicamente accurata

Le fotocamere nel mondo reale hanno quello che viene chiamato un otturatore, che è aperto per un intervallo di tempo continuo , determinato dall '"angolo dell'otturatore" o "velocità dell'otturatore". Ad esempio, un'immagine in movimento acquisita a 24 fotogrammi al secondo potrebbe avere l'otturatore aperto per 0,02083 secondi per fotogramma (1/48 di secondo o angolo dell'otturatore di 180 °). Questo intervallo di tempo continuo cattura e fonde tutto il movimento che accade al suo interno, portando a ciò che vediamo come sfocatura di movimento.

I giochi, d'altra parte, rendono solo un momento di tempo istantaneo . Non esiste un intervallo equivalente in cui il movimento viene registrato e miscelato, e invece crei quello che è essenzialmente un campione cristallino del mondo in un particolare istante - qualcosa che non è possibile nel mondo reale. Poiché nel fotogramma renderizzato non viene registrato alcun movimento, il movimento sullo schermo può apparire a scatti a meno che la frequenza dei fotogrammi non venga aumentata per compensare (catturando più movimenti intermedi). Aumentando il frame rate si converte essenzialmente sui "frame rate" della vita reale, lasciandoci con la sfocatura di movimento biologica che otteniamo dai nostri occhi (che sono come le persiane che sono sempre aperte).

Anche se i giochi moderni dispongono di " motion blur "ora, questo cattura il motion blur solo in base a determinati presupposti e non (ancora) ricrea completamente il motion blur che vediamo nei film o nei rendering CGI di alta qualità.

Guarda un vero demo mondiale di 15 fps contro 30 fps contro 60 fps

Vedi anche su Wikipedia

+1 per la reattività dell'input. Non noti la "balbuzie" a 24 fps perché non controlli il personaggio del film.
Grazie per il voto. Aggiungerei che anche il motion blur (o la mancanza di) ha un ruolo anche quando l'input non è coinvolto. Ad esempio, guardare una demo o una scena di benchmark (in cui l'utente non ha input) a 24 FPS sembrerebbe effettivamente un po 'instabile senza alcuna sfocatura di movimento.
Questo presuppone che il gioco riceva input solo quando il frame si sta aggiornando. Non è così. L'input viene sempre segnalato, tuttavia il motion blur è d'accordo.
@GQCK, tuttavia l'input viene solitamente memorizzato nel buffer non elaborato immediatamente dalla logica di gioco (a causa del threading). Tuttavia questo è davvero oltre il punto. Potresti elaborare l'input 200 volte per frame, ma se stai aggiornando lo schermo solo 20 volte al secondo, l'utente solo * sperimenta * una reattività di 20 volte al secondo, che è ciò a cui sta arrivando il mio punto # 1.
Il commento del video incorporato è sbagliato. È chiaramente possibile vedere la differenza tra 30 e 20, figuriamoci 30 e 10. Le persone e le auto hanno movimenti più agitati; il commentatore dice che c'è una differenza minima, ma a questi bassi framerate c'è una differenza * significativa *. Da 30 a 60 a 100 sarebbe un'altra storia.
Odio ogni volta che qualcuno mi riporta a questa domanda ... Qualcuno ne ha parlato oggi durante una discussione con me e mi sono sentito obbligato a fornire due prove: 1. Il tempo di risposta visiva umana è compreso tra 100 e 140 ms. Sono rilevabili frame aggiuntivi nell'intervallo inferiore a 100 ms, ma da soli non trasmettono le informazioni abbastanza rapidamente per risposte forti (sebbene possano trarne vantaggio). Di conseguenza, vediamo un forte calo del vantaggio per i frame superiori a 30 fps. [Fonte] (http://preview.tinyurl.com/75a9sp4). Mentre il primo punto che questo post fa non è sbagliato, esagera l'effetto
Inoltre, il confronto tra il trasferimento di rete e l'inter-arrivo dei frame non è corretto. L'equazione corretta è (a-b) / ((a + b) / 2)), non (a-b). Inoltre, un ritardo di 100 ms per il trasferimento dei dati non è paragonabile a un ritardo di 24 ms per il tempo di arrivo tra i frame. 2. I videogiochi moderni forniscono motion bluring fisicamente accurato (a un LoD) tramite [pixel shader] (http://http.developer.nvidia.com/GPUGems3/gpugems3_ch27.html). Il secondo punto evidenziato da questo post è impreciso: "Il movimento è registrato nel fotogramma di rendering".
@tzenes per quanto riguarda il tuo primo commento, non sono sicuro di come sia in diretta risposta al mio primo punto. Il mio primo punto riguarda la latenza interna al gioco (e il funzionamento client-server). Qualsiasi latenza nella biologia umana, qualunque cifra possa essere, deve comunque essere aggiunta alla latenza interna inerente al motore di gioco e alla connessione client-server.
@tzenes per quanto riguarda il tuo secondo commento, puoi approfondire come stai derivando la tua formula e cosa la stai applicando nel mio esempio? Riguardo a "Inoltre un ritardo di 100 ms per il trasferimento dei dati non è paragonabile a un ritardo di 24 ms", chiarisco la relazione caratterizzandolo come circa il 25% del ritardo [...]. Infine, i videogiochi moderni ancora non forniscono un motion blur fisicamente accurato (perché il guadagno non vale i cicli della GPU), in generale, anche se alla fine è una questione di tempo, suppongo.
@Duck Il confronto tra 100 ms di latenza di trasmissione e 26 ms di tempo di interarrivo del frame non è un confronto valido. Non è il 26% del sistema visivo umano. Una latenza di rete di 150 ms può causare ritardi visivi superiori a 300 ms a causa del modo in cui il gioco interpola la posizione e la deriva tra il posizionamento del server / client. Il confronto di questi due valori può essere fuorviante.
@Duck se hai due processi ciclici non aggiungi semplicemente il loro tempo di ciclo per determinare la periodicità sottostante (cioè la latenza). Il ritardo intrinseco nel sistema di risposta umano avrà la meglio sul ritardo causato dal tempo tra gli arrivi. Questo è il motivo per cui vediamo un calo così forte delle prestazioni sopra i 15 fps (e perché la maggior parte dei benefici arriva prima dei 30 fps). Sebbene i frame aggiuntivi trasporteranno le informazioni, queste devono essere conglomerate in tempi di risposta.
@Duck, infine, i giochi moderni hanno la sfocatura del movimento. I pixel shader (rispetto a quelli vettoriali) sono economici sulle moderne GPU. Un effetto movimento è sufficientemente economico da non influire sul gioco. Il motivo per cui la maggior parte dei giochi li usa solo per il cinema è che trovi che la sfocatura del movimento in realtà infastidisce le persone (cioè in eccesso può causare nausea) Gilham'06.
Forse sarebbe meglio se riassumessi: i videogiochi moderni hanno la sfocatura del movimento e la latenza di rete ha un effetto percettivo diverso rispetto al tempo di arrivo tra i fotogrammi. Questi sono i due punti che desidero introdurre.
Spostamento automatico nella chat. [continua questa discussione in chat] (http://chat.stackexchange.com/rooms/2135/discussion-between-duckmaestro-and-tzenes)
@MirceaChirea: Chiunque può facilmente distinguere tra 30 fps e 60 fps, c'è una _enorme_ differenza di fluidità ogni volta che qualcosa si muove.Anche i 60fps a 100fps sono abbastanza evidenti, se li mostri fianco a fianco _ (o sei abituato a giocare a più di 100 fps - dopo anni di gioco a 144hz, il sub-100hz si distingue immediatamente) _.Da 100 fps a 144 fps è molto più sottile.
@BlueRaja-DannyPflughoeft, il mio commento è del 2011. Non c'erano monitor con frequenze di aggiornamento superiori a 60 Hz allora, ora 144 Hz è molto facile da trovare.Oggi è un'altra storia :)
@MirceaChirea: La capacità degli umani di vedere framerate più elevati non ha nulla a che fare con la disponibilità di monitor ... _ (nel 2011 c'erano anche molti monitor da 120+ Hz) _
@BlueRaja-DannyPflughoeft, ha * tutto * a che fare con i monitor, perché il monitor mostra quei frame.Se un monitor non riesce a visualizzare più di 60 fotogrammi al secondo, come si vedono più di 60 fotogrammi?Tu non. Gli occhi stessi non hanno una limitazione del "frame rate";è puramente il monitor che fa.A frame rate molto alti potrebbe essere * difficile da dire *, ma è diverso. E no, nel 2011, i monitor da 120 Hz o più non erano molti, neanche lontanamente comuni come oggi.Potrebbero essere stati disponibili in * alcune * parti del mondo, ma certamente non ovunque a prezzi economici come oggi.
@MirceaChirea: Non ho idea di cosa stai cercando di dire.Il fatto che gli esseri umani abbiano o meno la capacità di distinguere i 30 Hz da quelli più alti non ha assolutamente nulla a che fare con "quanto sono facilmente disponibili i monitor a più alte frequenze?"
@BlueRaja-DannyPflughoeft, non ho mai detto che gli esseri umani non sono in grado di distinguere oltre 30, 60, 100 o quale FPS - l'hai introdotto tu. Il punto è che, nel 2011, quando ho fatto il mio commento originale, non c'erano monitor (o TV) con frame rate elevato, quindi c'era poco vantaggio da un FPS più alto, specialmente nei film.Sì, 60 è meglio di 30, quindi è 144 di 60, ma diventa * difficile capire la differenza * per la maggior parte delle persone.Da 60 a 144 o da 30 a 60 è molto meno evidente di 10/20 a 60, come afferma il video nella risposta.Il video afferma che 10 FPS equivalgono a 30 FPS, il che è decisamente sbagliato.
#2
+144
tzenes
2011-06-29 08:15:50 UTC
view on stackexchange narkive permalink

Penso che ci sia un pezzo di storia che ti manca qui, quindi permettimi di provare a completarlo.

Se utilizzi 60 fps contro 24 fps su Google, trova infiniti fili di persone che chiedono qual è la differenza. La maggior parte delle persone ti dirà che i 24 fps sono stati lo standard dagli anni '20, ma il motivo è poco spiegato.

Se guardiamo indietro alla creazione del film, noteremo che i 24 fps non sono sempre stati standard. Lo stesso Edison inizialmente consigliava 48 fps affermando che "qualsiasi cosa di meno affaticherà l'occhio". I film di Edison, tuttavia, non seguivano questo standard, né sembravano affatto standardizzati (con i singoli film con una variazione maggiore di 10 fps nel corso del film). L'americano Mutoscope, uno dei rivali di Edison, in realtà utilizzava 40 fps, ma la fotocamera risultante pesava quasi una tonnellata.

Tuttavia, questi filmati veloci consumavano troppa pellicola (un lusso all'epoca) e di Il tempo di Victor Milner lo standard era di 16 fps. Più che considerazioni pratiche, molti appassionati di cinema hanno effettivamente criticato i film più veloci di 16 fps come "troppo veloci". The Birth of a Nation, ad esempio, è rallentato fino a 12 fps in alcune sezioni.

Il problema principale con il periodo tra il 1910 e il 1920 era che la velocità della pellicola variava così tanto. Anche per un singolo filmografo i loro frame rate tendevano a variare tra i film. Verso la metà degli anni '20, i cameraman avevano iniziato a essere orgogliosi della loro velocità uniforme e di essere in grado di approssimare i 16 fps (che di solito misuravano in piedi di pellicola). Nel frattempo, i teatri avevano iniziato a richiedere velocità sempre più elevate. Sebbene 16 fps possano sembrare più professionali, in un teatro affollato (o piccolo), il pubblico sembrava più in grado di decernere il film a 24 fotogrammi al secondo.

Quando Annapolis fu girato nel 1928, lo studio imponeva 24 fotogrammi al secondo. Anche se molte troupe cinematografiche non hanno apprezzato le ricariche più frequenti della telecamera (16 fotogrammi al secondo corrispondono a circa 1.000 piedi in 16 minuti). Quando le telecamere motorizzate divennero comuni, 24 fotogrammi erano diventati uno standard de facto.

È importante notare che non si trattava di una limitazione tecnica, né (spesso) finanziaria. Era il risultato finale di due forze opposte (troupe e attori vs studi cinematografici e teatri) che desideravano una velocità diversa.

Allora perché non 60?

Vale la pena notare che molti televisori ( es. NTSC) usa 59,94 fotogrammi al secondo (60 Hz / 1,001) contando l'interlacciamento. Se riduci l'interlacciamento è 29,97 fps. Ciò ha a che fare con il modo in cui viene effettivamente implementato l'interlacciamento (in particolare, per rimuovere il battito basato su fonti di alimentazione a 60 Hz trovate negli Stati Uniti). Inizialmente hanno scelto 60 fps per abbinare la fonte di alimentazione, ma questo in realtà causa l'intermodulazione (battito), che appare come uno sfarfallio.

Ci sono alcune prove che suggeriscono che l'acuità visiva umana diminuisce bruscamente dopo circa 30 fotogrammi al secondo, sebbene la maggior parte degli esseri umani possa ancora rilevare discontinuità nell'illusione di movimento fino a 60-75 fotogrammi al secondo. Inoltre, c'è una vasta libreria di prove che l'occhio umano può rilevare il jitter oltre 300 fotogrammi al secondo (Steinmetz 1996). Quindi è una domanda decente da porre, perché non 60? 60fps stesso è un artefatto di una tecnologia diversa (la televisione utilizza 30 fotogrammi al secondo e fotogrammi interlacciati).

Ok, quindi siamo stati costretti a 60 fps, perché mantenere il nostro standard a 24 fps?

Quando la realizzazione di filmati casalinghi è diventata per la prima volta una considerazione possibile (leggi videocamere VCR, mio ​​padre ne aveva una da anni, la cosa effettivamente prendeva un nastro VCR e ci scriveva), erano ottimizzate per la produzione TV (es. 60fps). Di conseguenza, i filmati casalinghi avevano una frequenza dei fotogrammi notevolmente superiore rispetto ai film standard. Sfortunatamente, questo è diventato rapidamente associato alla produzione amatoriale (che era la maggior parte dei film domestici). Considera i film che presentano un film girato con una fotocamera a mano. La maggior parte delle persone può immediatamente distinguere la velocità molto più veloce, ma più sorprendentemente è che la maggior parte delle persone ti dirà che sembra di qualità inferiore.

La verità è che pensiamo che i 24 fps abbiano un aspetto migliore perché siamo stati addestrati a farlo.

Diversi registi hanno cercato di staccarsi dai 24 fps (Peter Jackson ha girato a 48 , James Cameron a 60 anni), ma quasi sempre sono costretti a mostrare questi film al vecchio standard. La gente pensa solo che sia migliore. La velocità del film (come molte cose) è un fenomeno sociale.

Un piccolo punto aggiuntivo sono le risorse: un framerate più alto richiederebbe più spazio per memorizzarlo e un processore più veloce per decodificarlo.
Non che non mi fidi di te, tzenes, ma penso che questa risposta abbia bisogno di più fonti; è un sacco di affermazioni.
-1. Ha bisogno di più fonti e non sono convinto della pertinenza di alcune affermazioni.
Francamente, non mi sembra che questo risponda affatto alla domanda.
Non penso che la parte sui videoregistratori (per esempio) e 60 fps sia affatto accurata. NTSC è interlacciato. C'è un aggiornamento approssimativo di 60 Hz che è programmato per il ciclo di alimentazione del muro nordamericano a 60 Hz, ma il video NTSC è ~ 29 fps
@haratio, è 59,94 fotogrammi al secondo (60 Hz / 1,001) contando l'interlacciamento. Se riduci l'interlacciamento è 29,97 fps. Ciò ha a che fare con il modo in cui viene effettivamente implementato l'interlacciamento (in particolare, per rimuovere il battito basato su fonti di alimentazione a 60 Hz trovate negli Stati Uniti). Inizialmente hanno scelto 60 fps per abbinare la fonte di alimentazione, ma questo in realtà causa l'intermodulazione (battito), che appare come uno sfarfallio.
@Blue, Posso sicuramente aggiungere più fonti dove vuoi. Parte del problema che ho avuto con questa domanda è che c'è un'ENORME quantità di informazioni per rispondere alla domanda "Perché il cinema e la TV sono diversi". Forse se hai evidenziato dove vuoi queste informazioni, posso fornirle.
@Billare, la domanda originale è: "Perché il cinema e la TV sono diversi (dai videogiochi)?" Il motivo che fornisco è che il cinema utilizza 24 fps per motivi storici e la TV utilizza 60 fps per motivi di interlacciamento. I videogiochi sono stati modellati in TV e quindi utilizzano 60 fps (sebbene non interlacciati, sono fotogrammi unici). Il motivo per cui ho scritto una lunga spiegazione della storia è perché le differenze sono tutte storiche.
Sono d'accordo con tutte le critiche a questa risposta; è in gran parte non fornito e per lo più non risponde alla domanda originale, che riguardava i * giochi * e 60 fps non l'argomento generale dei 60 fps contro 24 fps nei film.
@Jeff Ho poca voglia di essere trascinato di nuovo in questa conversazione. Non penso davvero che la domanda originale fosse appropriata per questo sito. Ho fornito una serie di fonti per le mie affermazioni se ritieni che ci sia un posto che necessita di citazioni aggiuntive, probabilmente potrei scavare di più per te, ma la realtà è che non c'è niente di speciale nei giochi che denota 60fps (in effetti, molti giochi non girare a 60fps); è un punto di riferimento bloccato da un mezzo diverso. Comune, ma non standardizzato.
il titolo della domanda è "Perché i framerate dei videogiochi devono essere molto più alti dei framerate della TV e del cinema?" e non si preoccupa davvero dei 60fps. Penso che le risposte sotto a questa rispondano effettivamente alla domanda, mentre questa risponde a una domanda che non è stata posta - sui cambiamenti storici nei frame rate di film e video (videoregistratore, ecc.). Non è affatto una cattiva risposta, ma in realtà non risponde alla domanda come chiesto.
@Jeff, Penso che la risposta che ho cercato di dare (e forse non ero abbastanza esplicito) è che: a) non * hanno * bisogno * di esserlo eb) lo sono per ragioni storiche. Tuttavia, facciamo un passo indietro qui. A quali esigenze risponde questa domanda? Aiuterà qualcuno a superare il livello 5-3 di Angry Birds se il motivo dei 60fps è X? Penso che questa domanda sia in gran parte curiosa: "Sono curioso di sapere perché ..." piuttosto una questione di necessità. In questo modo è molto simile a * -rec. Forse non avrei dovuto tentare di rispondere e invece avrei dovuto provare a chiuderla.
@tzenes è rilevante perché 24fps è praticamente ingiocabile in qualsiasi tipo di gioco in cui hai bisogno di una risposta rapida (FPS, ecc.) Eppure i film sembrano a posto con quel framerate. L'intero dibattito sugli sparatutto in prima persona si presenta un'infinità di volte all'anno e deve esserci una risposta canonica.
@Jeff se 24fps non è riproducibile, allora perché i primi FPS sono andati bene a 6fps? Nel documento di Claypool (2006) ha mostrato che l'aumento delle prestazioni nell'intervallo da 30 fps a 60 fps era in gran parte minimo. Anche a 15 fps i soggetti del test sono stati in grado di mantenere un'efficienza del 70%. Inoltre, la percezione dell'impatto da parte del soggetto a> 15 fps era minima. Tuttavia, il tema del vantaggio o meno di fps più alti è diverso da "Perché 60 fps su 24 fps?" Uno è questione di ricerca, l'altro fatto storico.
#3
+59
James Skemp
2011-06-29 06:27:33 UTC
view on stackexchange narkive permalink

Odio citare la voce di Wikipedia per il frame rate, ma ha senso:

Nei moderni giochi orientati all'azione in cui i giocatori devono tracciare visivamente gli oggetti animati e reagiscono rapidamente, i frame rate compresi tra 30 e 60 FPS sono considerati accettabili dalla maggior parte delle persone, anche se possono variare in modo significativo da gioco a gioco.

Guardare film e televisione è un'attività estremamente passiva.

Giocare a un videogioco, d'altra parte, richiede una partecipazione attiva.

Tuttavia, allora hai Quanti fotogrammi possono vedere gli umani? che osserva che il il vero problema è il motion blur.

Se potessi vedere la tua mano in movimento molto chiara e nitida, i tuoi occhi dovevano farne più istantanee per renderla fluida. Se avessi un film con 50 immagini molto nitide e nitide al secondo, di tanto in tanto il tuo occhio riusciva a distinguere molti dettagli e avevi la sensazione che il film balbetti.

Pensa al moderno giochi: hai mai giocato a Quake con 18fps? Non c'è sfocatura di movimento in quei giochi, quindi hai bisogno di molti fotogrammi al secondo in più.

Stai dicendo che un framerate inferiore avrà un aspetto migliore se è presente il motion blur? Se è così, mi chiedo se qualche motore di gioco lo sfrutta, applicando il motion blur per rendere i giochi più realistici (o almeno più simili a un film), e con quali risultati!
Bene, definisci meglio :) Sembra che sembrerà più * fluido * all'occhio umano, ma non sono sicuro che la qualità sarebbe. Dalla stessa voce di Wikipedia sopra: "Senza la sfocatura del movimento realistica, i videogiochi e le animazioni del computer non sembrano fluidi come i film, anche con un frame rate più elevato. Quando un oggetto in rapido movimento è presente su due frame consecutivi, uno spazio tra le immagini sui due fotogrammi contribuisce a una notevole separazione dell'oggetto e della sua immagine residua nell'occhio. La sfocatura del movimento attenua questo effetto, poiché tende a ridurre il divario dell'immagine quando i due fotogrammi sono uniti insieme. "
@Wikiwocket; Sì, Crysis aveva un'eccellente sfocatura dello spazio sullo schermo e si vedeva. La frequenza di fotogrammi è diminuita in modo significativo, ma fintanto che è possibile mantenere una frequenza di fotogrammi sufficientemente alta per ** input ** uniforme, l'immagine risultante risulta più fluida.
Un po 'fuori tema: trovo il modo in cui Motion Blur è implementato nei giochi di oggi totalmente inutile e inquietante per gli occhi. Non giriamo sempre la testa tenendo gli occhi fissi: il più delle volte, l'occhio sceglie prima un punto, poi la testa segue fino a quel punto per alleviare il muscolo del collo, nel qual caso non si vede alcuna sfocatura tutti. Nei giochi, è diventata una tattica economica risparmiare sui calcoli della GPU.
@Wikiwocket Un altro gioco che implementa il motion blur è Resistance 3. È stato utilizzato negli sprint per diversi giochi. Passa solo inosservato
@Jeff, Non mi fiderei di quel video. Se ti fermi a: 28 e guardi il campione a 30 FPS, non è affatto come appare il motion blur naturale (nota che sembra 4 fotogrammi sovrapposti, piuttosto che una sfocatura continua - questo significa 4 diverse esposizioni con otturatore aperto / vicino tra ciascuno - qualcosa di strano nell'editing o nella post-elaborazione).
Anche se apprezzo che Jeff Atwood abbia aggiunto alla mia risposta, basata sulla risposta di @DuckMaestro's, sono tentato di annullare la modifica, soprattutto perché la risposta di Duck ora ha un video.
#4
+13
user10783
2011-06-30 09:48:52 UTC
view on stackexchange narkive permalink

Non sono un esperto in materia, ma ecco perché per me ha senso che le registrazioni del mondo reale possano essere eseguite a meno fps rispetto alle animazioni pur essendo di qualità superiore: un fotogramma animato mostra un singolo istante nel tempo mentre un fotogramma registrato mostra un breve intervallo di tempo. Non è la stessa cosa che sfocare solo parti dell'immagine con movimento.

Questo è il motivo: supponiamo che l'intervallo di tempo che ottieni in un fotogramma registrato sia di 1 millisecondo e supponiamo che l'universo funzioni a, diciamo, 1 miliardo di fps (il numero effettivo è il tempo di planck, ma non divagiamo). Quindi il fotogramma registrato è la media di 1 milione di punti di tempo in modo che il fotogramma 1 sia effettivamente basato su un'enorme quantità di informazioni. Al contrario, la cornice animata contiene solo le informazioni di un singolo istante nel tempo. Quindi non pensare al fotogramma registrato come a un solo fotogramma, consideralo come un riepilogo di un milione di fotogrammi.

Da questa prospettiva ha molto senso che l'animazione debba essere eseguita a un fps superiore a le registrazioni devono. È possibile simulare l'effetto eseguendo il computer a 1 miliardo di fps e calcolare una media fino a 24 fps. Sono sicuro che 1 miliardo di fps sarebbe eccessivo per quello scopo, e sarebbe interessante sapere a che punto si verificano i rendimenti decrescenti. Potrebbe essere un numero molto basso come 60 o 100.

Così registrato i fotogrammi sono più sfocati di quelli animati. La sfocatura nei fotogrammi registrati porta molte informazioni extra su ciò che accade tra i fotogrammi, mentre la semplice aggiunta di sfocatura a un fotogramma animato rimuove le informazioni. È simile alla differenza tra sfocatura e anti-alias, tranne per il fatto che stiamo lavorando con il tempo anziché con lo spazio.

+1 per "anti-aliasing ... with time" è un'eccellente spiegazione ultra compressa.
#5
+6
Rory Alsop
2011-06-29 13:30:59 UTC
view on stackexchange narkive permalink

Hai bisogno di framerate più alti perché la risoluzione e la chiarezza dei monitor sono molto più elevate di TV e cinema e stai cercando di individuare ogni minimo movimento o dettaglio poiché potrebbe essere fondamentale nel gioco.

La TV e il cinema hanno provato a fare affidamento sulla sfocatura e per le panoramiche lente o le conversazioni funziona bene, ma un segmento con un'azione drammatica è già un incubo. Il tremolio / sfocatura ha rovinato Avatar per me sul grande schermo.

Non puoi sfocare un gioco se vuoi fornire la chiarezza e i dettagli che le persone si aspettano su un computer, quindi devi fornire più fotogrammi in per mantenere l'illusione del movimento.

La risoluzione e la nitidezza di un monitor sono superiori a quelle del cinema? Penso che sia ora di cambiare il tuo cinema!
I cinema sono sempre un problema: la frequenza di aggiornamento è orribile, tanto che anche se porto i ragazzi ad almeno un blockbuster all'anno, nei cinema più moderni, non riesco a guardarli.
#6
+6
undi
2011-07-11 23:17:59 UTC
view on stackexchange narkive permalink

Ancor più del processo di input e della reattività, della risoluzione e degli standard ad-hoc, ci sono i picchi di framerate.

Mi sono posto la tua domanda molto tempo fa, e, sulla ricerca personale , Ho trovato questo motivo uno dei più affidabili:

Nei giochi, un carico pesante improvviso per i processori può verificarsi istantaneamente e in modo imprevedibile. Immagina un'imboscata in uno sparatutto in prima persona: in un frame, all'improvviso, possono essere calcolati decine di modelli di NPC e IA, proiettili, ecc. Questo provoca una delle cose più fastidiose che puoi incontrare durante il gioco: quel framerate cade quasi rendendo ingiocabile il tuo gioco . Sotto i picchi di framerate possono rovinare un'intera squadra finalista in un torneo professionistico.

Quei picchi di framerate potrebbero non verificarsi in televisione o nei film.

In breve, il mio punto è: non è lo standard significa framerate che è importante nel gameplay, né il massimo dei picchi, ma i possibili under-peak che potrebbero rovinare l'esperienza.

#7
+6
M carter
2011-07-29 01:20:42 UTC
view on stackexchange narkive permalink

Prima di tutto, il film è passato da 16 fps a 24 fps a causa del suono. Il suono non poteva rimanere sincronizzato a 16 fps, quindi dovevano rendere 24 fps lo standard. Da allora 24 fps è lo standard e non è cambiato a causa dei costi. Ma ora, nel mondo del digitale, potrebbe cambiare, ma i direttori della fotografia ritengono che 24 fps abbia solo quell'aspetto "filmico". Alcuni registi stanno prendendo in considerazione frame rate più elevati per i film.Peter Jackson sta girando Lo Hobbit a 48 fps, ma poiché i film vengono riprodotti a 24 fps, solo alcuni cinema possono riprodurre il film a 48 fps per catturare quella qualità extra . Tutti gli altri cinema riprodurranno un film convertito che non sarà in grado di vedere la qualità extra a 48 fps. Se riproduci qualcosa girato a 48 fps a 24 fps, verrà riprodotto due volte più lentamente.

Quindi, frame rate più alti daranno più qualità e, nel caso dei giochi per computer, non esiste uno standard a 24 fps per impedire loro di funzionare a velocità più elevate. Se l'industria cinematografica / televisiva vuole ascendere a un nuovo livello di qualità, tutto deve essere conforme a un nuovo standard che viene girato a una frequenza di fotogrammi più elevata e quindi riprodotto a una frequenza di fotogrammi più elevata.

#8
+2
Dillmo
2013-11-23 20:42:58 UTC
view on stackexchange narkive permalink

C'è un'ottima ragione per questo. Vedi, i film sono video, quindi occupano spazio video. Naturalmente, questo significa che i film più lunghi occupano più spazio. Ora, il modo in cui funzionano i film è che vengono renderizzati come fotogrammi, quindi riprodotti a un certo framerate. Di conseguenza, un film a 30 fps è più grande di un film paragonabile a 20 fps.

Poiché l'occhio umano non è in grado di distinguere realmente tra framerate superiori a 30 fps, non ha molto senso far girare un film a fps inferiori perché è più piccolo, viene renderizzato più rapidamente e le persone hanno difficoltà a capire la differenza.

Tuttavia, i videogiochi funzionano in modo diverso. Sono renderizzati in tempo reale, quindi più fps non significa più spazio. Pertanto, va bene eseguire un videogioco a fps più alti. Ai giocatori piace anche vantarsi di avere fps più alti degli altri, anche se è difficile per loro vedere la differenza.

Quindi, mentre i film devono avere fps bassi, i giochi tendono ad avere fps relativamente alti. Dopotutto, non li riguarda davvero, quindi non è necessario limitarli.

Hai ragione, ma solo nei giochi in prima persona. Devi controllare il personaggio per rendertene conto e abituarti ai framerate più alti. Le persone che tendono a ottenere 20 fps hanno difficoltà a capire la differenza (a parte gli improvvisi balbettii).
Scusa, ma questa risposta è semplicemente sbagliata.
Mafu ha ragione: molti giochi non sono riproducibili a 30 fps, ma a 60 fps sono meravigliosi.Non è "difficile vedere la differenza" - è la differenza tra godersi un gioco e non essere in grado di guardarlo.
#9
-3
SiIverTongue
2014-03-22 19:19:15 UTC
view on stackexchange narkive permalink

Pensare in modo molto più semplice su questo. Quando si tratta di film, il più delle volte è fotogramma per fotogramma. Che è creare o modificare qualcosa in ogni fotogramma inserito in uno spettacolo televisivo o in un film. Quindi, dicendo questo, nell'animazione gli animatori devono dipingere e dettagliare ogni singolo fotogramma, tuttavia con i framerate potresti essere in grado di dire che con l'animazione, fanno in modo che vengano riprodotti 24-25 fotogrammi al secondo. ma poiché nell'animazione le cose sono fatte per fotogramma, verrà mostrato qualsiasi errore, quindi in quei 25 fotogrammi di animazione, qualcuno potrebbe semplicemente dipingere la stessa cosa di nuovo in ogni fotogramma, e poi cambiare quando arriva al 25 ° fotogramma . Per quanto riguarda i giochi, le cose non sono fatte o costruite come i film o il cinema, quindi in alcuni casi invece dei fotogrammi, è solo un grande gioco di scena o di gioco. Inoltre, poiché con i giochi c'è più software e codice da inserire, devono esserci ... alcuni passaggi da compiere affinché le cose siano più fluide. In questo caso, aumentando la quantità di FPS.

Non ha senso.
Non hai davvero bisogno di animare ogni singolo fotogramma se stai girando un film.
"Quando si tratta di film, il più delle volte è fotogramma per fotogramma".E per film intendo anche animazione ...
(Perché alcune cose sono semplicemente filmate attraverso una telecamera, oppure puoi copiare e incollare un'animazione)


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...