Beste mensen,
Op de afgelopen SGG-bijeenkomst stelde ik de vraag hoe het nu zit met het verschil van 25/50 fps en 30/60 fps. Ik werd door Cuno terecht naar het forum verwezen; hierbij dus. Naar mijn idee (en niet meer dan dat) heeft het te maken met de netwerkfrequentie die wij hebben of in de Amerikaanse landen, respectievelijk 50 Hz en 60 Hz. Zo werkt de video op mijn Sony camera met 50 fps; ik veronderstel omdat ik deze in Nederland gekocht heb. Toch hoor ik dat er soms aangeraden wordt om met 60 fps te werken. Dus mijn vraag: wat is wijsheid in deze en waarom?!
In afwachting,
Chris Karman
25/50 of 30/60 fps?
- Cuno Wegman
- Berichten: 730
- Lid geworden op: vr 15 feb 2013, 16:25
- Contacteer:
Re: 25/50 of 30/60 fps?
Hallo Chris,
Traditioneel zijn er twee bronnen voor "videobeelden": televisie (waaronder ook vidocamera's) en computer.
Televisiebeelden hebben traditioneel een beeldfrequentie die een relatie heeft met de frequentie van het lichtnet: 50 Hz in Europa, 60 Hz in Amerika (en Azië).
In Europa leidde dat voor kleurentelevisie tot het PAL-signaal (25 beelden per seconde, verdeeld in 50 halve beelden per seconde, in moderne schrijfwijze: 25i, met de i van "interlaced": de manier waarop de 50 halve beelden met elkaar verweven zijn om een volledig beeld te vormen).
En in Amerika en Azië tot NTSC met 30 beelden per seconde (eigenlijk: 29,97) op vergelijkbare wijze, dus 30i.
Hierover is veel informatie te vinden op internet, dus daar ga ik niet dieper op in.
En dan laat ik de bioscoopfrequentie van 24 beelden per seconde nog even achterwege.
Door verbeteringen in de beschikbare techniek zijn de halfbeelden in de loop der tijd hele beelden geworden, waardoor 50 en 60 hele beelden per seconde mogelijk zijn geworden (50p en 60p; p = progressief, hele beelden).
De computer heeft eigenlijk altijd een eigen weg gevolgd, met variaties, waarbij eigenlijk 30 en 60 lange tijd de norm waren. Voor gamers is tegenwoordig 100 en hoger het streven, om te komen tot meer realistische bewegingen van personages in de games.
Televisies en beamers voor video waren in Europa lange tijd alleen geschikt voor 25 en 50. Computerschermen en beamers voor computerbeelden waren op 30 en 60 ingesteld.
Tegenwoordig kunnen eigenlijk alle beamers en de meeste televisies met 25/30/50/60/... overweg.
Mediaspelers volgen over het algemeen de normen voor televisies (huishoudelijke apparatuur). Maar omdat veel producten ook wereldwijd verkocht worden, worden ook steeds meer normen ondersteund.
Het is een kwestie van uitproberen welke beeldfrequentie in jouw situatie het beste resultaat oplevert.
Met een hogere frequentie kunnen bewegingen en beeldovergangen vloeiender worden weergegeven, maar dat kost meer capaciteit van het weergave-apparaat en levert grotere bestanden (om meer beelden per seconde te tonen zal bij het maken van het videobestand de bitrate ook hoger moeten zijn).
Hou bij het bepalen van de beeldfrequentie voor het eindproduct ook in de gaten wat de beeldfrequentie van het bronmateriaal is (als je video gebruikt bi het maken van series): het omrekenen (van 25 naar 60 om maar wat te noemen) kan leiden tot schokkerige bewegingen, onscherpe tussenbeelden...
Of dit optreedt, en hoe zichtbaar het is, is weer afhankelijke van het beeldmateriaal zelf en hoe je het gebruikt.
De wereld verandert continu, maar in het "verleden" werden de beste resultaten gemeld met 60bps als de video met de computer wordt vertoond, en 50 als de serie op een tv wordt vertoond. Maar experimenteer: elke combinatie van apparaten gedraagt zich anders.
Traditioneel zijn er twee bronnen voor "videobeelden": televisie (waaronder ook vidocamera's) en computer.
Televisiebeelden hebben traditioneel een beeldfrequentie die een relatie heeft met de frequentie van het lichtnet: 50 Hz in Europa, 60 Hz in Amerika (en Azië).
In Europa leidde dat voor kleurentelevisie tot het PAL-signaal (25 beelden per seconde, verdeeld in 50 halve beelden per seconde, in moderne schrijfwijze: 25i, met de i van "interlaced": de manier waarop de 50 halve beelden met elkaar verweven zijn om een volledig beeld te vormen).
En in Amerika en Azië tot NTSC met 30 beelden per seconde (eigenlijk: 29,97) op vergelijkbare wijze, dus 30i.
Hierover is veel informatie te vinden op internet, dus daar ga ik niet dieper op in.
En dan laat ik de bioscoopfrequentie van 24 beelden per seconde nog even achterwege.
Door verbeteringen in de beschikbare techniek zijn de halfbeelden in de loop der tijd hele beelden geworden, waardoor 50 en 60 hele beelden per seconde mogelijk zijn geworden (50p en 60p; p = progressief, hele beelden).
De computer heeft eigenlijk altijd een eigen weg gevolgd, met variaties, waarbij eigenlijk 30 en 60 lange tijd de norm waren. Voor gamers is tegenwoordig 100 en hoger het streven, om te komen tot meer realistische bewegingen van personages in de games.
Televisies en beamers voor video waren in Europa lange tijd alleen geschikt voor 25 en 50. Computerschermen en beamers voor computerbeelden waren op 30 en 60 ingesteld.
Tegenwoordig kunnen eigenlijk alle beamers en de meeste televisies met 25/30/50/60/... overweg.
Mediaspelers volgen over het algemeen de normen voor televisies (huishoudelijke apparatuur). Maar omdat veel producten ook wereldwijd verkocht worden, worden ook steeds meer normen ondersteund.
Het is een kwestie van uitproberen welke beeldfrequentie in jouw situatie het beste resultaat oplevert.
Met een hogere frequentie kunnen bewegingen en beeldovergangen vloeiender worden weergegeven, maar dat kost meer capaciteit van het weergave-apparaat en levert grotere bestanden (om meer beelden per seconde te tonen zal bij het maken van het videobestand de bitrate ook hoger moeten zijn).
Hou bij het bepalen van de beeldfrequentie voor het eindproduct ook in de gaten wat de beeldfrequentie van het bronmateriaal is (als je video gebruikt bi het maken van series): het omrekenen (van 25 naar 60 om maar wat te noemen) kan leiden tot schokkerige bewegingen, onscherpe tussenbeelden...
Of dit optreedt, en hoe zichtbaar het is, is weer afhankelijke van het beeldmateriaal zelf en hoe je het gebruikt.
De wereld verandert continu, maar in het "verleden" werden de beste resultaten gemeld met 60bps als de video met de computer wordt vertoond, en 50 als de serie op een tv wordt vertoond. Maar experimenteer: elke combinatie van apparaten gedraagt zich anders.
AVé,
Cuno
Cuno
-
- Berichten: 38
- Lid geworden op: wo 11 dec 2013, 21:45
Re: 25/50 of 30/60 fps?
Hallo Cuno,
Even voor de duidelijkheid: ik heb dit bericht al gelezen vlak na jouw publicatie, had toen geen tijd om te reageren. Heb toen later gereageerd, maar zie nu dat deze reactie de mist is ingegaan..... Excuses daarvoor. Nu dus een vrije vertaling van m'n eerdere reactie.
Te beginnen met jou te bedanken voor je uitleg, het is mij denk ik duidelijk. Toch nog een reactie om te kijken of ik het goed heb begrepen.
In de beginfase werden opnames getoond met TV's. Om te synchroniseren werd gebruik gemaakt van de 50 of 60 Hz netspanningsfrequentie in respectievelijk Europa en USA (een grove indeling natuurlijk). Later, toen de digitale techniek zijn intrede deed kon de synchronisatie plaatsvinden in de digitale apparatuur die een eigen klok hadden en daarmee veel frequenties kon produceren waardoor zij niet afhankelijk waren van het lichtnet; dus ook 50 en 60 Hz. Nu kan je dus beide frequenties gebruiken, de apparatuur herkent het en past zich aan. Het enige waar je tegenaan kan lopen, omdat er een tweedeling is, is dat je twee verschillende frequenties in een "film" kan krijgen wanneer je zelf met 25/50 fps werkt en je een combinatie maakt met een andere "film" die met 30/60 fps is gemaakt; dat wringt dus. Hetzelfde kan je krijgen wanneer je een filmopname maakt met 30/60 fps in het donker waar een lamp brandt met 50 Hz (bijv. een reclamebord). Dit lijkt mij in het kort de situatie nu. Het zou mij dus logisch lijken dat wij Europeanen met 25/50 en tegenwoordig ook met 100 fps werken en alleen ons moeten realiseren dat we problemen krijgen wanneer we gaan combineren met 30/60 fps. Mijn camera ("Europese" Sony) heeft standaard 25/50/100 fps, een afgeleide van de 50 Hz dus, en geen 30/60/120 Hz.
Ben benieuwd naar eventuele correcties.
Met vriendelijke groet,
Chris Karman
Even voor de duidelijkheid: ik heb dit bericht al gelezen vlak na jouw publicatie, had toen geen tijd om te reageren. Heb toen later gereageerd, maar zie nu dat deze reactie de mist is ingegaan..... Excuses daarvoor. Nu dus een vrije vertaling van m'n eerdere reactie.
Te beginnen met jou te bedanken voor je uitleg, het is mij denk ik duidelijk. Toch nog een reactie om te kijken of ik het goed heb begrepen.
In de beginfase werden opnames getoond met TV's. Om te synchroniseren werd gebruik gemaakt van de 50 of 60 Hz netspanningsfrequentie in respectievelijk Europa en USA (een grove indeling natuurlijk). Later, toen de digitale techniek zijn intrede deed kon de synchronisatie plaatsvinden in de digitale apparatuur die een eigen klok hadden en daarmee veel frequenties kon produceren waardoor zij niet afhankelijk waren van het lichtnet; dus ook 50 en 60 Hz. Nu kan je dus beide frequenties gebruiken, de apparatuur herkent het en past zich aan. Het enige waar je tegenaan kan lopen, omdat er een tweedeling is, is dat je twee verschillende frequenties in een "film" kan krijgen wanneer je zelf met 25/50 fps werkt en je een combinatie maakt met een andere "film" die met 30/60 fps is gemaakt; dat wringt dus. Hetzelfde kan je krijgen wanneer je een filmopname maakt met 30/60 fps in het donker waar een lamp brandt met 50 Hz (bijv. een reclamebord). Dit lijkt mij in het kort de situatie nu. Het zou mij dus logisch lijken dat wij Europeanen met 25/50 en tegenwoordig ook met 100 fps werken en alleen ons moeten realiseren dat we problemen krijgen wanneer we gaan combineren met 30/60 fps. Mijn camera ("Europese" Sony) heeft standaard 25/50/100 fps, een afgeleide van de 50 Hz dus, en geen 30/60/120 Hz.
Ben benieuwd naar eventuele correcties.
Met vriendelijke groet,
Chris Karman