Discussion:
Wat is dat nou resolutie.
(te oud om op te antwoorden)
ben brugman
2003-10-20 21:20:38 UTC
Permalink
Als ik resolutie opzoek in de Focus Elsevier foto en film encyclopedie, kom
ik op scheidend vermogen.
Scheidend vermogen is dan zolang lijnen (zwart/wit) nog te onderscheiden
zijn heb je scheidend vermogen, de lijnen zo dicht mogelijk op elkaar
waarbij je ze nog kunt onderscheiden heet dan de resolutie.

Voor digitale camera's heb ik nog wel een idee wat het scheiden vermogen is.
1000 pixels leveren dan maximaal 0.7 maal 1000 = 700 lijnen is 350
zwartwitlijnparen.

Maar hoe zit dit nu bij Video, voor Hi8 ?
Wat is de horizontale resolutie ?
(Voor de horizontale resoluite wordt altijd over maximaal 400 lijnen
gesproken, komt
dit overeen met de door mij beschreven 200 lijnparen ? Dus komt dit ongeveer
overeen
met 400/0.7= 571 pixels in horizontale richting ?)

En wat is de vertikale resolutie ?
625 als beeldlijnen op tv ?
576 omdat die maar gebruikt worden ?
576 * .7 = 403 omdat het discrete lijnen zijn ?
Of nog minder omdat het allemaal ook nog eens geinterlaced is ?
Met hoeveel pixels zou dit overeenkomen ? (Weer die 576 ?)

Weet iemand hoe dit zit ?

ben brugman
Martin!
2003-10-21 09:07:04 UTC
Permalink
Post by ben brugman
Als ik resolutie opzoek in de Focus Elsevier foto en film encyclopedie, kom
ik op scheidend vermogen.
Scheidend vermogen is dan zolang lijnen (zwart/wit) nog te onderscheiden
zijn heb je scheidend vermogen, de lijnen zo dicht mogelijk op elkaar
waarbij je ze nog kunt onderscheiden heet dan de resolutie.
Voor digitale camera's heb ik nog wel een idee wat het scheiden vermogen is.
1000 pixels leveren dan maximaal 0.7 maal 1000 = 700 lijnen is 350
zwartwitlijnparen.
Maar hoe zit dit nu bij Video, voor Hi8 ?
Wat is de horizontale resolutie ?
(Voor de horizontale resoluite wordt altijd over maximaal 400 lijnen
gesproken, komt
dit overeen met de door mij beschreven 200 lijnparen ? Dus komt dit ongeveer
overeen
met 400/0.7= 571 pixels in horizontale richting ?)
En wat is de vertikale resolutie ?
625 als beeldlijnen op tv ?
576 omdat die maar gebruikt worden ?
576 * .7 = 403 omdat het discrete lijnen zijn ?
Of nog minder omdat het allemaal ook nog eens geinterlaced is ?
Met hoeveel pixels zou dit overeenkomen ? (Weer die 576 ?)
Weet iemand hoe dit zit ?
ben brugman
de resolutie wordt, voor computers beelschermen, simpelweg weergegeven
door het aantal pixels horizontaal x verticaal. dat is makkelijk te
vergelijken en geef ook prima weer wat het oplossend vermogen van het
beeldscherm is.

ik snap ff niet waar jij die factor 0.7 vandaan haalt, maar voor zover
ik me herrinner is PAL tv te vergelijken met 640x400 of zelfs minder. ik
denk niet dat een normale (digitale)video camera probeert om meer
informatie op band te zetten dan de tv zou kunnen weergeven.
Franc Z
2003-10-21 17:29:39 UTC
Permalink
Post by ben brugman
Als ik resolutie opzoek in de Focus Elsevier foto en film encyclopedie, kom
ik op scheidend vermogen.
Scheidend vermogen is dan zolang lijnen (zwart/wit) nog te onderscheiden
zijn heb je scheidend vermogen, de lijnen zo dicht mogelijk op elkaar
waarbij je ze nog kunt onderscheiden heet dan de resolutie.
Is die encyclopedie al digitaal-aware?
Post by ben brugman
Voor digitale camera's heb ik nog wel een idee wat het scheiden vermogen is.
1000 pixels leveren dan maximaal 0.7 maal 1000 = 700 lijnen is 350
zwartwitlijnparen.
Maar hoe zit dit nu bij Video, voor Hi8 ?
Wat is de horizontale resolutie ?
(Voor de horizontale resoluite wordt altijd over maximaal 400 lijnen
gesproken, komt
dit overeen met de door mij beschreven 200 lijnparen ? Dus komt dit ongeveer
overeen
met 400/0.7= 571 pixels in horizontale richting ?)
En wat is de vertikale resolutie ?
625 als beeldlijnen op tv ?
576 omdat die maar gebruikt worden ?
576 * .7 = 403 omdat het discrete lijnen zijn ?
Of nog minder omdat het allemaal ook nog eens geinterlaced is ?
Met hoeveel pixels zou dit overeenkomen ? (Weer die 576 ?)
Weet iemand hoe dit zit ?
Resolutie en aantallen pixels hoeven inderdaad niet hetzelfde te zijn. Een
pixel is een representatie met een bepaalde vorm, waarin de helderheid en
alle kleuren zijn gevat. Bij een camera met _een_ sensor ligt er over de
pixels van een sensor een kleurfilter in een bepaalde geometrie.

Er wordt een afbeelding gemaakt van de geometrie van de sensor op een
pixelgrid. Later wordt er van het pixelgrid weer een afbeelding gemaakt op
een TV-signaal. Ik denk niet dat simpele formules hier zo gemakkelijk van
toepassing zijn.

Het afbeelden van pixelgrid naar een TV-signaal is horizontaal anders dan
vertikaal: vertikaal is er sprake van discrete lijnen, het aantal pixels
vertikaal moet gelijk zijn aan het aantal gebruikte lijnen (de helft kan
ook, en dan lijnen herhalen... dat ziet er niet geweldig uit). Vertikaal
moet je dus 576 pixels hebben. Anders krijg je "resampling" en daar gaat de
kwaliteit niet op vooruit.

Horizontaal is het anders. Meer pixels leveren een hogere videobandbreedte
en dat is na projectie op het beeldscherm te zien als een hoger oplossend
vermogen. Het lijkt in elk geval minder discreet dan de vertikale
afbeelding.

Afgaan op de ervaringsgegevens van anderen is zo gek nog niet. DVD hoge
kwaliteit: 720 x 576 pixels. SVCD (pretendeert de resolutie van SVHS en Hi8
te kunnen verwerken) gebruikt 480 x 576 pixels.

Mijn DVD recorder schakelt in de standen waarbij drie uur of meer moet
worden opgenomen zelfs terug naar iets van 320 x 576 pixels. Dat is -in
afwezigheid van bandruis- vaak nog behoorlijk goed om aan te zien. Het is
trouwens ook een perceptueel gegeven dat het menselijk oog meer waarde hecht
aan vertikale resolutie dan aan horizontale resolutie.

Voor Hi8 zou ik het op 480 x 576 pixels houden (als dat op een DVD mag).
Post by ben brugman
ben brugman
Franc Z
erratic
2003-10-21 17:35:39 UTC
Permalink
Post by Franc Z
Voor Hi8 zou ik het op 480 x 576 pixels houden (als dat op een DVD mag).
Eigenlijk niet, alhoewel meerdere DVD spelers die resolutie toch correct
afspelen, maar de geldige PAL DVD resoluties zijn:

720x576
704x576
352x576
352x288
Franc Z
2003-10-21 17:54:31 UTC
Permalink
Post by erratic
Post by Franc Z
Voor Hi8 zou ik het op 480 x 576 pixels houden (als dat op een DVD mag).
Eigenlijk niet, alhoewel meerdere DVD spelers die resolutie toch correct
720x576
704x576
352x576
352x288
Bedankt voor de info erratic. Weet je toevallig ook nog waarom er verschil
wordt gemaakt tussen 720 en 704 pixels horizontaal? Lijkt me toch niet
significant...

Ben, dit maak de discussie over welke resolutie je moet gebruiken ook een
stuk minder ingewikkeld.

Het is niet zonder meer zo dat plaatjes met hogere resolutie ook een beter
beeld geven: Voordat het op DVD komt moet het eerst nog door een MPEG
encoder heen. Zeker bij analoge bronsignalen is het zonder meer nuttig om
wat aan ruisfiltering te doen (kost vaak wat resolutie) en de MPEG encoder
hoeft minder te comprimeren als er minder beeldpunten worden aangeboden.

Experimenteren dus maar. En even het stukje van erratic op de site van Jojo
lezen...

Franc Z
erratic
2003-10-21 17:58:54 UTC
Permalink
Post by Franc Z
Bedankt voor de info erratic. Weet je toevallig ook nog waarom er verschil
wordt gemaakt tussen 720 en 704 pixels horizontaal? Lijkt me toch niet
significant...
Er is een verschil tussen DV PAL (720x576) en analoog opgenomen PAL
(meestal 704x576, afhankelijk van de capture hardware en drivers).
Lees dit eens: http://users.pandora.be/erratic/capture/resolution.htm
Franc Z
2003-10-21 19:58:40 UTC
Permalink
Juist ja... Dank je.

Franc
Post by erratic
Post by Franc Z
Bedankt voor de info erratic. Weet je toevallig ook nog waarom er verschil
wordt gemaakt tussen 720 en 704 pixels horizontaal? Lijkt me toch niet
significant...
Er is een verschil tussen DV PAL (720x576) en analoog opgenomen PAL
(meestal 704x576, afhankelijk van de capture hardware en drivers).
Lees dit eens: http://users.pandora.be/erratic/capture/resolution.htm
Jakob van Oosterhout
2003-10-23 20:15:37 UTC
Permalink
Post by erratic
Er is een verschil tussen DV PAL (720x576) en analoog opgenomen PAL
(meestal 704x576, afhankelijk van de capture hardware en drivers).
Zie ook <http://www.bbc.co.uk/commissioning/branding/picturesize.shtml>

"television pixels are not square. They have an aspect ratio of
approximately 1:1.094."
ben brugman
2003-10-22 13:51:42 UTC
Permalink
Post by Franc Z
Is die encyclopedie al digitaal-aware?
Het woordje digitaal staat erin, maar de encyclopedie is in elkaar gezet net
voordat Sony met zijn eerste aankondiging van de digitale camera kwam.
Overigens die camera is nooit op de markt verschenen. (We hebben het nu over
1982).
Als zodanig is de encyclopedie dus niet digitaal-aware.
Maar een goede ondergrond kan ook gebruikt worden voor technieken die zijn
onstaan na dat de ondergrond is gelegd.
Post by Franc Z
Er wordt een afbeelding gemaakt van de geometrie van de sensor op een
pixelgrid. Later wordt er van het pixelgrid weer een afbeelding gemaakt op
een TV-signaal. Ik denk niet dat simpele formules hier zo gemakkelijk van
toepassing zijn.
Zelf geloof ik wel in simpele formules, meestal omdat ze aardig werken, maar
vaak ook omdat ze exact werken. Het is duidelijk dat 400 (bij 400) geen 400
lijnen (200 lijnparen) kan afbeelden, dus 400 (bij 400) is niet de resolutie
in lijnen.
(Waarom kan dat niet ? Nou als de lijnen precies half over de pixels liggen
is het hele vlak grijs en is er dus geen scheidend vermogen meer en dus geen
resolutie.).
Die 0.7 kom ik wel vaker tegen. (Voor mij lijkt dit erg op een half wortel
2, een getal dat in allerlei natuurlijke zaken ook voorkomt, maar ik weet
niet waar die 0.7 vandaan komt. Dus ik weet ook niet of dit een exact getal
is of gewoon een getal dat goed werkt).
Post by Franc Z
Het afbeelden van pixelgrid naar een TV-signaal is horizontaal anders dan
vertikaal: vertikaal is er sprake van discrete lijnen, het aantal pixels
vertikaal moet gelijk zijn aan het aantal gebruikte lijnen (de helft kan
ook, en dan lijnen herhalen... dat ziet er niet geweldig uit). Vertikaal
moet je dus 576 pixels hebben. Anders krijg je "resampling" en daar gaat de
kwaliteit niet op vooruit.
Vertikaal hebben we het dus over 576 beeldlijnen, (min of meer gelijk aan
576 pixels, wat een resolutie zou geven van 0.7 * 576 / 2 is 202 lijnparen
dat maximaal afgebeeld kan worden, met meer lijnparen gaan er allerlei moire
effecten optreden).
Post by Franc Z
Horizontaal is het anders. Meer pixels leveren een hogere videobandbreedte
en dat is na projectie op het beeldscherm te zien als een hoger oplossend
vermogen. Het lijkt in elk geval minder discreet dan de vertikale
afbeelding.
Afgaan op de ervaringsgegevens van anderen is zo gek nog niet. DVD hoge
kwaliteit: 720 x 576 pixels. SVCD (pretendeert de resolutie van SVHS en Hi8
te kunnen verwerken) gebruikt 480 x 576 pixels.
Mijn DVD recorder schakelt in de standen waarbij drie uur of meer moet
worden opgenomen zelfs terug naar iets van 320 x 576 pixels. Dat is -in
afwezigheid van bandruis- vaak nog behoorlijk goed om aan te zien. Het is
trouwens ook een perceptueel gegeven dat het menselijk oog meer waarde hecht
aan vertikale resolutie dan aan horizontale resolutie.
Voor Hi8 zou ik het op 480 x 576 pixels houden (als dat op een DVD mag).
Voor Hi8 zou ik zelf iets hoger uitkomen. (400 lijnen horizontaal zou op 572
uitkomen).

Overigen elke resolutie mag je op een DVD opslaan.
(DVD staat voor Digital Versatility Disk :-) (Het is een algemeen
opslagmedium).
Voor een Video DVD gelden wel standaarden. (Sommige spelers kunnen inderdaad
meer standaards aan dan andere spelers).

Zelf wat uitproberen heeft voor mij nu in ieder geval opgeleverd dat een
lage resolutie
(352 x 288) niet voldoet. (Mijn eerste insteek was dat 352 zou voldoen omdat
het niet veel minder is dan 400 lijnen (200 lijnparen) (de Hi8 haalbare
resolutie), maar dat is dus fout geredeneerd omdat resolutie in lijnen of
lijnparen dus duidelijk wat anders is dan resolutie in pixels (of
beeldlijnen).

Bedankt,
ben brugman.
Post by Franc Z
Post by ben brugman
ben brugman
Franc Z
Franc Z
2003-10-22 21:19:27 UTC
Permalink
Post by ben brugman
Post by Franc Z
Is die encyclopedie al digitaal-aware?
Het woordje digitaal staat erin, maar de encyclopedie is in elkaar gezet net
voordat Sony met zijn eerste aankondiging van de digitale camera kwam.
Overigens die camera is nooit op de markt verschenen. (We hebben het nu over
1982).
Als zodanig is de encyclopedie dus niet digitaal-aware.
Maar een goede ondergrond kan ook gebruikt worden voor technieken die zijn
onstaan na dat de ondergrond is gelegd.
Post by Franc Z
Er wordt een afbeelding gemaakt van de geometrie van de sensor op een
pixelgrid. Later wordt er van het pixelgrid weer een afbeelding gemaakt op
een TV-signaal. Ik denk niet dat simpele formules hier zo gemakkelijk van
toepassing zijn.
Zelf geloof ik wel in simpele formules, meestal omdat ze aardig werken, maar
vaak ook omdat ze exact werken. Het is duidelijk dat 400 (bij 400) geen 400
lijnen (200 lijnparen) kan afbeelden, dus 400 (bij 400) is niet de resolutie
in lijnen.
(Waarom kan dat niet ? Nou als de lijnen precies half over de pixels liggen
is het hele vlak grijs en is er dus geen scheidend vermogen meer en dus geen
resolutie.).
Daarbij ga je ervan uit dat de lijnen worst case op de pixels worden
afgebeeld. Als het nou toevallig eens best case gebeurt heb je de volle
resolutie van 400 lijnen te pakken.
In het digitale domein is die toevalligheid heel goed te controleren... Ik
heb sinds een paar weken een TFT (of LCD, wat is het eigenlijk) die bestaat
uit 1280 x 1024 pixels. Als ik de videokaart op een lagere resolutie instel
krijg ik inderdaad te maken met allerlei resampling-effecten. Als ik de
videokaart op 1280x1024 zet heb ik een zeer scherp beeld.
Post by ben brugman
Die 0.7 kom ik wel vaker tegen. (Voor mij lijkt dit erg op een half wortel
2, een getal dat in allerlei natuurlijke zaken ook voorkomt, maar ik weet
niet waar die 0.7 vandaan komt. Dus ik weet ook niet of dit een exact getal
is of gewoon een getal dat goed werkt).
Half wortel twee wordt vaak gebruikt wanneer twee ongecorreleerde dingen
worden gecombineerd. Bij voorbeeld, het ongecorreleerd (willekeurig)
afbeelden van een signaal op een pixelgrid. Breng correlatie aan en de
factor wordt 1.
Post by ben brugman
Post by Franc Z
Het afbeelden van pixelgrid naar een TV-signaal is horizontaal anders dan
vertikaal: vertikaal is er sprake van discrete lijnen, het aantal pixels
vertikaal moet gelijk zijn aan het aantal gebruikte lijnen (de helft kan
ook, en dan lijnen herhalen... dat ziet er niet geweldig uit). Vertikaal
moet je dus 576 pixels hebben. Anders krijg je "resampling" en daar gaat
de
Post by Franc Z
kwaliteit niet op vooruit.
Vertikaal hebben we het dus over 576 beeldlijnen, (min of meer gelijk aan
576 pixels, wat een resolutie zou geven van 0.7 * 576 / 2 is 202 lijnparen
dat maximaal afgebeeld kan worden, met meer lijnparen gaan er allerlei moire
effecten optreden).
Nee, precies 576 lijnen, want als je precies evenveel pixelrijen als
videolijnen hebt kun je elke rij pixels precies op een lijn afbeelden. (Voor
de duidelijkheid, ik heb het hier over de afbeelding van een pixelgrid op
een videosignaal. De afbeelding van een videosignaal op een beeldbuis is een
kwaliteitscriterium van de TV/Monitor. Ik ga ervan uit dat ik het
ingangssignaal van dat apparaat optimaal wil aanbieden).

Moire effecten staan ook wel bekend onder de namen "aliasing" en
"vouwverworming". Het komt omdat een signaal met een frequentie f wordt
bemonsterd met een samplefrequentie lager dan 2*f. (Theorema van Nyquist).
Moire kun je voorkomen door te filteren voordat je de
bemonsteringsfrequentie verandert (het aantal pixels veranderen komt neer op
herbemonsteren).
Post by ben brugman
Post by Franc Z
Horizontaal is het anders. Meer pixels leveren een hogere
videobandbreedte
Post by ben brugman
Post by Franc Z
en dat is na projectie op het beeldscherm te zien als een hoger oplossend
vermogen. Het lijkt in elk geval minder discreet dan de vertikale
afbeelding.
Afgaan op de ervaringsgegevens van anderen is zo gek nog niet. DVD hoge
kwaliteit: 720 x 576 pixels. SVCD (pretendeert de resolutie van SVHS en
Hi8
Post by Franc Z
te kunnen verwerken) gebruikt 480 x 576 pixels.
Mijn DVD recorder schakelt in de standen waarbij drie uur of meer moet
worden opgenomen zelfs terug naar iets van 320 x 576 pixels. Dat is -in
afwezigheid van bandruis- vaak nog behoorlijk goed om aan te zien. Het is
trouwens ook een perceptueel gegeven dat het menselijk oog meer waarde
hecht
Post by Franc Z
aan vertikale resolutie dan aan horizontale resolutie.
Voor Hi8 zou ik het op 480 x 576 pixels houden (als dat op een DVD mag).
Voor Hi8 zou ik zelf iets hoger uitkomen. (400 lijnen horizontaal zou op 572
uitkomen).
Overigen elke resolutie mag je op een DVD opslaan.
(DVD staat voor Digital Versatility Disk :-) (Het is een algemeen
opslagmedium).
Voor een Video DVD gelden wel standaarden. (Sommige spelers kunnen inderdaad
meer standaards aan dan andere spelers).
Strict gezien heb je gelijk. Praktisch gezien zet je, neem ik aan, je Hi8
video op DVD om ze langer te kunnen bewaren en om ze gemakkelijker te kunnen
laten zien. Het ligt voor de hand dat ze worden afgespeeld op een DVD-video
speler. In dat geval kun je je qua resolutie maar beter houden aan het
lijstje dat erratic heeft aangeleverd.
Post by ben brugman
Zelf wat uitproberen heeft voor mij nu in ieder geval opgeleverd dat een
lage resolutie
(352 x 288) niet voldoet. (Mijn eerste insteek was dat 352 zou voldoen omdat
het niet veel minder is dan 400 lijnen (200 lijnparen) (de Hi8 haalbare
resolutie), maar dat is dus fout geredeneerd omdat resolutie in lijnen of
lijnparen dus duidelijk wat anders is dan resolutie in pixels (of
beeldlijnen).
Erger nog, er zit een psychologisch aspect aan vast. Probeer 352 x 576 maar
eens, dan zul je zien dat de duidelijk toegenomen vertikale scherpte het
idee geeft dat de horizontale scherpte ook is toegenomen. Ik kan er zo vlug
even geen artikeltje over vinden, maar dit principe zorgt ervoor dat S-VHS
veel scherper lijkt dan VHS.
Post by ben brugman
Bedankt,
ben brugman.
Hoe dan ook, ik vraag me af hoe nuttig het is om in detail uit te zoeken hoe
je analoge resolutie (beeldlijnen) moet uitdrukken in digitale resolutie
(pixels), als de felbegeerde DVD-videocompatibiliteit de keuze beperkt tot 4
opties. Een van die opties heb je in een test al buitenspel gezet. Ik zou de
andere opties ook eens proberen...

Want in de hele discussie is nog niet ter sprake gekomen welke
kleurenresolutie je dan wel mag verwachten van een camcorder met maar 1
sensor, wat de invloed van bandruis op de scherpte is en hoe de MPEG encoder
op die ruis reageert. Die invloeden zijn ook niet te verwaarlozen.

Succes

Franc Z
ben brugman
2003-10-27 23:03:07 UTC
Permalink
Post by Franc Z
Daarbij ga je ervan uit dat de lijnen worst case op de pixels worden
afgebeeld. Als het nou toevallig eens best case gebeurt heb je de volle
resolutie van 400 lijnen te pakken.
In het digitale domein is die toevalligheid heel goed te controleren... Ik
heb sinds een paar weken een TFT (of LCD, wat is het eigenlijk) die bestaat
uit 1280 x 1024 pixels. Als ik de videokaart op een lagere resolutie instel
krijg ik inderdaad te maken met allerlei resampling-effecten. Als ik de
videokaart op 1280x1024 zet heb ik een zeer scherp beeld.
Bij resoluties die een medium kan weergeven ga je er vanuit dat die
resolutie
ook in een worst case kan worden weergegeven. Als een medium b.v. een
TFT 1024 lijnen (512 lijnparen) kan weergeven, kan diezelfde TFT dan ook
1023, 1022 etc lijnen weergeven, zoniet dan is 1024 dus geen resolutie.
Ook in het digitale domein is dat niet te controleren met bronmateriaal dat
niet is afgestemd op dat digitale domein.
Zet maar eens een hoogresolutie foto van een resolutiekaart op je TFT neer,
dan zie je dat worst case gevallen heel veel voorkomen.
Post by Franc Z
Half wortel twee wordt vaak gebruikt wanneer twee ongecorreleerde dingen
worden gecombineerd. Bij voorbeeld, het ongecorreleerd (willekeurig)
afbeelden van een signaal op een pixelgrid. Breng correlatie aan en de
factor wordt 1.
Natuurlijke beelden zijn meestal niet gecorreleerd, ondertussen heb ik een
idee
waar de half wortel twee vandaan komt. Neem een vierkantje van een bepaalde
grote. Om er zeker van te zijn dat deze ook zichtbaar wordt indien
weergegeven
in pixels moet het vierkantje minstens 2 keer zo groot zijn als de pixels.
(Of
eigenlijk de afstanden tussen de pixels). Het vierkantje kan zich namelijk
over
vier pixels verspreiden. Waarbij iedere pixels dan een kwart van het
vierkantje
krijgt. Als dit kwart dan groter is dan een halve pixel wordt dit vierkantje
zichtbaar.
(Een kwart van het vierkantje moet dus groter zijn dan een halve pixel. Het
vierkantje
moet dus groter zijn als twee pixels.)
Overigens een rondje met dezelfde oppervlakte als een vierkantje geld
dezelfde
redenatie voor.
(2 maal is voor 2 dimensies, dat is per dimensie dus wortel 2. Of 1/ wortel2
en dat
is ongeveer 0.7).
Post by Franc Z
Nee, precies 576 lijnen, want als je precies evenveel pixelrijen als
videolijnen hebt kun je elke rij pixels precies op een lijn afbeelden. (Voor
de duidelijkheid, ik heb het hier over de afbeelding van een pixelgrid op
een videosignaal. De afbeelding van een videosignaal op een beeldbuis is een
kwaliteitscriterium van de TV/Monitor. Ik ga ervan uit dat ik het
ingangssignaal van dat apparaat optimaal wil aanbieden).
Let op, ik had het over resolutie (oplossend vermogen) het aantal lijnen kan
worden
weergegeven ook als ze niet goed op de pixels vallen.
Om elke resolutie tot een bepaalde resolutie weer te kunnen geven heb je
net als met het pixel verhaal meer lijnen nodig en wel wortel2 keer zoveel.
288 lijnparen die een halve offset van de eerste lijn geven, geven een grijs
beeld.
Bij het omzetten van pixels komt een pixel lijn wel overeen met een
beeldlijn.

Maar 576 beeldlijnen komt dus neer op een resolutie van ongeveer
0.7 * 576/2= 408/2=203 lijnparen aan resolutie. (Dus ook 202, 201 etc.
worden correct weergegeven.)
Post by Franc Z
Moire effecten staan ook wel bekend onder de namen "aliasing" en
"vouwverworming". Het komt omdat een signaal met een frequentie f wordt
bemonsterd met een samplefrequentie lager dan 2*f. (Theorema van Nyquist).
Moire kun je voorkomen door te filteren voordat je de
bemonsteringsfrequentie verandert (het aantal pixels veranderen komt neer op
herbemonsteren).
Dit stukje bewaar ik voor later. (ook nog een toetje nodig).
Post by Franc Z
Strict gezien heb je gelijk. Praktisch gezien zet je, neem ik aan, je Hi8
video op DVD om ze langer te kunnen bewaren en om ze gemakkelijker te kunnen
laten zien. Het ligt voor de hand dat ze worden afgespeeld op een DVD-video
speler. In dat geval kun je je qua resolutie maar beter houden aan het
lijstje dat erratic heeft aangeleverd.
Ik wil mijn Hi8 opnemen en dan Raw op DVD bewaren. Hiermee bedoel ik in een
formaat waar ik later nog wat mee kan, maar dat niet door een DVD speler
afgespeeld hoeft te kunnen worden. Hierbij denk ik dan aan maximaal 2 DVD's
(2 * 4.7 Gbyte) voor 90 minuten film.

Daarna maak ik dan een (of twee ) DVD's met menu's etc, de juiste
overgangen,titels etc om op de DVD speler te bekijken.
Post by Franc Z
Erger nog, er zit een psychologisch aspect aan vast. Probeer 352 x 576 maar
eens, dan zul je zien dat de duidelijk toegenomen vertikale scherpte het
idee geeft dat de horizontale scherpte ook is toegenomen. Ik kan er zo vlug
even geen artikeltje over vinden, maar dit principe zorgt ervoor dat S-VHS
veel scherper lijkt dan VHS.
Nou ik heb inderdaad gemerkt dat ik met een veel te lage resolutie ben
begonnen,
deels omdat mijn omgeving (software) niet wilde werken op een hoge resolutie
en
software die dat wel wilde, kon het geluid weer niet goed aansturen.
(Overigens was het CPU gebruik laag, dus dat was geen probleem).
Post by Franc Z
Hoe dan ook, ik vraag me af hoe nuttig het is om in detail uit te zoeken hoe
je analoge resolutie (beeldlijnen) moet uitdrukken in digitale resolutie
(pixels), als de felbegeerde DVD-videocompatibiliteit de keuze beperkt tot 4
opties. Een van die opties heb je in een test al buitenspel gezet. Ik zou de
andere opties ook eens proberen...
Waarschijnlijk is het wel handig het Raw formaat direct op het DVD formaat
aan
te passen. Maar toen ik begon ging ik nog uit van een 400 * 288 pixels,
omdat ik
geheel ten onrechte dacht dat dit overeenkwam met 400 * 288 lijnen
resolutie.
Ook wist ik niet zeker hoeveel beeldlijnen Hi8 (en ook Super VHS) bevatte,
was dit gelijk aan VHS (waarvan ik half wist dat deze alleen de oneven
lijnen registreerde) of niet.
Ondertussen weet ik dus dan Hi8 het dubbele aantal beeldlijnen bevat (576)
en voor
de horizontale resolutie ik 400/.7 pixels nodig heb.
Dan kom ik inderdaad heel erg in de buurt van maar gewoon de DVD maten te
gebruiken.

Waarom dit uitzoeken ?
Als ik tientallen uren ga stoppen in het omzetten van Hi8 tapes en dit al
enige uren heeft gekost om wat dingen uit te proberen en veel zaken niet
eens willen lukken, is het wel handig om me dan eerst maar even theoretisch
voor te bereiden.
Deze draad heeft me in ieder geval een behoorlijke basis gegeven hiervoor.
Post by Franc Z
Want in de hele discussie is nog niet ter sprake gekomen welke
kleurenresolutie je dan wel mag verwachten van een camcorder met maar 1
sensor, wat de invloed van bandruis op de scherpte is en hoe de MPEG encoder
op die ruis reageert. Die invloeden zijn ook niet te verwaarlozen.
Als de beeldsensor maar genoeg pixels heeft (wat overigens niet het geval
is), maakt
het niet zoveel uit of je een of 3 sensors hebt. Drie sensors kunnen wat
gevoeliger
zijn, maar zijn het meestal niet eens omdat iedere sensor maar 1/3 van het
ligt krijgt.

Het bayer algoritme met een RGRB sensor levert meer resolutie dan drie
sensoren met op iedere RGRB plek een sensor. (De RGRB heeft 4 kleine pixels
daar waar drie sensoren er maar 1(eigenlijk 3 op 1 beeldpositie) heeft maar
dan voor drie kleuren.

Nou in ieder geval snap ik nu iets beter met wat ik aan het doen ben.

Vriendelijke groet,
ben brugman.
Post by Franc Z
Succes
Franc Z
Franc Z
2003-10-27 23:07:35 UTC
Permalink
Ik krijg nu waarschijnlijk van Jojo een link naar "leerquoten", maar dit
bericht is inmiddels zo veelomvattend dat ik niet meer weet waar ik moet
knippen...

Ben, ik het een jaar of 17 geleden, toen ik nog beroepsmatig met video bezig
was, ook een cursus gevolgd. Het is te lang geleden om alles wat je hier nu
opschrijft helemaal te begrijpen. Ik twijfel er gevoelsmatig ook aan of het
allemaal wel klopt (ben liever eigenwijs dan dom...). Een paar dingen die me
nog bijstaan van vroeger en die ik niet met jouw verhaal kan rijmen noteer
ik hieronder.

Een CCD bevat fysieke pixels. Het afbeelden van het optische plaatje op de
CCD kmot neer op bemonstering, daar zou jouw factor 0.7 op toepasbaar kunnen
zijn. Echter, in een digitale of RGB signaal representatie hoeft er tot aan
de monitor niet te worden herbemonsterd. Ik vraag me nog steeds af of de
factor 1/wortel2 (=0.707) hier wel terecht wordt toegepast.

In "mijn" tijd was men nog volop aan het experimenteren met de geometrie van
de kleurfilters die op de CCD's moesten worden aangebracht. De komst van
transparante electrodes op de sensoren betekenden een flinke verbetering
omdat er geen donkere ruimtes meer tussen de pixels zaten. Het lijkt me in
ieder geval duidelijk dat op een sensor met x pixels en een kleurfilter in
totaal maar x/3 punten voor elke kleur beschikbaar zijn, ongeacht de
geometrie van die filters. Een 3-sensor camera heeft van elke kleur net
zoveel werkende pixels als een 1-sensor camera er in totaal heeft. Voor de
helderheidsresolutie hoeft dat niet veel uit te maken (wordt uit alle
kleuren met helderheidsweging samengesteld), maar de resolutie in de kleuren
is veel groter. Er hoeft in een digitale camcorder tussen de beeldopnemer en
de band niet met Y/C of iets dergelijks te worden gewerkt, dus de
kleurenresolutie kan langer bewaard blijven.

RGRB is, als ik het goed heb, een truc om de mapping van optisch signaal op
een CCD zo goed mogelijk te laten verlopen? Het is wel zo dat grotere pixels
meer licht vangen en dus meer signaal genereren. Het semi-transparante
prisma dat het licht in een drie-sensor camera splitst mag dan wat verlies
geven, daar staat echter een grotere pixel-oppervlakte tegenover. Murphy
zegt dat het in ieder geval om een compromis gaat.

Afijn, genoeg matig onderbouwde theorie van mijn kant... de eindconclusie
dat je voor hoge kwaliteit registratie van Hi8 bronnen op DVD toch een
704/720 x 576 resolutie wilt gebruiken lijkt me zeker geen slechte. En
inderdaad is het nu en dan nuttig eens na te gaan waar je nou helemaal mee
bezig bent. Het is toch weer eens een andere discussie dan welke camcorder
of welk edit-pakket nou het "beste" is :)

Resteert nog het advies, losgekoppeld van de resolutie-vraag, om toch even
te experimenteren met filteren om de bandruis van Hi8 te verwijderen. Voor
de MPEG encoder die in het DVD creatietraject vereist is, is ruis een
vervelend signaal dat veel van de opslagcapaciteit vergt. Natuurlijk gaat er
bij het filteren van de ruis weer een beetje resolutie verloren, maar
resolutie is uiteindelijk niet het enige kwaliteitscriterium.

Veel succes en plezier met "The kids in the garden".

Franc Z
Post by Franc Z
Post by Franc Z
Daarbij ga je ervan uit dat de lijnen worst case op de pixels worden
afgebeeld. Als het nou toevallig eens best case gebeurt heb je de volle
resolutie van 400 lijnen te pakken.
In het digitale domein is die toevalligheid heel goed te controleren... Ik
heb sinds een paar weken een TFT (of LCD, wat is het eigenlijk) die
bestaat
Post by Franc Z
uit 1280 x 1024 pixels. Als ik de videokaart op een lagere resolutie
instel
Post by Franc Z
krijg ik inderdaad te maken met allerlei resampling-effecten. Als ik de
videokaart op 1280x1024 zet heb ik een zeer scherp beeld.
Bij resoluties die een medium kan weergeven ga je er vanuit dat die
resolutie
ook in een worst case kan worden weergegeven. Als een medium b.v. een
TFT 1024 lijnen (512 lijnparen) kan weergeven, kan diezelfde TFT dan ook
1023, 1022 etc lijnen weergeven, zoniet dan is 1024 dus geen resolutie.
Ook in het digitale domein is dat niet te controleren met bronmateriaal dat
niet is afgestemd op dat digitale domein.
Zet maar eens een hoogresolutie foto van een resolutiekaart op je TFT neer,
dan zie je dat worst case gevallen heel veel voorkomen.
Post by Franc Z
Half wortel twee wordt vaak gebruikt wanneer twee ongecorreleerde dingen
worden gecombineerd. Bij voorbeeld, het ongecorreleerd (willekeurig)
afbeelden van een signaal op een pixelgrid. Breng correlatie aan en de
factor wordt 1.
Natuurlijke beelden zijn meestal niet gecorreleerd, ondertussen heb ik een
idee
waar de half wortel twee vandaan komt. Neem een vierkantje van een bepaalde
grote. Om er zeker van te zijn dat deze ook zichtbaar wordt indien
weergegeven
in pixels moet het vierkantje minstens 2 keer zo groot zijn als de pixels.
(Of
eigenlijk de afstanden tussen de pixels). Het vierkantje kan zich namelijk
over
vier pixels verspreiden. Waarbij iedere pixels dan een kwart van het
vierkantje
krijgt. Als dit kwart dan groter is dan een halve pixel wordt dit vierkantje
zichtbaar.
(Een kwart van het vierkantje moet dus groter zijn dan een halve pixel. Het
vierkantje
moet dus groter zijn als twee pixels.)
Overigens een rondje met dezelfde oppervlakte als een vierkantje geld
dezelfde
redenatie voor.
(2 maal is voor 2 dimensies, dat is per dimensie dus wortel 2. Of 1/ wortel2
en dat
is ongeveer 0.7).
Post by Franc Z
Nee, precies 576 lijnen, want als je precies evenveel pixelrijen als
videolijnen hebt kun je elke rij pixels precies op een lijn afbeelden.
(Voor
Post by Franc Z
de duidelijkheid, ik heb het hier over de afbeelding van een pixelgrid op
een videosignaal. De afbeelding van een videosignaal op een beeldbuis is
een
Post by Franc Z
kwaliteitscriterium van de TV/Monitor. Ik ga ervan uit dat ik het
ingangssignaal van dat apparaat optimaal wil aanbieden).
Let op, ik had het over resolutie (oplossend vermogen) het aantal lijnen kan
worden
weergegeven ook als ze niet goed op de pixels vallen.
Om elke resolutie tot een bepaalde resolutie weer te kunnen geven heb je
net als met het pixel verhaal meer lijnen nodig en wel wortel2 keer zoveel.
288 lijnparen die een halve offset van de eerste lijn geven, geven een grijs
beeld.
Bij het omzetten van pixels komt een pixel lijn wel overeen met een
beeldlijn.
Maar 576 beeldlijnen komt dus neer op een resolutie van ongeveer
0.7 * 576/2= 408/2=203 lijnparen aan resolutie. (Dus ook 202, 201 etc.
worden correct weergegeven.)
Post by Franc Z
Moire effecten staan ook wel bekend onder de namen "aliasing" en
"vouwverworming". Het komt omdat een signaal met een frequentie f wordt
bemonsterd met een samplefrequentie lager dan 2*f. (Theorema van Nyquist).
Moire kun je voorkomen door te filteren voordat je de
bemonsteringsfrequentie verandert (het aantal pixels veranderen komt
neer
Post by Franc Z
op
Post by Franc Z
herbemonsteren).
Dit stukje bewaar ik voor later. (ook nog een toetje nodig).
Post by Franc Z
Strict gezien heb je gelijk. Praktisch gezien zet je, neem ik aan, je Hi8
video op DVD om ze langer te kunnen bewaren en om ze gemakkelijker te
kunnen
Post by Franc Z
laten zien. Het ligt voor de hand dat ze worden afgespeeld op een
DVD-video
Post by Franc Z
speler. In dat geval kun je je qua resolutie maar beter houden aan het
lijstje dat erratic heeft aangeleverd.
Ik wil mijn Hi8 opnemen en dan Raw op DVD bewaren. Hiermee bedoel ik in een
formaat waar ik later nog wat mee kan, maar dat niet door een DVD speler
afgespeeld hoeft te kunnen worden. Hierbij denk ik dan aan maximaal 2 DVD's
(2 * 4.7 Gbyte) voor 90 minuten film.
Daarna maak ik dan een (of twee ) DVD's met menu's etc, de juiste
overgangen,titels etc om op de DVD speler te bekijken.
Post by Franc Z
Erger nog, er zit een psychologisch aspect aan vast. Probeer 352 x 576
maar
Post by Franc Z
eens, dan zul je zien dat de duidelijk toegenomen vertikale scherpte het
idee geeft dat de horizontale scherpte ook is toegenomen. Ik kan er zo
vlug
Post by Franc Z
even geen artikeltje over vinden, maar dit principe zorgt ervoor dat S-VHS
veel scherper lijkt dan VHS.
Nou ik heb inderdaad gemerkt dat ik met een veel te lage resolutie ben
begonnen,
deels omdat mijn omgeving (software) niet wilde werken op een hoge resolutie
en
software die dat wel wilde, kon het geluid weer niet goed aansturen.
(Overigens was het CPU gebruik laag, dus dat was geen probleem).
Post by Franc Z
Hoe dan ook, ik vraag me af hoe nuttig het is om in detail uit te zoeken
hoe
Post by Franc Z
je analoge resolutie (beeldlijnen) moet uitdrukken in digitale resolutie
(pixels), als de felbegeerde DVD-videocompatibiliteit de keuze beperkt
tot
Post by Franc Z
4
Post by Franc Z
opties. Een van die opties heb je in een test al buitenspel gezet. Ik
zou
Post by Franc Z
de
Post by Franc Z
andere opties ook eens proberen...
Waarschijnlijk is het wel handig het Raw formaat direct op het DVD formaat
aan
te passen. Maar toen ik begon ging ik nog uit van een 400 * 288 pixels,
omdat ik
geheel ten onrechte dacht dat dit overeenkwam met 400 * 288 lijnen
resolutie.
Ook wist ik niet zeker hoeveel beeldlijnen Hi8 (en ook Super VHS) bevatte,
was dit gelijk aan VHS (waarvan ik half wist dat deze alleen de oneven
lijnen registreerde) of niet.
Ondertussen weet ik dus dan Hi8 het dubbele aantal beeldlijnen bevat (576)
en voor
de horizontale resolutie ik 400/.7 pixels nodig heb.
Dan kom ik inderdaad heel erg in de buurt van maar gewoon de DVD maten te
gebruiken.
Waarom dit uitzoeken ?
Als ik tientallen uren ga stoppen in het omzetten van Hi8 tapes en dit al
enige uren heeft gekost om wat dingen uit te proberen en veel zaken niet
eens willen lukken, is het wel handig om me dan eerst maar even theoretisch
voor te bereiden.
Deze draad heeft me in ieder geval een behoorlijke basis gegeven hiervoor.
Post by Franc Z
Want in de hele discussie is nog niet ter sprake gekomen welke
kleurenresolutie je dan wel mag verwachten van een camcorder met maar 1
sensor, wat de invloed van bandruis op de scherpte is en hoe de MPEG
encoder
Post by Franc Z
op die ruis reageert. Die invloeden zijn ook niet te verwaarlozen.
Als de beeldsensor maar genoeg pixels heeft (wat overigens niet het geval
is), maakt
het niet zoveel uit of je een of 3 sensors hebt. Drie sensors kunnen wat
gevoeliger
zijn, maar zijn het meestal niet eens omdat iedere sensor maar 1/3 van het
ligt krijgt.
Het bayer algoritme met een RGRB sensor levert meer resolutie dan drie
sensoren met op iedere RGRB plek een sensor. (De RGRB heeft 4 kleine pixels
daar waar drie sensoren er maar 1(eigenlijk 3 op 1 beeldpositie) heeft maar
dan voor drie kleuren.
Nou in ieder geval snap ik nu iets beter met wat ik aan het doen ben.
Vriendelijke groet,
ben brugman.
Post by Franc Z
Succes
Franc Z
JoJo
2003-10-28 16:04:30 UTC
Permalink
Post by Franc Z
Ik krijg nu waarschijnlijk van Jojo een link naar "leerquoten"
Ok, jij je zin ;)
http://www.leerquoten.nl
--
Johan
http://jojo.havank.com of http://jojo.nb.nu
Over Videobewerking en DVD authoring.
Reactie op usenetpostjes svp in de groep.
ben brugman
2003-10-29 10:59:08 UTC
Permalink
Post by Franc Z
Resteert nog het advies, losgekoppeld van de resolutie-vraag, om toch even
te experimenteren met filteren om de bandruis van Hi8 te verwijderen. Voor
de MPEG encoder die in het DVD creatietraject vereist is, is ruis een
vervelend signaal dat veel van de opslagcapaciteit vergt. Natuurlijk gaat er
bij het filteren van de ruis weer een beetje resolutie verloren, maar
resolutie is uiteindelijk niet het enige kwaliteitscriterium.
Veel succes en plezier met "The kids in the garden".
Hier kan ik me wat bij voorstellen, echter LEG UIT ?
HOE ? en WAT ?
Hebben die filters namen ?
Wat is het effect ongeveer ?
(Beter gebruik van de ruimte, geen storende ruis, iets minder harde
resolutie ???).

Ben Brugman.
zie verder op over "quoten"
Verder zie inline.


Sommige mensen vinden dat je moet quoten op hun manier en hebben daar best
goede argumenten voor. Af en toe quoten mensen zo slecht dat je ze daar best
op
mag wijzen.
Maar de 'stelregel' dat onderquoten beter is dan bovenquoten en dat maar
heel
vaak te posten vind ik onzin. (Overigens net zo is bovenquoten niet beter).
Het ligt
voor een deel aan waarop de reactie en hoe op zich zelf staand het bericht
is.
Van die verwijzingen naar "leerquoten" zou ik me dan ook maar niets van
aantrekken.
Het is een standaard, maar ik kan ook een website maken met "leer beter
quoten"
en een andere manier voorstellen. Iemand die alleen maar de nieuwgroepen
afspeurt
om te wijzen naar leer beter quoten webpages is volgens mij niet
constructief beter.
(Af en toe benader ik wel eens iemand individueel om uit te leggen waarom
zijn/haar
quoten tot verwarring leidt).
Persoonlijk hou ik bijvoorbeeld niet van underquoten omdat het dan vaak
gebeurd als
je de berichten met google leest waarbij de berichten dus tegelijkertijd
onder elkaar
worden getoond net het belangrijkste deel van het bericht door google wordt
afgeknipt
en je een extra level verder moet om dan het hele bericht te kunnen lezen.
(Die quote mafia moet een ophouden).
Post by Franc Z
In "mijn" tijd was men nog volop aan het experimenteren met de geometrie van
de kleurfilters die op de CCD's moesten worden aangebracht. De komst van
transparante electrodes op de sensoren betekenden een flinke verbetering
omdat er geen donkere ruimtes meer tussen de pixels zaten. Het lijkt me in
ieder geval duidelijk dat op een sensor met x pixels en een kleurfilter in
totaal maar x/3 punten voor elke kleur beschikbaar zijn, ongeacht de
geometrie van die filters. Een 3-sensor camera heeft van elke kleur net
zoveel werkende pixels als een 1-sensor camera er in totaal heeft. Voor de
helderheidsresolutie hoeft dat niet veel uit te maken (wordt uit alle
kleuren met helderheidsweging samengesteld), maar de resolutie in de kleuren
is veel groter. Er hoeft in een digitale camcorder tussen de beeldopnemer en
de band niet met Y/C of iets dergelijks te worden gewerkt, dus de
kleurenresolutie kan langer bewaard blijven.
Destijds was een sensor met een drie keer zo hoge resolutie zo duur dat het
beter
was om drie sensoren toe te passen en het geld te stoppen in het scheiden
van het
optisch beeld. (Met als additioneel voordeel dat je grotere oppervlakten
pixels hebt
en een groot kleurfilter kunt toepassen).

Nu worden er ccd's gemaakt met zoveel resolutie dat het voor video voldoende
is.
(Er zijn camera's met 2 Mp). De gevoeligheid is ondertussen voldoende, het
nadeel
dat ieder software pixel moet worden samengesteld uit enkele hardware pixels
is wel
aanwezig maar gering.
(Vergelijk de kwaliteit van een 3 CCD Hi8 maar eens met een 'goedkope' DV
camera.
Waarbij bij de 3 CCD camera er ook nog eens sprake was van een goed
objectief,
een goede zonnekap etc. etc.).
Een 3CCD camera heeft nog steeds wel wat voordelen boven een enkele CCD
camera,
echter dat is maar zeer gering, voor de resolutie hoeft het niet meer.
Post by Franc Z
RGRB is, als ik het goed heb, een truc om de mapping van optisch signaal op
Foto's/Film het is allemaal een truc, ik noem het liever techniek.
Post by Franc Z
een CCD zo goed mogelijk te laten verlopen? Het is wel zo dat grotere pixels
meer licht vangen en dus meer signaal genereren. Het semi-transparante
prisma dat het licht in een drie-sensor camera splitst mag dan wat verlies
geven, daar staat echter een grotere pixel-oppervlakte tegenover. Murphy
zegt dat het in ieder geval om een compromis gaat.
Bij iedere CCD is het zo dat de pixels maar een deel van het oppervlak van
de
sensor vullen, de rest is nodig voor buffering en transport van de
informatie van het
signaal.
Zelfs de Foveon chip (geen volledige buffering omdat die een 'echte' sluiter
nodig heeft),
heeft ruimte tussen de pixels. In de nieuwste toepassing van de Foveon chip
worden er
dan ook microlensjes gebruikt om dit euvel enigsinds te ondervangen.
Post by Franc Z
Franc Z
erratic
2003-10-29 15:07:57 UTC
Permalink
Post by ben brugman
Hebben die filters namen ?
Wat is het effect ongeveer ?
Lees het artikel op de website van JoJo <http://jojo.nb.nu>.
Bijdragen van anderen -> Ruis verwijderen met VirtualDub.
Als je VirtualDub nog niet geïnstalleerd hebt, kies dan meteen
voor VirtualDubMod, een uitgebreidere versie.
http://virtualdubmod.sourceforge.net/
Eerst deze versie installeren:
http://prdownloads.sourceforge.net/virtualdubmod/VirtualDubMod_1_5_4_1_All_inclusive.zip
Dan deze update eroverheen:
http://prdownloads.sourceforge.net/virtualdubmod/VirtualDubMod_CVS_20030809.zip
Franc Z
2003-10-30 15:48:44 UTC
Permalink
"ben brugman" <***@niethier.nl> wrote in message news:bno6o1$ppq$***@reader11.wxs.nl...

KNIP
Post by ben brugman
Hier kan ik me wat bij voorstellen, echter LEG UIT ?
HOE ? en WAT ?
Hebben die filters namen ?
Wat is het effect ongeveer ?
(Beter gebruik van de ruimte, geen storende ruis, iets minder harde
resolutie ???).
Erratic's artikel op de site van Jojo wordt in elke discussie waar het gaat
over analoog -> DVD wel een keer genoemd.

Het effect van een tekort aan bits in een MPEG plaatje zie je m.i. het
eerste terug in bewegings-effecten. Dus: gekartelde of geblokte randjes aan
bewegende voorwerpen, details in een statisch voorwerp vallen weg als er
elders in het beeld iets beweegt. Deze artefacten zijn niet te vergelijken
met "analoge" storingen.

Codeer maar eens iets op 3Mb/s en je ziet het...

KNIP
Post by ben brugman
(Die quote mafia moet een ophouden).
Ach... er zitten ook bruikbare aspecten aan... zoals het KNIPPEN :)
Bovendien doet de quote mafia veel goed werk in deze groep... het zij hem
vergeven...
Post by ben brugman
Nu worden er ccd's gemaakt met zoveel resolutie dat het voor video voldoende
is.
(Er zijn camera's met 2 Mp). De gevoeligheid is ondertussen voldoende, het
nadeel
dat ieder software pixel moet worden samengesteld uit enkele hardware pixels
is wel
aanwezig maar gering.
Toch zie ik aan de kiekjes die ik met mijn 1Mpixel single-sensor camcorder
kan maken dat het uit een video-apparaat komt. Er komen dan wel plaatjes uit
van 1152x864 pixels, maar die resolutie geldt alleen voor het
helderheidssignaal. De kleuren-resolutie is lager en dat kun je zien aan
sommige overgangen. Voor bewegende beelden is dat niet te zien (had dat niet
iets te maken met kegeltjes en staafjes?) maar als het boeltje wordt
bevroren gaat die vlieger niet meer op.
Post by ben brugman
(Vergelijk de kwaliteit van een 3 CCD Hi8 maar eens met een 'goedkope' DV
camera.
Waarbij bij de 3 CCD camera er ook nog eens sprake was van een goed
objectief,
een goede zonnekap etc. etc.).
De Hi-8 komt misschien in de buurt zolang je het recorderdeel buiten schot
laat. Het format op de tape laat de volle kleurenbandbreedte niet toe. De
tape zelf voegt ruis toe. Het is gemakkelijker om een goed objectief te
maken naarmate de beeldopnemer kleiner wordt. En die worden kleiner.
Om deze redenen is het niet eerlijk om een 3CCD Hi8 te vergelijken met een
"goedkope" DV. Probeer hetzelfde maar eens met een moderne 3CCD DV camera.

Verder moet ik toch even melden dat de lichtgevoeligheid (uitgedrukt in Lux,
= lumen/m2) van mijn nieuwe en kleine DV camcorder het toch af moet leggen
tegen die van mijn lompe D8, die een grotere sensor met minder pixels (dus
een grotere oppervlakte per pixel, waar dus ook meer licht op kan vallen)
heeft. Niet storend, maar wel merkbaar.
Post by ben brugman
Een 3CCD camera heeft nog steeds wel wat voordelen boven een enkele CCD
camera,
echter dat is maar zeer gering, voor de resolutie hoeft het niet meer.
Ik denk dat een aantal bezitters van Canon XM2's en Sony 950's het hier niet
mee eens zal zijn, en dat het verschil op een weergave medium waar de
kleurenbandbreedte niet aan transmissiebeperkingen onderhevig is toch wel te
zien is. Misschien niet bij "the kids in the garden", maar toch...

Zelf heb ik natuurlijk een camcorder met 1 CCD... Je hebt gelijk als je zegt
dat de performance van een goedkopere DV voor een heleboel soorten van
thuisgebruik al ruim voldoende is.

KNIP
Post by ben brugman
Foto's/Film het is allemaal een truc, ik noem het liever techniek.
Om het even. Goede techniek zit vol met trucs.

KNIP
Post by ben brugman
Bij iedere CCD is het zo dat de pixels maar een deel van het oppervlak van
de
sensor vullen, de rest is nodig voor buffering en transport van de
informatie van het
signaal.
Zelfs de Foveon chip (geen volledige buffering omdat die een 'echte' sluiter
nodig heeft),
heeft ruimte tussen de pixels. In de nieuwste toepassing van de Foveon chip
worden er
dan ook microlensjes gebruikt om dit euvel enigsinds te ondervangen.
Ik werkte vroeger met FT sensoren. Daar bestond het afgeschermde deel van de
sensor uit een opslagdeel (ongeveer de helft van de chip, geconcentreerd aan
een kant) en een aantal electroden die voor de transportpotentialen moesten
zorgen (een raster over het opnamedeel van de sensor, waardoor de
afzonderlijke pixels werden gescheiden van elkaar). Om smear tegen te gaan
moest inderdaad een sluiter worden toegepast.
Voor zover ik weet heeft men transparante materialen gevonden die als
electrode bruikbaar waren. Ook lensjes in het kleurfilter dragen bij tot
betere kwaliteit. Maar dit zijn allemaal dingen die jaaaaaren geleden al van
toepassing waren.
Ik kan me ook iets voorstellen bij het softwarematig samenvoegen van pixels,
maar dan moet je toch wel een aanzienlijk overschot hebben om iets te kunnen
doen.

Franc Z
ben brugman
2003-10-30 18:46:54 UTC
Permalink
Post by Franc Z
Ach... er zitten ook bruikbare aspecten aan... zoals het KNIPPEN :)
Bovendien doet de quote mafia veel goed werk in deze groep... het zij hem
vergeven...
Ok.
Post by Franc Z
Toch zie ik aan de kiekjes die ik met mijn 1Mpixel single-sensor camcorder
kan maken dat het uit een video-apparaat komt. Er komen dan wel plaatjes uit
van 1152x864 pixels, maar die resolutie geldt alleen voor het
helderheidssignaal. De kleuren-resolutie is lager en dat kun je zien aan
sommige overgangen. Voor bewegende beelden is dat niet te zien (had dat niet
iets te maken met kegeltjes en staafjes?) maar als het boeltje wordt
bevroren gaat die vlieger niet meer op.
Kiekjes heb je wat meer voor nodig, maar voor video lijkt mij 1152x864
met de GRBG configuratie voldoende. (576 x 432 pixels met een Rood,
een Blauw en twee groen, die 864 had inderdaad iets hoger gekund, want
de helft 432 is net iets te weinig).

Kiekjes gemaakt van een videobeeld zijn inderdaad heel matig.
Post by Franc Z
De Hi-8 komt misschien in de buurt zolang je het recorderdeel buiten schot
laat. Het format op de tape laat de volle kleurenbandbreedte niet toe. De
tape zelf voegt ruis toe. Het is gemakkelijker om een goed objectief te
maken naarmate de beeldopnemer kleiner wordt. En die worden kleiner.
Om deze redenen is het niet eerlijk om een 3CCD Hi8 te vergelijken met een
"goedkope" DV. Probeer hetzelfde maar eens met een moderne 3CCD DV camera.
Ook ik geloof nog wel dat een 3CCD DV camera betere resultaten geeft, maar
alle
componenten zijn een stuk duurder. En per kleur heb je een veel betere
dekking,
maar voor dat stuk extra kwaliteit moet je vind ik veel over hebben.
Een enkele CCD met 3 keer zoveel pixels is natuurlijk een compromis, eentje
waar
ik gezien het prijsverschil goed mee kan leven.
Post by Franc Z
Ik denk dat een aantal bezitters van Canon XM2's en Sony 950's het hier niet
mee eens zal zijn, en dat het verschil op een weergave medium waar de
kleurenbandbreedte niet aan transmissiebeperkingen onderhevig is toch wel te
zien is. Misschien niet bij "the kids in the garden", maar toch...
Ja, maar voordat mannen gaan toegeven dat iets wat ze bezitten niet goed
werkt.
Dus de bezitters van 'techno' producten zullen altijd 'overdrijven'.

Duurdere producten zijn vaak echt wel beter. Maar de meerwaarde bij duurdere
producten neemt steeds meer af naarmate de prijs toeneemt.
Post by Franc Z
Om het even. Goede techniek zit vol met trucs.
Zelf zie ik wel een verschil tussen techniek en trucs, trucs zijn
mogelijkheden
om iets er beter te laten lijken. Techniek zijn mogelijkheden om iets echt
beter te maken.

B.v. een beeld met een unsharp filter scherper maken noem ik een truc.
Meer pixels zelfs in een bayer setting noem ik een techniek.
Post by Franc Z
Voor zover ik weet heeft men transparante materialen gevonden die als
electrode bruikbaar waren.
Er zijn inderdaad wel doorzichtige 'transistoren' in TFT's worden ze veel
toegepast, volgens mij worden ze nog niet op CCD's toegepast, daar is
altijd nog een 'aanzienlijk' deel van het oppervlak voor buffering en
transport
nodig.
Post by Franc Z
Ik kan me ook iets voorstellen bij het softwarematig samenvoegen van pixels,
maar dan moet je toch wel een aanzienlijk overschot hebben om iets te kunnen
doen.
Eigenlijk worden pixels altijd beschouwd als aansluitend. Maar bij opname
zitten er
gaatjes tussen, als je beelden hebt met patronen in dezelfde frequentie
krijg je
dus van die interferentie effecten. Deze zijn met software eigenlijk niet
weg te halen,
omdat het soms over een groot dan weer over een klein oppervlak gaat en het
soms
verdonkering soms helderder maken tot gevolg heeft. Software zou dan
'intelligent'
naar dezelfde omgeving in voorgaande en volgende beeldjes moeten kijken, dit
is
momenteel zeker nog niet haalbaar.

ben
Franc Z
2003-10-31 07:23:08 UTC
Permalink
"ben brugman" <***@niethier.nl> wrote in message news:bnrmiv$2n7$***@reader08.wxs.nl...
KNIP
Post by ben brugman
Kiekjes heb je wat meer voor nodig, maar voor video lijkt mij 1152x864
met de GRBG configuratie voldoende. (576 x 432 pixels met een Rood,
een Blauw en twee groen, die 864 had inderdaad iets hoger gekund, want
de helft 432 is net iets te weinig).
Helaas vermeldt de fabrikant niet op welke manier de pixels worden gebruikt.
Voor de kiekjes (foto's maak ik met een conventionele camera) worden bijna
alle 1.07Mpixels gebruikt, maar wat er voor video gebeurt?
Als er inderdaad 864 lijnen van pixels op de sensor te vinden zijn, moet dat
voor video gemapt worden op 576 signaallijnen, en wel op een digitale
manier. Een aantal lijnen wordt eerst nog gebruikt voor de
beeldstabilisatie. De mapping die jij voorstelt ligt niet zo voor de hand.
Dit combinerend met het gegeven dat ik in de foto's een duidelijk verschil
zie tussen de resolutie van de helderheid en de kleuren maakt het voor mij
aannemelijk dat het toch wat minder rooskleurig is gesteld met de 1 CCD
camcorders dan je voorstelt.
Post by ben brugman
Kiekjes gemaakt van een videobeeld zijn inderdaad heel matig.
Er is heel goed verschil te zien met een "echte" foto. Maar je kunt wel heel
veel "kids in the garden" schieten, en er zijn maar weinig fototoestellen
met een 30-300mm zoomlens :) Zoals met alles: 't is maar net wat je er mee
wilt.
Post by ben brugman
Ook ik geloof nog wel dat een 3CCD DV camera betere resultaten geeft, maar
alle
componenten zijn een stuk duurder. En per kleur heb je een veel betere
dekking,
maar voor dat stuk extra kwaliteit moet je vind ik veel over hebben.
Een enkele CCD met 3 keer zoveel pixels is natuurlijk een compromis, eentje
waar
ik gezien het prijsverschil goed mee kan leven.
Helemaal mee eens.
Post by ben brugman
Ja, maar voordat mannen gaan toegeven dat iets wat ze bezitten niet goed
werkt.
Dus de bezitters van 'techno' producten zullen altijd 'overdrijven'.
Ook mee eens. Dat is overigens ook een van de nadelen van websites als
"Kieskeurig" waar zogenaamde consumenten-recensies op staan. Je moet je toch
wel heel ongelukkig voelen als je net een camcorder ten koste van een
maandsalaris gekocht hebt en je moet dan in een forum gaan schrijven dat het
eigenlijk maar niets is.
Gelukkig heb je ook nog vakbladen die iets objectiever te werk gaan.
Post by ben brugman
Duurdere producten zijn vaak echt wel beter. Maar de meerwaarde bij duurdere
producten neemt steeds meer af naarmate de prijs toeneemt.
Daarom heb ik ook een apparaat met 1 CCD.
Post by ben brugman
Er zijn inderdaad wel doorzichtige 'transistoren' in TFT's worden ze veel
toegepast, volgens mij worden ze nog niet op CCD's toegepast, daar is
altijd nog een 'aanzienlijk' deel van het oppervlak voor buffering en
transport
nodig.
In de buffering moet je ook niets transparants hebben, maar als
transport-electrode is het wenselijk. Na 10 seconde Googelen en alleen naar
het eerste resultaat kijken levert op:
http://www.photonics.com/spectra/tech/XQ/ASP/techid.473/QX/read.htm
Post by ben brugman
Eigenlijk worden pixels altijd beschouwd als aansluitend. Maar bij opname
zitten er
gaatjes tussen, als je beelden hebt met patronen in dezelfde frequentie
krijg je
dus van die interferentie effecten.
In andere woorden: de lichtpatronen die op de opnemer vallen worden
bemonsterd door de fysieke pixels.
Post by ben brugman
Deze zijn met software eigenlijk niet
weg te halen,
omdat het soms over een groot dan weer over een klein oppervlak gaat en het
soms
verdonkering soms helderder maken tot gevolg heeft. Software zou dan
'intelligent'
naar dezelfde omgeving in voorgaande en volgende beeldjes moeten kijken, dit
is
momenteel zeker nog niet haalbaar.
Volgens de heer Nyquist moet je bij het bemonsteren de lichtpatronen _voor_
het bemonsteren (dus optisch) filteren (dus minder scherp maken) om
aliasing, interferentie en moire te voorkomen. Het nadien verwijderen van
die ellende uit een signaal kan alleen met trucs: daarvoor moet namelijk een
schatting worden gemaakt van het signaal dat de ellende heeft veroorzaakt.
Die truc heb ik inderdaad nog niet toegepast zien worden. Voorkomen is beter
dan genezen.

Franc Z
ben brugman
2003-10-31 14:24:28 UTC
Permalink
Wat een draad wordt dit ondertussen.
Maar ja ik steek er dan ook wel wat van op.
Post by Franc Z
Dit combinerend met het gegeven dat ik in de foto's een duidelijk verschil
zie tussen de resolutie van de helderheid en de kleuren maakt het voor mij
aannemelijk dat het toch wat minder rooskleurig is gesteld met de 1 CCD
camcorders dan je voorstelt.
Voor kiekjes wordt meestal een zelfde aantal 3 kleuren pixels geinterpoleerd
als er hardware pixels zijn.
Patroon is :
GRGRGRGR
BGBGBGBG
GRGRGRGR
BGBGBGBG

Op iedere B en R positie wordt een G geinterpoleerd uit de omliggende vier
G pixels. (Ieder voor een kwart). (Zo alle pixels zijn nu van groen
voorzien.)
Op iedere G pixel wordt uit de twee naaste buren (links en rechts) de kleur
gegenereerd die de naaste buren hebben. Vertikaal de andere kleur.
Op de B posities wordt de R diagonaal geinterpoleerd. Op de R postities
worden de B diagonaal geinterpoleerd.

Veel camera's doen daar een unsharp filter overheen. Hierbij worden verder
gelegen pixels een beetje negatief meegeteld en dichtbijzijnde pixels worden
iets meer positief gerekend.
Voor beeld op een Rode pixel wordt diagonaal elke blauwe pixel 1.5 maal
geteld
maar verder gelegen blauwe pixels worden ieder voor .25 afgetrokken. Het
resultaat wordt door 4 gedeeld. ((4 x 1.5 - 8 x .25)/4 is gelijk 1).
(Omdat bij plaatjes tegenwoordig meestal vierkante pixels worden gebruikt,
zouden de pixels met dit algoritme op de ccd ook 'vierkant' moeten zijn.)


Voor video heb ik wel een model hoe het werkt, maar of dat helemaal klopt,
of misschien wel helemaal niet ???
(Dit model klopt met het aantal pixels en ook met de vorm van de pixels).
Voor video worden er zo te zien drie pixel lijnen gebruikt om twee
beeldlijnen
te genereren. (Vier pixel lijnen zou waarschijnlijk beter zijn, maar dan
zijn
de pixels weer wat lastiger vierkant te krijgen).
(Nog meer pixellijnen dan vier zou alleen behulpzaam kunnen zijn voor
unsharp algoritmes).

Voor beeldlijn 1 wordt pixellijn 1 en 2 gebruikt.
Voor beeldlijn 2 wordt pixellijn 2 en 3 gebruikt.

Voor beeldlijn 3 wordt pixellijn 4 en 5 gebruikt.
Voor beeldlijn 4 wordt pixellijn 5 en 6 gebruikt.
:
Voor beeldlijn 576 wordt pixellijn 863 en 864 gebruikt.

(Voor een unsharp filter zou het kunnen dan nog iets verder gekeken wordt
dan de direct naastgelegen lijn.).
Wat mij 'dwars' zit aan dit model is dat lijn 2 en lijn 5 en lijn 8 dubbel
worden
gebruikt en de andere lijnen enkel. Voor bepaalde patronen lijkt mij dat
niet
goed. Maar een voordeel is wel dat op iedere lijn op iedere pixel positie
tenminste 1 groen zit. Dus dat is 1152 groen per beeldlijn en dan vervolgens
om en om 1 rood en 1 blauw. Een keurige 2:1:1 sampling dus).
Bovendien klopt het beeldformaat ook nog eens keurig.

(Als je van dit video beeld weer een kiekje maakt wordt het slechter,
want je hebt ineens maar 2x288 lijnen i.p.v. 3 maal 288 regels pixels in
de kiekjes mode.)
Post by Franc Z
Ook mee eens. Dat is overigens ook een van de nadelen van websites als
"Kieskeurig" waar zogenaamde consumenten-recensies op staan. Je moet je toch
wel heel ongelukkig voelen als je net een camcorder ten koste van een
maandsalaris gekocht hebt en je moet dan in een forum gaan schrijven dat het
eigenlijk maar niets is.
Gelukkig heb je ook nog vakbladen die iets objectiever te werk gaan.
Deze consumenten recenties zie ik als zeer nuttig. Echter ik probeer altijd
die recenties er uit te pikken die de goede, maar ook slechte punten met
naam noemen. Hierdoor zie je ook wat een bezitter de sterke en de zwakke
punten van een apparaat vindt. Sommige punten zijn dan voor mij wel
en andere weer niet een issue.

Leuke :
Met GPS navigatie systemen heb ik de indruk dat vooral mannen die
vroeger claimden nooit te verdwalen het fantastische instrumenten
vinden.
Post by Franc Z
In de buffering moet je ook niets transparants hebben, maar als
transport-electrode is het wenselijk. Na 10 seconde Googelen en alleen naar
http://www.photonics.com/spectra/tech/XQ/ASP/techid.473/QX/read.htm
Hier wordt transparantie vooral gebruikt om het gebruikte oppervlakte
gevoeliger te maken. (Tegen een extra kostprijs).
Een andere vorm van transparantie zou kunnen zijn de pixel over of
onder de buffer en transportgebieden te laten lopen zodat de pixels het
gehele oppervlakte bestrijken. Overigens het gevoeliger maken van de pixels
is natuurlijk altijd meegenomen.
Post by Franc Z
In andere woorden: de lichtpatronen die op de opnemer vallen worden
bemonsterd door de fysieke pixels.
Ja
Post by Franc Z
Volgens de heer Nyquist moet je bij het bemonsteren de lichtpatronen _voor_
het bemonsteren (dus optisch) filteren (dus minder scherp maken) om
aliasing, interferentie en moire te voorkomen. Het nadien verwijderen van
die ellende uit een signaal kan alleen met trucs: daarvoor moet namelijk een
schatting worden gemaakt van het signaal dat de ellende heeft veroorzaakt.
Die truc heb ik inderdaad nog niet toegepast zien worden. Voorkomen is beter
dan genezen.
Dit optisch filteren gebeurd in de praktijk niet. Waarschijnlijk omdat het
extreem lastig
is en het ook wat bezwaren heeft. Bovendien zou de frequentie waarmee
wit wordt gefilterd anders moeten zijn dan groen en die weer anders dan
blauw en rood.
Post by Franc Z
Franc Z
Franc Z
2003-11-03 22:40:04 UTC
Permalink
Post by ben brugman
Wat een draad wordt dit ondertussen.
Maar ja ik steek er dan ook wel wat van op.
Zoals ik al eerder schreef: het is weer eens wat anders dan een hersenstorm
over de beste codec...
Post by ben brugman
Post by Franc Z
Dit combinerend met het gegeven dat ik in de foto's een duidelijk verschil
zie tussen de resolutie van de helderheid en de kleuren maakt het voor mij
aannemelijk dat het toch wat minder rooskleurig is gesteld met de 1 CCD
camcorders dan je voorstelt.
Voor kiekjes wordt meestal een zelfde aantal 3 kleuren pixels
geinterpoleerd
Post by ben brugman
als er hardware pixels zijn.
Ik ga eens proberen dit te volgen.
Post by ben brugman
GRGRGRGR
BGBGBGBG
GRGRGRGR
BGBGBGBG
Op iedere B en R positie wordt een G geinterpoleerd uit de omliggende vier
G pixels. (Ieder voor een kwart). (Zo alle pixels zijn nu van groen
voorzien.)
Dit snap ik. Klinkt logisch. Nu is interpolatie op zich een filter dat geen
resolutie toevoegt (het is een schatting van de G-waarde van een pixel, er
is geen garantie dat de echte waarde wordt bepaald).
Post by ben brugman
Op iedere G pixel wordt uit de twee naaste buren (links en rechts) de kleur
gegenereerd die de naaste buren hebben. Vertikaal de andere kleur.
Dus elke pixel heeft een G waarde, en voor de echte G-pixels is een R en een
B waarde bekend.
Post by ben brugman
Op de B posities wordt de R diagonaal geinterpoleerd. Op de R postities
worden de B diagonaal geinterpoleerd.
Daarmee is de matrix vol. De resolutie is echter niet gegroeid. Wat hooguit
gebeurd is, is dat op slinkse wijze het aliasing effect gedeeltelijk is
weggefilterd.
Post by ben brugman
Veel camera's doen daar een unsharp filter overheen.
Dat is een filter dat de scherpte vermindert?
Post by ben brugman
Hierbij worden verder
gelegen pixels een beetje negatief meegeteld en dichtbijzijnde pixels worden
iets meer positief gerekend.
Voor beeld op een Rode pixel wordt diagonaal elke blauwe pixel 1.5 maal
geteld
maar verder gelegen blauwe pixels worden ieder voor .25 afgetrokken. Het
resultaat wordt door 4 gedeeld. ((4 x 1.5 - 8 x .25)/4 is gelijk 1).
(Omdat bij plaatjes tegenwoordig meestal vierkante pixels worden gebruikt,
zouden de pixels met dit algoritme op de ccd ook 'vierkant' moeten zijn.)
Wat je eigenlijk doet is voor elke pixel en voor elke kleur een aantal
1-dimensionale impulsresponsies voor een FIR filter opschrijven? De
combinatie is een 2-dimensionaal laagdoorlaatfilter. Het samenvoegen van de
pixels kun je zien als een herbemonsterings-actie.
Post by ben brugman
Voor video heb ik wel een model hoe het werkt, maar of dat helemaal klopt,
of misschien wel helemaal niet ???
(Dit model klopt met het aantal pixels en ook met de vorm van de pixels).
Voor video worden er zo te zien drie pixel lijnen gebruikt om twee
beeldlijnen
te genereren. (Vier pixel lijnen zou waarschijnlijk beter zijn, maar dan
zijn
de pixels weer wat lastiger vierkant te krijgen).
Maar video-pixels zijn ook niet vierkant. Voor zover ik kan zien zijn de
pixel-afmetingen afhankelijk van de beeldverhouding. Voor zowel PAL 4:3 als
PAL 16:9 wordt een resolutie van 720*576 gebruikt.
Post by ben brugman
(Nog meer pixellijnen dan vier zou alleen behulpzaam kunnen zijn voor
unsharp algoritmes).
Voor beeldlijn 1 wordt pixellijn 1 en 2 gebruikt.
Voor beeldlijn 2 wordt pixellijn 2 en 3 gebruikt.
Voor beeldlijn 3 wordt pixellijn 4 en 5 gebruikt.
Voor beeldlijn 4 wordt pixellijn 5 en 6 gebruikt.
Voor beeldlijn 576 wordt pixellijn 863 en 864 gebruikt.
(Voor een unsharp filter zou het kunnen dan nog iets verder gekeken wordt
dan de direct naastgelegen lijn.).
Wat mij 'dwars' zit aan dit model is dat lijn 2 en lijn 5 en lijn 8 dubbel
worden
gebruikt en de andere lijnen enkel. Voor bepaalde patronen lijkt mij dat
niet
goed. Maar een voordeel is wel dat op iedere lijn op iedere pixel positie
tenminste 1 groen zit. Dus dat is 1152 groen per beeldlijn en dan vervolgens
om en om 1 rood en 1 blauw. Een keurige 2:1:1 sampling dus).
Bovendien klopt het beeldformaat ook nog eens keurig.
Wat mij hieraan dwars zit is dat de beeldstabilisatie ook nog eens een
aantal pixels gebruikt die ik in deze overwegingen niet terugzie. Dat daar
een aanzienlijk aantal pixels voor wordt gebruikt is heel aannemelijk als je
op 10x zoom ineens de beeldstabilisator uitschakelt.
Post by ben brugman
(Als je van dit video beeld weer een kiekje maakt wordt het slechter,
want je hebt ineens maar 2x288 lijnen i.p.v. 3 maal 288 regels pixels in
de kiekjes mode.)
Maar waar zit nu het verschil in resolutie voor de verschillende kleuren? De
opnemer die jij schetst bevat 50% groene en 25% blauwe en rode pixels. Met
interpoleren wordt de resolutie niet groter, de hoeveelheid echte informatie
voor groen is 2x zo groot als voor de andere kleuren.

De helderheid is wel te bepalen voor de hele sensor. Ik ben de factoren
kwijt maar er staat me bij dat Y = a*G + b*R + c*B. De resolutie in kleur
blijft daarbij achter.
KNIP
Post by ben brugman
Post by Franc Z
In de buffering moet je ook niets transparants hebben, maar als
transport-electrode is het wenselijk. Na 10 seconde Googelen en alleen
naar
Post by Franc Z
http://www.photonics.com/spectra/tech/XQ/ASP/techid.473/QX/read.htm
Hier wordt transparantie vooral gebruikt om het gebruikte oppervlakte
gevoeliger te maken. (Tegen een extra kostprijs).
Een andere vorm van transparantie zou kunnen zijn de pixel over of
onder de buffer en transportgebieden te laten lopen zodat de pixels het
gehele oppervlakte bestrijken. Overigens het gevoeliger maken van de pixels
is natuurlijk altijd meegenomen.
Bij de oude FT-sensoren zoals ik die ken was er geen transportgebied. D.w.z.
dat transportgebied en lichtgevoelig gebied hetzelfde waren. De pixels van
zo'n sensor kun je opvatten als (analoge) emmertjes-geheugens die vol lekken
zodra er licht opvalt. In de transportfase worden ze als emmertjesgeheugen
gebruikt. De electronen in de emmertjes werden met gezwinde spoed naar een
buffergebied geklokt. Dat buffergebied was lichtdicht.
Het nadeel was destijds dat de electroden die voor de werking als
emmertjesgeheugen als een raster over het lichtgevoelige deel kwamen te
liggen, met een aantal negatieve bij-effecten. Het wegnemen van die
bij-effecten m.b.v. transparante electroden zou ook een welkome
gevoeligheidswinst opleveren, maar dan als bijzaak.

KNIP
Post by ben brugman
Post by Franc Z
Volgens de heer Nyquist moet je bij het bemonsteren de lichtpatronen
_voor_
Post by Franc Z
het bemonsteren (dus optisch) filteren (dus minder scherp maken) om
aliasing, interferentie en moire te voorkomen.
Dit optisch filteren gebeurd in de praktijk niet. Waarschijnlijk omdat het
extreem lastig
is en het ook wat bezwaren heeft.
Met een slechte lens kom je een heel eind :) Een lens heeft ook een maximale
resolutie. Het heeft dan ook geen zin om een extreem goede lens op een
videocamera te zetten. De kracht zit in de combinatie.
Post by ben brugman
Bovendien zou de frequentie waarmee
wit wordt gefilterd anders moeten zijn dan groen en die weer anders dan
blauw en rood.
Wit filteren doe je niet. In hoeverre lens-eigenschappen spectraal
afhankelijk zijn is mij niet bekend: ik ben geen opticus.
Post by ben brugman
Post by Franc Z
Franc Z
Nog steeds...
ben brugman
2003-11-07 21:24:42 UTC
Permalink
Bij het algoritme van GBRG (2 keer groen 1 keer blauw 1 keer rood) :
De totale resolutie is gelijk gebleven.
De kleuren individueel zijn 'geinterpoleerd'
(Als je in luminicantie denkt is dit voor een deel ook geinterpoleerd.)
(Stel je hebt een scene met alleen rood/zwart in beeld. Er is maar 1 rood
gevoelige pixel per vier, de andere 3 worden geinterpoleerd. Hierdoor
worden er dus pixels 'geinterpoleerd', want de groene en blauwe leverden
'geen signaal'.)

Maakt een unsharp filter het beeld minder scherp ?
Nee het lijkt het beeld scherper te maken.
De oorsprong komt uit de analoge fotografie, vooral
bij rontgen foto's werd dit toegepast.
Er werd een 'unsharp' contact afdruk van een negatief op
een negatief gemaakt en dan heel 'dun'. Als je dan het
negatief plus dit 'masker' samen contrastrijk afdrukt krijg je lokaal
hogere contrasten en daardoor een 'scherper' beeld.
Een digitaal unsharp filter heeft ongeveer hetzelfde
effect.
Bijvoorbeeld je hebt de volgende pixelreeks (1 cijfer is 1 pixel)

6666656666655555 met een unsharp masker zou dit het volgende kunnen worden
6666737666745555 (dit is slecht een een dimensioneel voorbeeld, maar je ziet
de 'randen' eruit springen)

Je ziet dat het contrast hoger wordt gemaakt op de randen.
Digitaal doe je dit door een pixel met b.v. 1.8 te vermenigvuldigen
en dan de waarde van iedere omliggende pixel (8 stuks) gedeeld door 10 er
vanaf
te trekken.
Bij het omzetten van een resolutie naar een andere, is het vaak wel handig
ook
een soort van unsharp filter te gebruiken. Hierdoor compenseer je een beetje
het zachter worden door de resolutie verandering.

Over vierkante pixels.
Voor video is dit niet nodig, maar voor foto's is het prettig, omdat bijna
alle software
uitgaat van vierkante pixels.

In de laatste consumenten gids stond overigens een test van digitale
camera's. Hierbij ook
een 3 ccd camera, voor zover ik begreep was dit niet de beste (qua
resolutie).
En nu weet ik wel dat de consumentenbond 'soms' wat oppervlakkig test.
Echter daar zitten
ook wel wat enthousiaste mensen (met best wel wat kennis) en ze hebben alle
camera's ook
daadwerkelijk in handen gehad.

Vriendelijke groet,
ben brugman.

Loading...