*Indledning*

 

I mange fotoklubber undervises der i billedbehandling, men det er ofte lidt overfladisk, og sådan rigtig i dybden går man desværre sjældent. De basale ting som f. eks. en passende arbejdsprofil, stor farvedybde og de ting som er vigtige, når der skal “fremkaldes” et perfekt og naturtro billede, hopper man af en eller anden grund let og elegant over.

 

Jeg vil vove den påstand, at man bliver bedre til billedbehandling, hvis den grundliggende viden er på plads. Hvis man forstår den bagvedliggende teknik, arbejder man ikke i blinde, som mange faktisk gør.

 

Der er mange måder, at behandle billeder på, og det her er ikke den perfekte opskrift. Det her er min opskrift og min mening om, hvordan det gøres bedst muligt. De områder og teknikker, som jeg mener er vigtige, får en ekstra behandling. Målet for mig er billeder, som ser så naturlige ud som overhovedet muligt, i hvert fald i første omgang. Bagefter kan man behandle billederne mere “kreativt”, hvis man har lyst.

 

Jeg kan godt lide abstrakt kunst, men jeg beundrer figurative kunstnere, som f. eks Skagens Malerne for deres evne til at levendegøre deres billede, og især den måde de arbejdede med lyset på, er fascinerende. P.S. Krøyer var en af de fantastisk malere, men samtidig en meget dygtig fotograf. Billedkunst og fotografi har meget med hinanden at gøre.

 

Denne artikel handler om billedskarphed, støj, farver og billedredigering i alt almindelighed med særlig fokus på Lightroom og Camera Raw ( ACR).  Artiklen forudsætter, at man har et nogenlunde godt kendskab til nævnte programmer. Forfatteren springer lidt rundt i de emner, der berøres, og nogle vil måske savne en klar kronologisk rækkefølge.

 

Når fotoamatører er samlet, så undgår man ikke at diskutere billedskarphed og billedbehandling. Alle er stort set enige om, at et billede skal være så skarpt som overhovedet muligt ( i fokuspunktet ), men hvordan man efterfølgende redigerer billedet, kan der være stor uenighed om.

 

Det er ikke usædvanlig, at se en bruger justeret et billede ved at springe  rundt i justeringsmulighederne lidt på må og få, og afslutte anstrengelserne, når det vist nok ikke kan blive bedre. Det kommer der tit fine billeder ud af, men en vis systematik er nok at foretrække i det lange løb.

 

Med Lightroom og Photoshop og ikke mindst dagens kraftige computere har vi fået så effektive redigeringsværktøjer stillet til rådighed, at vi kan lave om på virkeligheden, hvis det er målet. Mulighederne er så mange, at det kan være svært at bevare overblikket, men jeg vil i det følgende pege på de løsninger og den fremgangsmåde, som for mig har givet de bedste og mest naturlige billedresultater.

 

 


 

*Displayet er vigtigt*

 

Skarphed og støj er nøgleordene, fordi de 2 ting hænger sammen som ærtehalm og bliver påvirket i et eller andet omfang, næsten uanset hvad man gør redigeringsmæssigt.  Fjerner man støjen, så går det ud over skarpheden, og øger man skarpheden kommer støjen igen frem i billedet o. s. v.

 

Men for at kunne bedømme støj og skarphed har vi brug for et display. Det kan være et gammeldags katodestråle rør (CRT skærm) eller en nymodens LCD skærm. Desværre varierer kvaliteten meget, herunder blandt andet opløsning og ikke mindst skarphed. Det man ser på skærmen er ikke nødvendigvis det man kan opnår på et print. Er arbejdsprofilen ProPhotoRGB, så kan displayet ikke vise det fulde farve rum ( Gamut ).

 

Soft Proofing kan være en stor hjælp, men øvelse gør som bekendt mester, så med tiden får man heldigvis en vis erfaring i at bedømme billedet på den skærmtype, man har valgt som display. sRGB klarer de fleste skærme uden problemer. Adobe RGB klarer de lidt bedre skærme.

 

Inden vi får billedet printet ud, har vi kun skærmen at forholde os til. Derfor er det vigtigt at skærmen viser farverne korrekt. Kontroller det jævnligt!

 

Skarphed og støj bør bedømmes ved 1:1 eller 100%. Det svarer til at 1 pixel på skærmen modsvarer et enkelt billedelement. Redigeringsprogrammet må, for at kunne vise billedstørrelser, som afviger fra 100%, nødvendigvis udføre en tilpasning i form af resizing. Den anvendte algoritme skal være hurtig til at ændre på billedstørrelsen, men det går desværre ofte ud over billedkvaliteten.

 

Photoshop og Lightroom anvender Bicubic Interpolation, som giver det bedste resultat. Andre redigeringsprogrammer bruger Nearest-Neighbor interpolation for at opnå størst mulig hastighed, og så er billedkvaliteten ofte så dårlig, at man slet ikke kan bruge billedet til at vurdere skarpheden på. Støj og skarphed bør som nævnt altid bedømmes ved 100% eller derover. Personligt bruger jeg 200%, som svarer til 2:1 .

 

Megen billedredigering foregå i øvrigt på laptops med et display af så ringe kvalitet, at det ikke burde være muligt at opnå et tilfredsstillende billedresultat. Et godt display med en høj opløsning og korrekte farver bør være en menneskeret for seriøse fotoamatører og andet godtfolk!

 

 


 

*Det er ikke udstyret der gør det!*

 

Mange køber sig næsten “fattig” i udstyr. Pixel-ræset er bestemt ikke overstået. Objektiver i “Big Bertha” klassen er fortsat populære. Der skydes et utal af billedet med udstyr, hvor talemåden “ at skyde gråspurve med kanoner ” ikke er helt ved siden af. Ikke et ondt ord om det. Godt udstyr er bestemt ingen hindring for gode billeder, men hvis den videre proces i form af billedbehandling er mangelfuld, så nytter mange pixel og de bedste objektiver kun lidt.

 

Man kan blive så fascineret af udstyr, og det sidste nye, at man glemmer at være fotograf.

 

Fotoudstyret har mindre betydning for det gode billede end de fleste tror. De fleste objektiver tegner tilstrækkeligt skarp til de fleste formål. Et billede med stor dybdeskarphed opfattes af de fleste, som værende skarp over det hele, selv om de fleste godt ved, at alt i billedet ikke kan være skarpt (billedet er kun optimalt skarpt i fokuspunktet).

 

Billedkrumning, faldende opløsning ud mod hjørnerne, diffraktion, lateral kromatisk aberration, coma og astigmatisme er eksempler på aberrationer som trækker i negativt retning. Det er svært at se fejlene på et almindeligt fotografi, der har fået den rigtige billedbehandling.

 

Det er næsten umuligt, selv for en ekspert, at udpege de enkelte billedaberrationers indflydelse på billedkvaliteten. Forvrængningerne forsvinder i helhedsindtrykket. Det der kan påvises ved hjælp af testtavler, som har en plan (todimensionalt) overflade, er simpelthen ikke særligt tydelig i et almindeligt billede, hvor motivet er tredimensionalt. Aberrationer og støj, som er tydelig på et display ved 100%, falder ikke i øjnene på selv et stort print.

 

Jeg har testet et hav af objektiver og kameraer. De fleste objektiver tegner ekstremt skarpt i centrum og skarpheden aftager gradvis i takt med at vi bevæger os diagonalt ud mod hjørnerne eller bare ud mod siderne. Men ved en nedblænding til f/5.6 eller f/8 er forskellen i opløsning i den centrale del af billedet reduceret markant mellem en dyr og en billig optik. De dyre objektiver er dog kendetegnet ved generelt at tegne lidt skarpere ud mod billedperiferien, og de optiske aberrationer er også bedre kontrolleret. Den dyre optik har yderligere den fordel, at den som regel opnår en høj opløsning ved et mindre blænde tal, og så er fokuseringen som regel også mere præcis. De fleste fokuseringssystemer arbejder bedst ved en høj lysstyrke.

 

Fokusering i forbindelse med flade testtavler er et kapitel for sig. Overlader man fokuseringen til kameraet, så vinder det dyre kamera med den dyre optik, fordi denne kombination generelt har en mere præcis fokusering i nærområdet.

 

Flade testtavler har imidlertid ikke meget med virkelige motiver at gøre, og testtavlerne kræver, i modsætning til almindelige motiver, en nøjagtighed fokusering inden for få mm.

Hvis man tror at opstilling og indstilling af kameraet i forhold til testtavlen kan udføres på øjemål, så tager man gruelig fejl. Skæve vinkler må ikke forekomme.

 

Hvis en sammenligning og vurdering af objektiver skal kunne bruges til noget, er kravet ekstrem præcision. Et objektivs evne til at tegne skarpt i hjørnerne og i midten er til orientering ikke altid ens. Det varierer meget, men de dyre objektiver er som regel bedre på det punkt.

 

Den slags forskelle  i fokusering spiller ingen rolle for normale motiver, men testtavler og flade genstande (i makro området især) kræver nedblænding, hvis alt skal opleves som værende skarpt. Et objektiv er som regel også korrigeret ved afstanden “uendelig” og testtavlerne fotograferes altid inden for relativ få meters afstand.

 

Der skal altid manuel fokusering til, hvis en sammenligningstest skal kunne bruges til noget, og der skal mere end 1 optagelse til for at være sikker på optimal fokusering. LiveView med f. eks 10 x zoom letter arbejdet med at fokusere præcist.

 

Testbilleder kræver et bundsolidt stativ, og hvis det er et spejlreflekskamera, skal spejlet være låst og der skal bruges fjernudløser. Uskarpe billeder kan ikke bruges til noget som helst. Det gælder i lige så høj grad for almindelige billeder, som for testoptagelser.

 

Det er meget almindelig at fotografere en væg med mursten for at kontrollere objektivets evne til at tegne skarpt over alt. Det fortæller hvordan objektivet har det med at gengive en væg, men det fortæller ikke pind om hvordan objektivet har det med almindelige motiver.

 

Jeg bruger altid LiveView ved stativ optagelser af almindelige motiver, hvis det er muligt. De mange test jeg har udført har lært mig en vigtig ting. Uden et solidt fotostativ, uden at låse spejlet og uden at bruge en trådudløser kan man ikke være sikker på, at et billede er optimalt skarpt.

 

Antishake er fint nok, men billederne er sjældent perfekt skarpe ved de lange lukkertider. Billederne er anvendelige, men det er en anden historie end det vi hele tiden bliver fortalt. Billederne ville ikke være brugbare uden antishake, det er rigtigt, men glem alt om at man får foræret 3 til 4 blændetrin. En lukkertid, som er 3 til 4 gange kortere end den reciprokke værdi af brændvidden, er nødvendig ved optagelser uden stativ, hvis man skal være sikker på et skarpt billede.

 

Et godt D-SLR objektiv har en gennemsnitlig opløsning på ca. 50 lp pr. millimeter, men et kompakt kameras med en sensor på størrelse med en lillefinger negl, kræver fra 3 til 5 gange så høj en opløsning af objektivet.

 

Når man tester et objektiv i midten, så er de fleste objektiver så gode, at det reelt er kameraet, som sætter begrænsningerne. Det er målingerne uden for centrum, som er interessante, når et objektiv skal bedømmes.

 

Når der blændes ned er det korrekt at skarpheden (opløsningen) forbedres ud mod billedperiferien, men kun til det punkt, hvor Diffraktionen trækker den modsatte vej. Lige i centrum derimod er skarpheden som regel fin allerede ved fuld blændeåbning.

 

Det menneskelige øje har ligesom objektivet faldende kontrast ved en høj opløsning ( små detaljer). Men i modsætning til et objektiv, så har øjet også en faldende kontrast i den modsatte ende. Øjets følsomhed er størst ved 6 til 8 svingninger pr. grad, som på et print vil svare til ca. 1 LP pr. mm, når betragtningsafstand er på ca. 40 cm. Et menneske øje svarer til et objektiv på ca. 17 mm, som det kendes fra et kompaktkamera. En høj kontrast i det omtalte frekvensområde har større betydning for skarphedsindtrykket end en ekstrem høj opløsning i billedet.

 

Er du “ Pixel-Peeper “ så køber du hele tiden udstyr. Udstyr, som kun marginalt er lidt bedre, end det du allerede ejer, men som ofte har fået så mange nye menupunkter, at betjeningen er et helt kapitel for sig. Hvorfor skal det for resten være så omstændeligt, når en Leica M9, som koster omkring 50 tusinde kroner, kan sælges med en manuel og lidt upræcis fokusering og kun med blænde prioritering.  En stor del af de funktioner som er proppet ind i et moderne D-SLR kamera er for største parten i virkeligheden ren gøgl, som ingen ( seriøs fotograf ) har brug for.

 

For mit eget vedkommende har jeg naturligvis læst alle siderne i betjeningsvejledningen. Så har jeg valgt det ud, som jeg kan bruge, og de resterende funktioner (ca. 90%)  bruger jeg overhovedet ikke, fordi de for mig er overflødige.

 

En del går op i hvor høj ISO indstilling kameraet har. Det er nok relevant for nogen, men ikke for mig. De astronomiske høje ISO indstillinger kan naturligvis bruges til at registrere en begivenhed, som foregår under meget dårlige lysforhold, men til almindelige billeder dur det ikke. Jeg foretrækker at arbejde med lys og ikke mørke.

 

Andre går op i hvor mange pixel kameraets sensor har. Det er nok naturligt, at man gerne vil eje det ultimative, også hvad angår antal pixel, men 10 Megapixel er for mig rigeligt til stort set alt hvad jeg fotograferer. A2 print i optimal kvalitet er ikke noget problem. Hvis man ikke kan få skarpe billeder med 10 Megapixel, så bliver det ikke bedre med 20 eller 30 Megapixel. Har man en forestilling om engang at skulle printe meter store billeder, eller gøre foto til ens levevej, så er der ingen vej uden om.

 

Har man den økonomiske formåen, så køb det bedste af det bedste, men vær klar over at udstyret bliver tungere at arbejde med også i redigeringsmæssigt henseende. Der stilles store krav til billedbehandlingsudstyret. Det går ikke længere med den lille computer. Der skal computerkræfter til, og kravet til ramkort og diskplads vokser med kameraets sensorstørrelse i pixel. Hvis de mange pixel skal have mening, så bør man også investere i en printer, der kan levere print i en passende størrelse og kvalitet.

 

Der er en grænse for, hvor mange pixel der kan presses sammen på en sensor. De små sensorer i kompaktkameraet nærmere sig faktisk en kritisk størrelse. Fotonerne (lyspartiklerne) har en bølgelængde, som alt andet elektromagnetisk stråling har. En pixel kan formentlig ikke have en fysisk størrelse, som er mindre end en fotons bølgelængde. Synligt lys har en bølgelængde på 380-740 nm ( 1 mm = 1.000.000 nm ). På 1 mm kan der ved en bølgelængde på 740 nm maks være plads til ca 1300 pixel i længde retningen, og så er der ingen mellemrum. Det fortæller at en sensor på 5 x 4 mm i teorien maks kan indeholde ca. 30 megapixel. På grund af størrelsen vil den enkelte pixel formentlig rammes af så lidt lys, at der nok genereres meget mere støj end billed. Rent teknisk kan man nok ikke med dagens teknik få plads til så mange pixel på så lille et areal. Objektivet skal også kunne opløse noget der ligner 600 lp pr. mm. Men det er da sjovt at lege lidt med tallene. Hvis jeg skulle komme med et kvalificeret gæt, så er det med dagens teknik nok realistisk at få plads til  ca. 12 - 15 megapixel på en sensor af nævnte størrelse. Tag det her med forbehold for jeg har ikke kunnet få mine antagelser bekræftet andet steds!

 

Nogle af mine bedre billeder er faktisk taget med kameraer i den lave prisende og med lette “plastik” objektiver. Som alle andre vil jeg da gerne have et godt fotoudstyr, men det er ikke alt afgørende. Jeg prioriterer lav vægt temmelig meget, og jeg gør mig altid umage med at udnytte det udstyr, som jeg har til rådighed, optimalt.

 

 


 

 

 

*Kromatisk Aberration*

 

De billedkorrektioner, som moderne redigeringsprogrammer kan udføre, gør det muligt at opnå gode resultater med relativt billige kit objektiver.  I Lightroom 3 og ACR arbejder man med optik profiler, som automatisk kan korrigere for billedaberrationer, herunder kromatisk aberration.

 

Adobe tilbyder helt gratis et serviceprogram, således at man selv kan udarbejde optik profiler. Det er ikke svært, men meget omstændeligt, fordi der skal temmelig mange testoptagelser til.

 

I Lightroom 4 er der sket en væsentlig forbedring, fordi programmet nu er i stand til automatisk at fjerne lateral kromatisk aberration, helt uafhængig af om der er valgt en Lens profil eller ej. Lightroom 4 kan som tidligere versioner reducere farvede kanter i områder med høj kontrast af typen Purple fringes. Det er fringes, som forekommer i forbindelse med de kameraer, der anvender en CCD sensor.

 

I næste opdatering til Lightroom 4 bliver det for første gang muligt at angribe de farvede kanter, som er fremkaldt af refleksioner (Flar og Gost Images), og som ligger uden for de områder, der er i fokus, på en effektiv måde. Tidligere var det nødvendigt med en tur over i Photoshop.

 

Axial kromatiske aberrationer, som er navnet på de lige ovenfor beskrevne farvede kanter, er speciel tydelig i forbindelse med objektiver med stor lysstyrke og ses ofte som purple fringes foran fokuspunktet eller grønne fringes bag fokuspunktet. Bryllupsfotografer, som ofte anvender dyre objektiver med høj lysstyrke, for at bruge dybdeskarpheden kreativt, får ofte disse farvede kanter. Det kan forekomme overalt i billedet. Den store kontrast i bruden og brudgommens klædedragt gør ikke problemet fringes mindre. Det hjælper dog at blænde ned.

 

Axial kromatiske aberrationer er umulige at fjerne ved en simpel justering. Man kender naturligvis de farvernuancer, som kanterne typisk får. Medicinen er at skrue ned for farvemætningen de pågældende steder. Jo mere selektiv man kan gøre det jo bedre, men det er vigtigt at holde øje med de øvrige farver, som nemt bliver påvirket i et eller andet omfang. Derfor er det ofte nødvendigt at angribe problemet lokalt de steder hvor det forekommer. I den seneste Beta udgave af lightroom 4 er man muligvis kommet et godt skridt videre på det punkt.

 

Jeg spotter omgående fringes i et billede, og det generer mig mere end alle andre former for optiske forvrængninger. Jeg kontrollerer altid om det også påvirker Bokeh’en. Det kan være så slemt, at det generer på selv små forstørrelser. Et billede med høj opløsning og tydelige silhuetter af fringes, yderligere fremhævet af en kraftig kontrast, bryder jeg mig ikke om! Problemet forekommer på både dyre og billige objektiver.

 

Lateral kromatisk aberration har vi lige været inde på. Det er forholdsvis nemt at fjerne. Ordet Lateral fortæller, at det er noget, der befinder sig væk fra midten. Det er nærmere bestemt et tværgående fænomen. De tre billeder rød, grøn og blå, som billedet er sammensat af, har ikke samme størrelse ud mod billedperiferien fordi objektivet brændvidde varierer lidt i forhold til lysets bølgelængde. Det er især vidvinkler og zoom objektiver, der kan være plaget af det. De dyre prime objektiver er fra naturens hånd bedre korrigeret på det punkt.

 

Intet er gratis her i tilværelsen, heller ikke billedkorrektioner. Undgå så vidt muligt styrtende linier og skæve horisonter og ændring af billedets størrelse i pixel. Kan tønde eller pudeforvrængningen ikke umiddelbart konstateres, så lad det værre, for alle de nævnte korrektioner påvirker skarpheden og detailopløsningen i billedet. Jeg bruger et lille vaterpas i blitzskoen, når jeg arbejder med stativ og er meget omhyggelig med beskæringen allerede i søgeren, og det sparer på billedkorrektionerne.

 

99 % af alle optagelser kommer ikke længere end til en computer. Her bliver billederne set og bedømt, og det er så det!. Den billedopløsning et computerdisplay kan præstere, stiller jo ikke urimelige krav til hverken sensor størrelsen eller objektivet. Man kan altså fint nyde billeder taget med ganske almindeligt udstyr, også billeder taget med kompaktkameraer og mobiltelefoner. Print i 10 x 15 cm og for den sags skyld helt op til A4 kan selv en god mobiltelefon klare.

 

Allerede som knægt blev jeg overbevist om, at det ikke er udstyret, der gør det alene. Den fodboldspiller, som dominerede dagens kamp, og som havde de fleste pletskud, og derfor blev dagens helt, var mødt op i gummistøvler med skafterne smøget ned, Det var ikke altid råd til sidste nye model i fodboldstøvler i “de gode gamle dage”, men det gjorde ikke fornøjelsen mindre for ham. Talent kan man ikke købe sig til. Med rigtige fodboldstøvler var det måske blevet til et par ekstra mål? Hvem ved?

 

Der er ingen som går op i hvilke fodboldstøvler spilleren har på, når han scorer et godt mål. Der står heller ikke skrevet på et billede om det er eksponeret med et dyrt eller billigt kamera. Hvis det er et godt billede, er det nemlig fuldstændig ligegyldig. Mange gode billeder har ikke nogen særlig høj opløsning. Et godt motiv, et dejligt lys og en fin komposition kompenserer for mange ting. Hold kameraet roligt og fokuser præcist, så går det ikke helt galt.

 

Dårlige farver og manglende skarphed på grund af dårlig eller slet ingen billedbehandling, det springer derimod lige i øjnene.

 

 


 

 

*Farvetilstand *

 

Jeg vil tillade mig at være lidt provokerende. Mange fotoamatører ved rigtig meget om fotoudstyr, og hvad der sker på udstyrsområdet generelt, men de har ofte en mangelfuld viden, hvad angår korrekt billedbehandling. Det forhindrer dem ikke i at producere seværdige billede, men disse billede kunne med garanti være en tak bedre, hvis billedbehandlingen havde været optimal. Når man betragter et færdigt billede, har man jo ikke noget at sammenligne med. Det kræver erfaring og viden på området at se, hvor det kunne være bedre, men hvorfor nøjes med et mindre godt resultat?

 

Den teknik, som danner grundlaget for nutidens billedbehandling er ikke så ny som mange forestiller sig. Additiv farveblanding (RGB) og farveprofiler var basal viden for 50 år siden, hvis man beskæftigede sig med farvefjernsyn. Den gang var det også nødvendigt ind i mellem, at opdele billedet (RGB signalet) i en luminans og en krominans del, som vi kender det fra Lab-farver og YCrCb for at kunne udføre bestemte funktioner.

 

I YCrCb farvetilstanden er billedinformationerne opdelt i en luminansdel Y  og en farvedel bestående af de 2 farvekomponenter Cr og Cb. Farvemodellen er primært udviklet for at kunne konvertere farvetilstanden RGB til en mere hensigtsmæssig farvetilstand, som kan komprimeres på en effektiv og ikke mindst hurtig måde. JPEG billeder og MPEG signaler (videoer) er baseret på farvetilstanden YCrCB.

 

Lab-farver skal lige havde et par ekstra ord med på vejen, fordi meningen med denne farvemodel ofte bliver misforstået. Det er en absolut farvemodel, hvilket betyder, at den er enhedsuafhængig, og så er den baseret på øjets opfattelse af farver. Lab omfatter alle farver, selv farver som øjet ikke kan se. En bestemt farve har altid de samme Lab værdier i modstætning til RGB værdien, som ændrer sig alt efter hvilket farverum (Gamut), der er tale om. En printer, en scanner eller en skærm kan ikke vise eller gengive alle farver og har derfor et afgrænset farverum. Der er også forskel i farvegengivelse enhederne i mellem. De har hver deres helt egen farveprofil.

 

RGB  værdierne beskriver ikke i sig selv en bestemt farve. Farveprofilen beskriver hvilken RGB værdi enheden skal have for at kunne vise den rigtige farve.  Det fører derfor til forkerte farver, hvis enheden sættes sammen med en fremmed farveprofil.

 

Når man udarbejder en farveprofil for en bestemt enhed, så måler man sig frem til de RGB værdier, der vil give korrekte farve.  Uden farveprofiler så ville ikke bare billedskærme, men også kameraer, scanner og printere gengive farvespektret meget forskelligt.

 

Det er en kendsgerning, at man fint kan fremstille farvefotografier uden at have kendskab til farveprofiler overhovedet, men uden en vis viden på området, så bliver man aldrig rigtig dygtig til at redigere billeder.

 

 


 

*Profile Connection Space*

 

Når man konverterer farverne fra en profil til en anden, f. eks. fra ProPhotoRGB til sRGB eller fra den aktuelle arbejdsprofil til printerens farveprofil, så udføres det som regel ved hjælp af en tabel (tabellen er integreret i den enkelte farveprofil). I tabellen er RGB værdierne tildelt en reference værdi. I printerprofiler bruges farvernes Lab værdier ofte som reference, men XYZ modellen finder også anvendelse.

 

Ved hjælp af tabellerne kan en farveprofils RGB værdier nemt konverteres til de RGB værdier som en anden farveprofil kræver. Indeholder en farveprofil farver, som ikke kan rummes i en ny, skal der samtidig med konverteringen ske en tilpasning. Det kan betyde at en given farve får en mindre farvemætning i den nye profil. Ideen er at få farverne tilpasset, så de opleves ens på de aktuelle enheder.

 

Det kaldes Rendering Intent, måden farverne tilpasses på. I foto er det Relative Colorimetric og Perceptual Colorimetric, som er relevante.

 

Relative Colorimetric forsøger at bevare farverne, som de er, men når man går fra en større Gamut til en mindre kan det have den virkning, at meget “kraftige” farver blive reduceret i farvemætning. De tilpasses ved at blive “klippet” til, så de kan være i det mindre farverum. Det betyder tab af farveinformationer. Farvetonen bevares nogenlunde intakt, ligesom lysintensiteten i billedet forbliver uændret. Hvis farverne i kildeenheden ikke ligger uden for destinationensenhedens farverum, så korrigeres der kun for enhedernes eventuelle forskellighed i farvegengivelse.

 

Perceptual Colorimetric har ikke farvenøjagtighed som første prioritet. Det drejer sig mere om at få tilpasset farverne på en måde, så farverne fremstår behageligt. Farvetonen og lysintensiteten bevares, men meget kraftige farver tilpasses på en mere glidende måde, og bliver ikke “klippet” af, som vi kender det fra Relative Colorimetric. Den glidende overgang betyder, at flere farver skal rykkes lidt, og det kan føre til, at en blandingsfarve ikke bliver gengivet helt korrrekt i farvetone.

 

I Lightroom 4 er der mulighed for Soft Proofing af farveprofilerne sRGB og AdobeRGB ( 1998), samt eventuelle installerede farveprofiler for det papir som skal bruges i printeren. Der er yderligere, som noget helt nyt, en kontrolmulighed af displayet’s evne til at kunne vise alle billedets farver.  Aller vigtigst er det dog, at man kan kontrollere om billedets farver kan “rummes” i destinationsprofilen og f. eks kunne vises på et print..

 

I praksis kan det være svært at se forskel på de 2 Rendering Intent metoder, men default så sættes Rendering Intent til Relative Colorimetric for de fleste enheders vedkommende, fordi det giver større farvenøjagtighed.

 

Uden en farveprofil kan vi heller ikke få farvebillederne hentet ud af et kamera, så farverne ligner det vi fotograferede. En Raw konverter skal kende kameraet, herunder også have adgang til en kamera specifik farveprofil for at kunde fremkalde et perfekt farvebillede. Mere om det senere!

 

Det her er ikke en artikel om farveprofiler, men det er vigtigt, at have en vis forståelse for hvad en farveprofil har som opgave.

 

 


 

* RGB er sagen*

 

I Photoshop, som bruger L*a*b til at konvertere mellem de forskellige farvetilstande, er det også muligt at redigere billeder i Lab mode. Jeg har endnu ikke fundet ud af hvad fordelen er for en fotograf. Det skulle være mere effektivt at øge skarpheden i luminans delen (L) frem for hele billedet, forlyder det. Det er korrekt, men hvorfor gå over åen efter vand. Der er ikke noget til hinder for at udføre det samme i RGB mode. Lightroom og Camera Raw skærper til orientering altid billedet i luminansdelen.  Det kan også udføres ved hjælp af et ekstra billedlag og Luminosity som blend mode.

 

Som fotograf arbejder man altid i RGB farve mode. Under forstået, så længe vi arbejder med foto og ønsker optimal billedkvalitet. Hvis man skifter frem og tilbage mellem RGB og CMYK er der et stort kvalitetstab. Der er faktisk også et tab, når der skiftes mellem RGB og Lab, men tabet er meget lille, og kan ikke registreres ved hjælp af det billede, displayet er i stand til at vise. I praksis har tabet ingen betydning, men der er efter min mening absolut ingen gevinst ved at redigere i Lab mode, tværtimod!

 

Farvekomponenter *a og *b er der mange der bearbejder på forskellig vis i Lab mode. Det er kun hvis man vil have dårligere billedkvalitet, at det har mening.

 

For de “Photoshop’er”, der af en eller andet grund gerne vil arbejde i Lab-farver og direkte i de tilhørende farvekanaler, kan farvemætningen godt reguleres uden nævneværdige bivirkninger. Det kan eksempelvis udføres ved at regulere forstærkningen i a og b kanalerne. Ved at justere kontrasten lige meget op eller ned i begge kanaler, så ændrer farvemætningen sig. Der findes imidlertid allerede specielle justeringsmuligheder i både Lab og RGB mode. Derfor har jeg svært ved at se noget formål med billedbehandling direkte i Lab farvekanalerne.

 

Når Støjreducerende programmer skal fjerne støj i luminansdelen, så konverterer de ikke RGB til Lab, men bruger i stedet den mere velegnede farvemodel YCrCb, hvor værdierne ligesom i RGB modellen har relation til farveprofilen. YCrCb er, sagt på en anden måde, ikke en absolut farvemodel, som f. eks. L*a*b og XYZ

 

Photoshop og Lightroom arbejder også med farvemodellerne HSB (Hue Saturation Brightness) og HSL (Hue Saturation Luminans). Det er 2 farvemodeller, som kun afviger lidt fra hinanden, men rent grafisk giver de samme redigeringsmuligheder.

 

I et redigeringsprogram er man nødsaget til at konvertere fra RGB til en af de her 2 ovennævnte farvemodeller, for at kunne justere farvemætningen (Saturation) og farvetonen (Hue) på en nem måde. En farvemætnings eller farvetone justering kan i redigeringsprogrammet nemlig udføres med bare en enkelt reguleringsknap uden at hvidbalancen berøres. Det kan man ikke i RGB mode. Det gør det naturligvis også tilsvarende nemmere at ændre Luminansindholdet.

 

De 2 sidst nævnte farvemodeller blev udviklet i 70erne til grafiske formål, primært af hensyn til billedbehandling på en computer.

 

I RGB mode kan man stort set kun justere kontrast og farvebalance. Til gengæld er billedmanipulering kun muligt i RGB mode.

 

 


 

*Brug Lightroom eller Camera Raw*

 

Lightroom og Camera Raw fungerer fuldstændig ens, hvad redigeringsværktøjer angår.  Camera Raw kan dog ikke udskrive (printe) direkte. Billedet skal gemmes som en billedfil eller åbnes direkte i Photoshop. Det originale billedmaterialet ændres ikke i de her 2 Raw konvertere, og den rækkefølge justeringerne foretages i er i princippet fuldstændig ligegyldig. Arbejdsprofilen ligger altid fast. Det er  ProPhotoRGB ( flest mulige farver), og der arbejdes primært med lineære farvekanaler og stor farvedybde. Sidst men ikke mindst så beholder man originalmaterialet intakt.

 

Lightroom og Camera Raw er først og fremmest skabt til at behandle de rå billeddata, men begge Raw konvertere er også særdeles velegnede til JPEG og TIFF billedfiler. De 2 billedformater flyttes nemlig ind i arbejdsprofilen ProPhotoRGB med en farvedybde på 16 bits pr. kanal og gammakurven fjernes, så farvekanalerne bliver lineære.

 

For JPEG er udgangspunktet altid 8 bits pr. kanal og farveprofilen er typisk sRGB. Det større farverum og de 16 bits pr. kanal, som JPEG eller TIFF filen bliver konverteret til i nævnte Raw konvertere, betyder mindre tab af kvalitet i forbindelse med de mange avancerede justeringer begge programmer kan udføre.

 

Et moderne redigeringsprogram foretager justeringerne i hukommelsen og ikke direkte på originalbilledet. Datakraften er så stor i dag at justeringerne altid udføres i den farvemodel som er bedst her og nu. Det vi ser på skærmen er det samlede resultat af alle justeringer og ikke den justering som aktuelt udføres her og nu.

 

Alle justeringer i Lightroom og Camera Raw kan skrives ( beskrives) i klar tekst. Har man tekstfilen til rådighed og originalbilledet og åbner originalbilledet i et af programmerne, så får vi et  færdigt billede frem på skærmen ved hjælp af tekstfilen. Sletter vi tekstfilen så må vi begynde forfra med justeringerne.

 

Når vi i Lightroom åbner en virtual kopi, så er det i virkeligheden en ekstra tekstfil vi åbner. Når vi skifter mellem original og kopi, så er det tekstfilen vi skifter ud. Går man ind i tekstfilen med en teksteditor og ændrer indstillingsværdierne, så juster vi faktisk billedet.

 

Programmerne gemmer automatisk alle justeringerne (tekstfilerne) i en fælles database og eventuelt også i en ekstra XMP fil sammen med hver eneste billede. Mister vi databasen, så er det justeringerne for alle billederne, der mistes. Originalbillederne fejler ikke noget, men nu må vi begynde forfra med justeringerne, med mindre vi har gemt XMP filen for det pågældende billede. Husk at XMP filen kun eksisterer, hvis muligheden er tilvalgt i Catalog indstillingerne. En back-up af databasen er en back-up af billedindstillingerne, men aldrig af originalbillederne og eventuelle XMP filer.

 

Det er en ekstra sikkerhed at gemme sine original billeder i DNG formatet for så er XMP filen automatisk vedhæftet. Den originale Raw fil kan også indlejres i DNG filen. Men det fylder desværre på harddisken.

 

Det billede vi ser på skærmen er ligesom JPEG billedet tilført en gamma kurve, fordi det menneskelige syn ikke er lineært. Uden gammakurve ville billedet være meget “fladt” og kontrast fattigt at se på. En gamma kurve er i lighed med skarphed en form for kontrast regulering.

 

Når man justerer den enkelte farvekanal i et billede med indlagt gamma kurve vil resultatet sjældent  være 100% perfekt overalt i billedet. Det er især vanskeligt for ikke at sige umuligt at efterjustere farvebalancen optimalt i et billede med en gamma kurve på grund af ulineariteten. Hvidbalancen findes nemlig ved at man forskyder farvekanalerne i forhold til hinanden.

 

Derfor bør hvidbalancen være korrekt indstillet i kameraet, hvis JPEG er valgt som billedformat i kameraet. Indstil mest muligt i kameraet og vent ikke til bagefter, hvis du fotograferer JPEG. Hvis man ønsker at efterbehandle et JPEG billede vil det være en fordel, hvis skarpheden er sat til minimum og støjundertrykkelsen slået fra i kameraet.

 

Det hedder sig, at fotograferer man Raw, så kan man bare vælge farvetemperaturen bagefter. Det er en sandhed med modifikationer. Et fotografi taget ved lyset af nogle glødepærer kan ikke laves om til et perfekt billede taget ved dagslys. Man kan komme tæt på, men den perfekte hvidbalance og korrekte farver får man kun, hvis man vælger den farvetemperatur, som eksisterede da billedet blev eksponeret.

 

Læg i øvrigt mærke til at i Lightroom og Camera Raw kan man ikke selv vælge arbejdsprofil og farvedybde og den slags. Adobe har forlods valgt det de mener fører til det bedste billedresultat. Der er ikke noget at tage fejl af!

 

Gør billedet færdigt i Lightroom eller Camera Raw, hvis det er muligt. Det giver den højest kvalitet.

 

Brug Lightroom eller Camera Raw til JPEG og TIFF filer, hvis billederne skal justeres.

 

 


 

*Billedskærpning og fjernelse af støj*

 

Det starter alt sammen i kameraet. I de fleste kameraer sidder der et optisk filter foran billedsensoren, som skal reducere det moire flimmer, som kan opstå ved de motiv mønstre, som f. eks. ofte forekommer i skjortestof, gitre og lignende. Det er en form for interferens mellem sensorens regelmæssig anbragte pixel og de meget fine mønstre der kan forekomme i et motiv.

 

Ved at reducere billedopløsningen ved hjælp at et optisk filter (anti-aliasing filter) også kaldet et low-pass (lav-pas) filter, minimerer man problemet. Men det går ud over billedskarpheden, fordi et filter ( lav pas ), som reducerer de aller fineste detaljer i billedet, også påvirker kantskarpheden. Kanterne bliver bogstavligt talt lidt bredere.

 

Ved hjælp af Fourier transformation, er det matematisk muligt at måle et kameras opløsning ved at analysere en sort/hvid kants bredde. Den ideelle kantbredde består af 2 pixel (ved et sort/hvidt stregmønster ) og det svarer til den teoretisk højeste opløsning, der kan hentes ud af en given billedsensor. Der skal desværre mere end en pixel fra et Bayer mønster til, for at kunne beregne en enkelt billedpixel, så uanset lav pas filter eller ej, så kan man aldrig opnå den teoretisk højeste opløsning

 

Når man anvender et optisk filter på så tidligt et tidspunkt i billedforløbet, og ikke i stedet fjerner moire efterfølgende, de steder i billedet hvor det eventuelt måtte forekommer, er forklaringen ret simpel. Det er kun muligt at fjerne moire i selve kameraet med et optisk filter. Var der andre og nemmere muligheder i kameraet, så havde producenten nok benyttet sig af det i stedet for.

 

I kameraer med meget høj opløsning, kan filtret godt undværes ved de fleste motiver. Man skal dog være klar over, at problemet stadigvæk eksisterer, og derfor vil kunne forekomme under visse omstændigheder. Gevinsten er til gengæld en højere opløsning og skarpere billeder, men til billeder i A2 størrelse taget med kameraer med en opløsning på 10 megapixel eller mere, er det uden praktisk betydning.

 

Der er mange andre ting end det optiske filter som reducerer opløsningen. Objektivet spiller naturligvis også en ret afgørende rolle. Diffraktionen i objektivet ved nedblænding får opløsningen til at falde. Den faldende opløsning har på et tidspunkt samme effekt som et anti-aliasing filtret. Det optiske filter kan derfor undværes allerede ved blænde f/8 eller f/11, hvis sensorens størrelse er APS-C. Demosaik algoritmen, som skaber billedet ud fra sensorens Bayer mønster, nedsætter også billedskarpheden en del.  I praksis reduceres slutopløsningen typisk til ca. 80% af det teoretiske mulige. Et objektiv med en god kontrast i det område hvor øjet er mest følsom for detaljer vil alt andet lige levere billeder med en tilsyneladende højere opløsning.

 

De ovenfor beskrevne forhold kræver, at billederne skal skærpes for at vi kan bedømme billedet korrekt på displayet. Den første skærpelse af billedet kaldes “Capture Sharpening”. Senere i redigeringsforløbet  kan det komme på tale at skærpe billedet partielt, men ellers skal billedet først slutskærpes i forbindelse med printning. Hvor meget et billede skal slutskærpes afhænger af printeren og papirmediet og printes størrelse.

 

Der findes tilsyneladende mange måder at skærpe et billede på, men det er en misforståelse. Det er lige som i musik. Det er det samme tema der går igen, blot med variationer. Grundelementerne i billedskærpning er næsten altid de samme.

 

Billedskærpning er en form for lokal kontrast. Hvis lysværdien i pixel placeret ved siden af hinanden henholdsvis hæves og sænkes, så vokser kontrasten, og hvis disse pixel tilfældigvis udgør en kant, så oplever vi en større skarphed det pågældende sted.

 

Kunsten er, at kunne lokalisere de kanter og små detaljer, som vi gerne vil tilføre lidt ekstra kontrast, for at øge skarphedsindtrykket. Til det formål bruges der filtre, og de mere avancerede metoder gør tilligemed udstrakt brug af billedafmaskning.

 

Inden for svagstrøm er det almindeligt, at omsætte en given proces eller funktion, til noget man kender og kan måle og bearbejde matematisk. Et elektrisk frekvensfilter fremstillet af keramik, opfører sig som et ækvivalent filter, bestående af en spole og en kondensator. Hvis det opfører sig, som om det består af nævnte diskrete komponenter, så har vi de matematiske formler til rådighed, som er nødvendige, når der skal udføres beregninger eller korrigeres for et eller andet i kredsløbet

 

Det er ikke anderledes inden for billedteknik.

 

Meget billedteknik er f. eks baseret på, at et billede matematisk kan deles op i svingninger (spatial frekvenser), hvor de højeste frekvenser udgøres af de små detaljer og skarpe kanter. Ved spatial frekvenser er der tale om  frekvenser i forhold til rum, og ikke frekvenser i forhold til tiden. Mange vil nok mene, at der her er tale om noget abstrakt, men det er en teoretisk model, hvor billedindholdet er omsat til et frekvensspektrer, som man matematisk kan bearbejde og dermed også analysere. Med modellen er det f. eks. lettere at forstå hvordan et givent filter fungere.

 

Et stilbillede ændrer sig ikke i forhold til tiden, som tilfældet er med lydsvingninger, men som den franske fysiker og matematiker Joseph Fourier har påvist, kan en firkant eller selv en trekant i et billede beskrives, som bestående af en række sinus svingninger. Ved at tage et billede af en sort firkant på hvid baggrund, og analysere kanten og stejlheden i det sort/hvide spring, og dele det op i et frekvensspektrer, kan kameraets opløsning udledes med meget høj præcision. Metoden kaldes Fourier Tranformation.

 

Programmet Imatest Studio, som kan måle billedkvalitet, anvender en simpel opbygget testtavle, med sorte firkanter, og analyserer billedopløsningen udelukkende ved hjælp af Fourier Transformation. Programmet kan prøves gratis i 30 dage! Det er muligt med programmet at udskrive testtavler af næsten enhver afskygning. En test af de objektiver man ejer kan bedre end noget andet vise udstyrets begrænsninger og kvaliteter. Jo bedre man kender sit udstyr, jo mere kan man få ud af det.

 

ImageJ er et gratis program, som hovedsagelig anvendes af videnskabsfolk til at undersøge vævsprøver og lignende. Det kan være billeder f. eks. fra et mikroskop. Programmet er også velegnet til at måle billedopløsning ved hjælp af f. eks. et testkort med en Siemens Star. Programmet udmærker sig ved, at det er meget enkelt at tælle pixel og udføre målinger og beregninger i den forbindelse. Sidst men ikke mindst så kan programmet ligesom Imatest måle billedopløsning ved hjælp af Fourier Tranformation. Programmet findes i en 32 og 64 bits udgave til både Windows og Mac.

 

Hvis man kan analyse et rugbrød og dele det op i de enkelte ingredienser, så kan man også gå den anden vej og blande ingredienserne og bage et nyt rugbrød.

 

Det er forholdsvis simpelt at fremstille høj og lav pas filtre inden for elektronik. Et sådant filter kan fremstilles med bare en enkelt modstand og en enkelt kondensator, men når det drejer sig om billeder er det knap så simpelt.

 

Photoshop har en filterfunktion ved navn Custom (Det er et Convolution filter), hvor man ved at udfylde en grid med passende tal kan få filtret til at opføre sig som f. eks. et emboss filter, et lav pas filter (Blur) eller et høj pas filter. Det sidste filter kan bruges i forbindelse med billedskærpning.  Matrixens tabel bestemmer filtrets funktion. Filtret gennemløber og bearbejder hver eneste pixel i billedet. En meget anvendt matrix er Laplacian edge detektor.

 

Det er også muligt at detekterer kanter i vandret og lodret plan eller diagonal plan for den sags skyld. Mulighederne er mange. Det er den slags filtre vi kan bruge til at fremstille masker med. Masker er nødvendige, når vi skal skærpe et billede eller fjerne støj på en hensigtsmæssig måde.

 

Det er nemt selv at afprøve mulighederne i Photoshops Custom... filter.

 

Her nogle nemme eksempler i en 3 x 3 matrix placeret lige i midten.  Scale = 1 og Offset = 0

 

Blur:

 

1 1 1           1 2 1

1 1 1           2 4 2

1 1 1           1 2 1

 

Sharpen:

 

-1-1-1         0 -1  0

-1 9-1        -1  5 -1

-1-1-1         0 -1  0

 

Edge Enhancement:

 

0 0 0          0-1 0      -1 0 0

-1 1 0          0 1 0       0 1 0

0 0 0          0 0 0       0 0 0

 

Find Edges:

 

0 1 0        -1-1-1       1-2 1

1-4 1        -1 8-1      -2 4-2

0 1 0        -1-1-1       1-2  1

 

Emboss:

 

-2-1 0

-1 1 1

0 1 2

 

At detektere kanterne i et billede er en fundamental funktion inden for billedbehandling. Når vi ved hvad der er kanter og hvad der er større eller mindre flader, har vi mulighed for at målrette f. eks skærpning og støj undertrykkelse. Vi kan lave en maske, som f. eks. kun tillader billedbehandling i de områder som ikke er kanter, eller omvendt fremstille en maske som beskytter kanterne.

 

Blur funktionen, som er en meget vigtig funktion, er et lavpasfilter. De høje spatial frekvenser fjernes mere eller mindre alt efter, hvor meget blur vi tilfører et billede. Det betyder at små detaljer og kanter “jævnes ud”. Hele billedet bliver uskarpt! Med en maske kan man  selektivt udglatte større flader for at reducere støjen de pågældende steder og bevare kanterne skarpe. Der findes dog mere avancerede metoder, hvor blandt andet en eller flere matrixer i form af Convolution filtrering indgår for at kunne skelne mere præcist mellem støj og billedsignal. Der findes også algoritmer som kan hjælpe med til at genkende et bestemt støjmønster.

 

 


 

*Unsharp Mask*

 

Unsharp Mask er i princippet et avanceret høj pas filter. Et høj pas filter er med til at fremhæver de høje spatial frekvenser, og det omfatter de små detaljer og kanter i billedet. Et høj pas filter alene er ikke nok, hvis vi skal have skærpet billederne på en ordentlig måde. Der skal mere til, og vi skal en lille omvej for ikke at reducere de lave frekvenser for meget samtidig.

 

Her er opskriften på et digitalt høj pas filter udført med Lag i Photoshop.  Der skal bruges 3 lag. Det øverste lag skal inverteres (til et negativ billede ) og tilføres blur ( f.eks. Radius 2). Opacity for øverste lag skal sættes til 50 procent. Merge lag 2 og 3 er næste skridt, og vi har nu et lag, som vi kan lægge sammen med det nederste lag ( Blending mode skal i så fald være Overlay). Det giver samme resultat som en Unsharp Mask hvor indstillingerne er sat til Radius 2, Amount ca. 50 og Threshold 0.

 

En alternativ metode. Følgende metode  er meget anvendt som slutskærpning før print. Der skal her bruges 2 lag i alt. Det øverste lag sender vi gennem Photoshops High Pass... filter med f. eks. radius 2. Blending mode sættes til Overlay. HardLight og Soft Light kan i nogle tilfælde være et alternativ, som Blending mode. Det er lidt hurtigere end førnævnte metode, fordi vi bruger Photoshops egen High Pass filter.

 

Brug Unsharp Mask i stedet for, det giver nøjagtig det samme resultat. Vi kan ændre radius, samtidig med at vi kan se resultatet, og så har vi mulighed for at sætte et Threshold. En fornuftigt udvidelse af metoden kunne være at tilføje en maske, således at større ensartede flader holdes uden for skærpning. Alternativt er Smart Sharpen også en god løsning, hvis den er suppleret med en maske.

 

Med masker og lag ligner det hele efterhånden mere Sharpening delen i Lightroom og Camera Raw, som i princippet er en Unsharp Mask, hvor der er tilføjet forskellige filtre, så skærpningen kan kontrolleres meget præcist, og hvor det kun er luminansdelen der skærpes. De mange filtre som kan finindstilles gør det lettere at undgå Halo fænomenet, som opstår når kanter pikes ved for kraftig skærpning, og det er også lettere kun at skærpe de dele af billedet, hvor det gør mest gavn.

 

Unsharp Mask, som har en historie fra før verdenen blev digitaliseret, er lidt højtideligt sagt fundamentet for alt skærpning. I fordoms tid arbejdede man med negativer, men her er den originale opskrift overført til Photoshop.

 

1. Dupliker originalen så der er 2 billeder. En original og en kopi.

2. Tilfør kopien en kraftig omgang Blur.

3. Skru ned for lys og kontrast på kopien.

4. Subtrahere kopien fra originalen ( Brug Apply Image...  muligheden i Photoshop)

5. Justere lys og kontrast

 

Nu har vi et billede, som er skarpere over det hele!

 

I mange gratis redigeringsprogrammer springer man over, hvor gærdet er lavest. Til skærpning anvender man et simpelt convolution filter. Det er den nemme løsning! Princippet er beskrevet tidligere i det her afsnit.

 

Støj i billedet og skærpning er uløselig forbundet sammen. I Lightroom og Camera Raw er støjreduktion og skærpning da også sat sammen under menupunktet Detail.

 

Når støj skal fjernes fra et billede uden at det går ud over opløsningen, så kræver det temmelig meget. Kunsten er at kunne skelne mellem billedinformation og støj. Det er tydeligt at i mange billige kameraer anser man alt andet end kanter og større detaljer for at være støj. Billedet får en omgang Blur, ret ukritisk. Sådanne billeder er ikke særlig indbydende at se på. I de værste tilfælde ligner det et dårligt maleri, malet med en lidt for bred pensel.

 

I lightroom og Camera Raw hører støj reduktionen til blandt de absolut bedre og jeg ville personligt ikke ofre en krone på de alternative støjreduktions programmer og moduler der kan tilkøbes.

 

Ved støj reduktion har vi brug for at vide, hvad der er kanter og billeddetaljer akkurat som ved skærpning. Men uanset hvor gode algoritmer og masker der sættes ind på opgaven, så er det tydeligt at Blur er midlet på de større flader. Skærper man et billede som lige har fået en omgang støjreduktion, så kommer støjen i nogen grad tilbage igen i de større flader. Støj og sharpening hænger sammen!

 

Lidt forenklet kan man sige, at ved Sharpening øger man kontrasten, og ved støjreduktion mindsker man kontrasten. Der er 2 former for sensor støj. Den mørke støj som har et fast mønster, kan forholdsvis nemt fjernes, også i kameraet. Den tilfældige støj (Random Noise) er den vi har problemer med, og der er reelt kun den mulighed at reducere problemet ved at tilføre billedet Blur i kontrolleret form ved hjælp af masker og sofistikerede algoritmer.

 

Billedets opløsning har betydning for hvor tydeligt støjen kan ses. Har en sensor mange pixel, så vil støjen være finere i et billedet ved samme forstørrelsesgrad, sammenlignet med en sensor der indeholder færre pixel. Man kan sige at den kraftigere støj, som flere pixel på samme areal normalt genererer,  rekompenseres lidt på grund af en mindre forstørrelsesgrad.

 

I Lightroom og Camera Raw er ideen helt klar. Sharpening og  Luminans Noise Reduction skal arbejde sammen, så det samlede resultat bliver mere optimal. Bemærk endnu engang  at både Støj reduktion og skærpning udføres i luminansen. I en traditionel Unsharp Mask og det der kaldes High Pass skærpning i Photoshop påvirkes krominansdelen også, og det kan i enkelte tilfælde føre til lidt farveforvrængning.

 

Når skærpning og støj fjernelse kan bearbejdes samtidig, som tilfældet er i Lightroom og Camera Raw, så ser slutresultatet mere naturlig ud, og billedet tåler at blive forstørret meget mere op uden at virke unaturligt. Går man for kraftig til værks med hensyn til støj undertrykkelse, så virker overgangene mellem større flader og især kanter kunstig. Lidt støj kan ofte være med til at glatte farveovergangene og så kan det i virkeligheden ikke ses på selv meget store forstørrelser.

 

Color støj i skyggerne ( forekommer også ved lav ISO) og i hele billedet ved høj ISO fjernes af begge programmer på fornem vis. Det kan ikke efterfølgende fjernes lige så godt i Photoshop. Det gælder især farvestøj i skyggerne.

 

OBS! Bemærk, at når Alt knappen holdes nede samtidig med en justering, så kan man i Sharpening direkte se hvordan filtrene agerer.

 

 


 

 

 

*PhotoAcute*

 

Til orientering: Den mest effektive måde at fjerne støj på er ved at tage et større antal billeder af samme motiv, helst med brug af et stativ. Støjen er nemlig forskellig fra billede til billede, men motivet er det samme. Det betyder at et program som PhotoAcute kan sammenligne  og afgøre, hvad der er støj, og hvad der er billedinformationer. Selv ved meget høj ISO kan programmet hente detaljer frem, som ikke kan ses i det enkelte billede.  Mange moderne kameraer kan jo tage fra 3 til 8 billeder i sekundet, så ideen er ikke så dårlig.

 

Når man tager en serie billeder, så vil billederne, selv med brug af et stativ, være forskudt nogle pixel. Der kan derfor være små forskelle i opløsningen på de enkelte billede. De ekstra detaljer kan PhotoAcute samle i et dobbelt så stort billede. Det betyder en lidt højere opløsning end det enkelte billede kan udvise. For at kunne tilføre et slutbillede flere detaljer, er det selvsagt nødvendigt, at billedet har en større opløsning i pixel.

 

Programmet kan oven i købet arbejde med Raw filer. Programmet kræver tilstedeværelsen af Adobe’s Digital Negative Converter. Denne Converter kan læse de proprietære Raw formater fra de forskellige kameraproducenter. Converteren kan enten gemme de rå data fra sensoren uforarbejdet eller i et lineært (demosaiced) format, i begge tilfælde taler vi om det såkaldte DNG format.

 

Det lineære format er det resultat, man får, når Bayer mønstret ved hjælp af en algoritme er blevet omsat til et billede. Det er ikke det endelige billede, for det kræver yderligere en tilpasning af farverne ved hjælp af en farveprofil. Det lineære billede mangler også en gammakurve og hvidbalance justering. Billedet er forsat så “rå” at eventuelle eksponeringsreserver  stadigvæk ikke er udnyttet. Krominans og luminansstøj er der normalt heller ikke gjort noget ved.

 

Fidusen er imidlertid, at et lineært billede kan bearbejdes på forskellig vis. Støj og billedgeometri, herunder kromatisk aberration og vignetting kan korrigeres på et lineært billede.

 

Et lineært billede fylder desværre 3 gange så meget, som de rå billeddata, og selve demosaic processen kan ikke forbedres senere hen, og det betyder at fremtidige  algoritmer, som ville kunne forbedre konverteringen, ikke vil være en mulighed.

 

Nu kan vi ikke spørge kameraproducenten, og hvis vi gjorde, fik vi nok ikke noget svar!  Men der er ingen tvivl om, at for at kunne korrigere Raw filen i kameraet  for støj og billedaberrationer, og det er der flere og flere kameraer der gør, skal de rå data konverteres til et lineært billede først.

 

Mit bud er derfor at Raw filen fra mange kameraer ikke længere indeholder de uforarbejdede rå data direkte fra sensoren, men data som er bearbejdet i et eller andet omfang først. Det er dermed reelt kameraets indbyggede algoritme, som bestemmer opløsningen ( billedkvaliteten). Det betyder, at der ikke vil være forbedringer at hente i Lightroom eller Camera Raw, hverken nu eller senere hen? Sagt på en anden måde: Fremtidige forbedringer i behandlingen af Raw filer er udelukket, fordi de rå data er blevet omsat til et lineært billede allerede i kameraet

 

Programmet kan i øvrigt mange andre interessante ting.  På www.photoacute.com er der eksempler på programmets formåen. Jeg bruger selv PhotoAcute lejlighedsvis, og jeg kan garantere, at programmet kan det eksemplerne på hjemmesiden viser. Der findes en prøveversion, så der er ingen grund til kun at tage mine ord for gode varer. Prøv selv.

 

Den største fejl fotografer begår i forbindelse med støjfjernelse og skærpning er, at der gås for hård til værks. Når kanter eller større flader behandles ensidigt, og især alt for kraftigt kommer billedet let til at se unaturlig ud. I Lightroom kan et billede få tilført Grain (korn) kunstigt. Det kan være for at simulere analog filmmateriale, men det kan også i enkelte tilfælde bruges, hvis farverne har en tendens til at “klumpe”. Lidt støj har en udjævnende effekt (Feathering). Et skarpt billede med lidt støj er langt at foretrække frem for et billede, hvor Noise Reduction er overdrevet.

 

Den bedste måde at undgå støj på er en korrekt eksponering. Undereksponerede billeder indeholder ekstra meget støj. Når man undereksponerer et billede svarer det til at øge ISO indstillingen.

 

 


 

*Kameraprofiler*

 

Men inden vi når frem til at skærpe billedet skal vi have fremkaldt Raw filen i konverteren. Det kræver en kameraprofil at få de rigtige farver frem, nøjagtig som tilfældet er med  alle andre enheder, som indgår i processen fra kamera til print. Det kræver oven i købet mere end 1 kameraprofil, for at være dækket godt ind.

 

Hvorfor har man egentlig brug for forskellige farveprofiler, og hvad er en korrekt farve for øvrigt? Hvis det kun var kameraets sensor, der skulle farvekorrigeres for en enkelt lyskildes vedkommende, var sagen forholdsvis enkelt. Men til forskel fra enheder, som f. eks. en Printer, et Display og en Scanner påvirkes kameraet af de variationer i farvetemperatur, som dagslyset har i løbet af dagen. Men det er desværre ikke kun farvetemperaturen som kan variere. Farvespektret, som er de farver der er repræsenteret i lyskilden, varierer også temmelig meget.

 

Når det er rigtigt galt med lyskilden, så er der farver som stort set ikke er repræsenteret i den pågældende lyskilde. Det er særligt problematisk, hvis motivet er belyst af flere lyskilder, med hver sit frekvensspekter. Lightroom 4 har fået en udvidelse, der gør det muligt at indstille farvetemperaturen partielt.

 

Interiøret påvirker også farverne. Skal man visuelt vurdere et billede, så nytter det ikke at gøre det i et rum, hvor væggene er malet knaldrøde.  Det vil give et dominerende rødt farveskær over det hele.  Dominerende farver fra omgivelserne påvirker kameraets farvegengivelse på samme måde. Blå stik i skyggen midt på dagen og  kolde farver, hvis skyerne dækker hele himmelen, og varme farver om morgen og om aftenen o.s.v. Hertil kommer at de forskellige objektiver/ kamera kombinationer sjældent har fuldstændig samme farvesyn.

 

Den menneskelige hjerne er i stand til at abstrahere fra forskellige farvetemperaturer, forstået på den måde, at uden mulighed for direkte sammenligning, vil farverne opleves som værende naturlige, selv om lyskilden f. eks. består af glødelamper eller en anden tilfældig lyskilde. Står vi imidlertid i et rum med dagslys og kigger ind i et rum oplyst af glødelamper, er der en tydelig forskel. Nu kan vi godt registrere at der er en kæmpe forskel i farvetemperatur og samtidig tydeligt konstatere, at det påvirker farvegengivelsen. Kameraet “hjerne” lader sig ikke påvirke på samme måde.

 

En kameraprofil er altid kamera specifik. Det betyder, at hver eneste kameramodel har sin helt egen farveprofil. Det ved de fleste, men at der kan vælges mellem flere kameraprofiler, er ikke gået op for ret mange. At det tilligemed er muligt selv at tilpasse farverne til forskellige lysforhold, er der kun få der ved.

 

Når programmerne opdateres til et nyt kamera indbefatter det også nye kameraprofiler. Det er under menupunktet Camera Calibration, vi kan vælge mellem disse farveprofiler  Antallet af profiler varierer, men for de fleste kameraers vedkommende, er der mindst et halvt dusin at vælge imellem. Hertil skal lægges de kamera specifikke farveprofiler, som man selv producerer.

 

Nogle kameraprofiler er tilpasset til f. eks portræt og landskab, mens andre kan være neutrale, “troværdige” o.s.v. Adobes farveprofiler tager ikke specielt hensyn til objektivets farveopfattelse eller lyskildens svagheder. Hvis lyskilden har et farvespektrer, som afviger fra sollysets, skal man selv være aktiv og selv producere de nødvendige kameraprofiler.

 

De fleste fotografer gør imidlertid slet ingen ting og benytter Default  Adobes Standard kameraprofil, som All-round farvefilter. De fleste fotografer er udmærket tilfredse med det denne kameraprofil præsterer.

 

For bare få år siden var det ikke muligt at vælge forskellige kameraprofiler, og det var slet ikke muligt selv at fremstille eller tilpasse farveprofilerne. Oprindeligt overholdt kameraprofilerne ICC standarden, men Adobe har valgt sin helt egen DNG standard.

 

Som noget nyt kan kameraprofilen også indlejres i en DNG fil. Det sker f. eks. automatisk, når billedet (som en DNG fil) eksporteres fra Lightroom eller Camera Raw. Farveprofilen kan godt tildeles en prioritet, som ikke tillader indlejring i billedfilen og farveprofilens brug kan også være begrænset på anden måde.

 

De proprietære Raw formater har ikke en kameraprofil indlejret. Den skal først bruges, når Raw filen  fremkaldes eksternt i noget velegnet software. Det er producenten af software programmet, der udarbejder kameraprofilen. Det nye er, at nu kan fotografen selv udarbejde en kameraprofil.

 

 


 

*DNG Profile Editor*

 

Hvem har brug for sine egne farveprofiler? Det kan en portræt fotograf f. eks. godt have. Lysanlæg har ikke altid den samme farvetemperatur, selv om afvigelserne som regel er små, så her kan der være en god mening i at fremstille en farveprofil, som f. eks. gengiver hudtonerne på en mere behagelig måde. Fotografen anvender måske også forskellige kameraer og objektiver og ønsker ensartede resultater hver gang.

 

De fleste amatørfotografer anvender en standard profil og korrigerer farverne bag efter, hvis de synes, der er et behov. Det gør en professionel reklame fotograf ikke. De emner den professionelle fotograf  fotograferer skal fremstå med så præcise farver, som overhovedet muligt, og det skal være her og nu, så resultatet kan vurderes uden forsinkelse! Korrekte farver skal ikke være et spørgsmål om efterbehandling. Farverne skal helst være på plads i første hug, og omgående kunne kontrolleres på et display, og det kræver en perfekt kameraprofil.

 

Adobe stiller det nødvendige programmel til rådighed helt gratis. Programmet hedder DNG Profile Editor. Det er kun billeder gemt i DNG formatet, som kan åbnes i programmet. De kameraprofiler, som er installeret på computeren, kan vælges som base profil. Base profilen bruges som udgangspunkt for ens egen kameraprofil. Det er nemmest, hvis man vælger en base profil, som kun skal ændres lidt. Det skal naturligvis være et relevant DNG billede, der indeholder den eller de farver, som man ønsker at korrigere lidt.

 

Det er muligt meget selektivt, at gå ind og justere de berørte farver. Når man er tilfreds med farverne på billedet, kan ændringerne i base profilen eksporteres til mappen, hvor alle kameraprofilerne er placeret. Profilen er fortsat kamera specifik og er kun tilgængelig for billeder taget med et tilsvarende kamera. Filens navn på harddisken er ikke nødvendigvis identisk med Profile navnet. Derfor skal man holde tungen lige i munden. Det er profil navnet, som kommer frem i f. eks. Lightroom. Læs hvad Adobe skriver på deres hjemmeside og lær noget mere om betjeningen ved at se deres Tutorials.  Adobes præinstallerede kameraprofiler kan overskrives, så pas på med filnavnet, hvis de originale filer skal bevares intakte!

 

På et afgørende punkt afviger en kameraprofil fra en “almindelig “ farveprofil. Et kamera bruges i forbindelse med forskellige lyskilder, som har forskellig farvetemperatur og frekvensindhold. Det er ikke hvidbalancen, der er problemet, men farvegengivelsen, som varierer lidt alt efter farvetemperatur.

 

Hvis man ønsker at kreere en ny farveprofil, helt fra grunden, så fotograferer man en Colorchecker ( GretagMacbeth ) med 24 felter (18 forskellige farver og en grå skala på 6 felter) ved 2 forskellige farvetemperaturer. Der skal bruges et billede taget ved 2800 Kelvin grader ( glødelampe)  og et billede taget ved 6500 Kelvin grader (dagslys).

 

På de 2 optagelser skal Colorcheckerens placering afmærkes. Nu ved Editoren hvor felterne med de18 farvepunkter er. Editoren korrigerer automatisk farverne de steder, hvor det er nødvendigt på de 2 billeder og kontrollerer naturligvis også, at hvidbalancen er korrekt. Er resultatet mod forventning ikke tilfredsstillende, så er det muligt manuelt at justere de enkelte farvepunkter, samt korrigere tone kurven, hvidbalancen og de 3 primær farver på de 2 optagelser.

 

Der udarbejdes en farveprofiler for hver af de 2 optagelser, som begge indgår i den endelige kameraprofil. En DNG kameraprofil indeholder til orientering altid en farveprofil ved 2800 Kelvin grader og en farveprofil ved 6500 Kelvin grader. Kameraprofilen er opbygget således, at der kan interpoleres mellem de 2 farveprofiler, hvis farvetemperaturen f. eks ligger et sted mellem 2800 og 6500 Kelvin grader.

 

Den kontrol, man har med farvegengivelse på det her tidlige tidspunkt, kan man ikke senere i fremkaldelsesforløbet opnå. Jo tidligere farverne bliver justeret, jo bedre bliver slutresultat.

 

 

God fornøjelse

 

PixelOnLine.dk