Night Sight: hoe de Google Pixel 3 zich van de iPhone onderscheidt

Door: Raymon Mens - 7 reacties

Ieder jaar zijn smartphone-fabrikanten in de race voor de beste camera. Apple doet het goed, maar de iPhone moet het dit jaar volgens velen toch afleggen tegen de Google Pixel 3. Een van de belangrijkste functies die het verschil maakt is Night Sight. Volgens Google heb je voor goede foto’s in het donker geen flits meer nodig.

De eerste resultaten van Night Sight zijn erg indrukwekkend. Google weet door een slimme combinatie van optische beeldstabilisatie, detectie van beweging en het toepassen van algoritmes fraaie plaatjes te schieten. Voorbeelden verderop in dit artikel, maar eerst duiken we in hoe Night Sight nou eigenlijk werkt.

Werking Google Night Sight

Google Night Sight is vooral slimme software. Het kan in principe met iedere smartphone-camera werken, maar Google brengt de functie alleen voor zijn Pixel-smartphones uit. Night Sight is een functie die je handmatig aan moet zetten, want het veranderd compleet hoe de camera-app werkt. Normaal toont de camera-app alvast een voorproefje van hoe de foto eruit gaat zien, maar met Night Sight is die preview niet representatief omdat een zeer hoge sluitertijd gehanteerd moet worden.

Daar vormt zich meteen het eerste probleem. Een zeer hoge sluitertijd zorgt bij foto’s uit de losse hand vaak voor vervaging. Om dit te voorkomen, detecteert de Google Pixel of je uit de losse hand schiet, de smartphone tegen een stevig oppervlak zoals een muur houdt, of op een statief plaatst. Bij schieten uit een losse, maar stabiele hand wordt de sluitertijd beperkt tot maximaal 333ms en worden er 15 shots gemaakt. Bij plaatsing op een statief is de sluitertijd maximaal 1 seconde en worden er 6 shots gemaakt. Een foto maken kan dus wel 6 seconden duren.

Night Sight voorbeeld 1
iPhone XS (links) en Google Pixel 3 (rechts) – Klik/tap voor groter.

Algoritme maakt van meerdere shots één foto

Om de verschillende shots vervolgens te combineren tot één foto die helder is en genoeg detail heeft, past Google een eigen algoritme toe. Daarbij werkt het anders dan de normale HDR-functie die foto’s met verschillende belichtingsstanden combineert. Bij het Night Sight-algoritme gaat de sensor van de camera tussen verschillende shots niet dicht, maar blijft open. De taak van het algoritme is vooral de optimale lichtwaarde per pixel berekenen, maar ook naar het totaalplaatje kijken.

Dat laatste is vooral belangrijk om de kleuren natuurlijk te houden en beweging te verminderen. Er wordt altijd uitgegaan van een ‘master frame’ met de minste beweging en de andere shots worden zo goed mogelijk op dat master frame gelegd. Het algoritme kan vervolgens de optimale lichtwaarde per pixel berekenen en het shot toch stabiel houden. De functie heet niet voor niets Night Sight, want het gaat verder dan onze ogen in het donker kunnen zien. Hieronder nog een voorbeeld.

Google Pixel 3 Night Sight 2
Het HDR-algoritme (links) en Night Sight-algoritme (rechts) – Klik/tap voor groter.

Night Sight komt als software-update naar de Google Pixel 3, maar ook naar de Pixel 2 en eerste Pixel. De camera’s op deze telefoons zijn echter iets minder geavanceerd, waardoor de sluitertijd wat beperkter is.

Apple’s antwoord op de Google Pixel 3

Hoewel we zelf nog geen Google Pixel 3 hebben voor een vergelijkende test, blijkt uit alle berichten dat Google iets baanbrekends heeft gemaakt. Dit vraagt om een antwoord van Apple. Hopelijk zien we dat -gezien het vooral software is- in 2019 ook in de iPhone.

Reacties

7 reacties
  • Profielfoto
    Niels

    Dit is puur softwarematig, dus ik zou niet verbaasd zijn als Apple met iets gelijkwaardigs komt. Overigens verwacht ik het dan wel alleen bij de 2019 iPhone, want zo is Appel dan ook weer.

    Overigens gaat het verhaal van de ‘sluiter blijft (langer) open staan’ niet echt op, want dan zou je gewoon een long exposure moeten krijgen waarbij zonder statief alles bewogen zou zijn. Er wordt gewoon een groot aantal foto’s op hoge iso genomen en deze wordt softwarematig samengevoegd tot een foto met minder ruis. Zie het zo: iedere extra foto levert een  stop ruis reductie op. Zo kun je dus een foto op ISO1600 terugbrengen naar ISO100 door 5 foto’s te nemen en deze softwarematig samen te voegen (wordt door fotografen ook wel toegepast in Photoshop).

  • Profielfoto
    Petje

    Tja, het is maar wat je mooi vindt. Wil een van een sfeervol avond-plaatje een foto die eruit ziet alsof het overdag is.

  • Profielfoto
    Spinozo

    Ik verwacht eerder een app zoals Camera+ met een dergelijke functie. Ik zie het nu als een gimmick maar als ze deze technologie kunnen finetunen zodat je precies ziet wat het menselijk oog ook ziet dan lijkt het me wel wat. Want wat sta je anders te fotograferen als je het zelf niet ziet?
    Wel briljant gevonden deze techniek.

  • Profielfoto
    pruus

    In een paar forocamera’s van mij, Sony DSLR en Fuji X, kun je een zogenaamd slecht licht programma kiezen. Dit werkt als volgt. Er worden meerdere foto’s achter elkaar gemaakt. Deze worden dan door de software gestapeld. Dus donkere plekken krijgen meer licht. Dit werkt goed. Uiteraard is deze techniek verbeterd afgelopen jaren. Dus logisch dat het op een phone komt. Goede ontwikkeling.

  • Profielfoto
    Vision1

    Ik zag een leuk filmpje over camera apps die allemaal soort gelijke dingen doen.  Ik heb ze niet getest maar wellicht leuk om te zien .

    https://youtu.be/J592aWl64XM

  • Profielfoto
    Afroman

    omdat een zeer hoge sluitertijd gehanteerd moet worden

     

    moet zeer lang zijn. Hoog getal is een lange sluitertijd

  • Profielfoto
    zepkleiker

    Petje op 16 november 2018 16:23
    Tja, het is maar wat je mooi vindt. Wil een van een sfeervol avond-plaatje een foto die eruit ziet alsof het overdag is.

    Dus jij hebt liever een foto die totaal niet lijkt op wat je met het menselijke oog zou zien? Kan, maar dan ben je waarschijnlijk in de minderheid.

    Met beperkte hardware (want dat is wat in een smartphone zit) wijken foto’s bij slecht licht altijd mijlenver af van wat het menselijke oog ziet, vergeleken met goede hardware. Google probeert dat gat te vullen met slimme algoritmes. Maar ja, het is Google hè, dus dan wil je het wellicht graag afzeiken?;)