Nuova perdita di Google Pixel 4: sfocatura di movimento, zoom audio, profondità dinamica, Live HDR

Come ormai da tradizione, le perdite di Google Pixel 4 continuano ad aumentare rapidamente prima del rilascio del telefono il mese prossimo. E gli ultimi dettagli rivelano che il telefono con fotocamera includerà alcune nuove interessanti funzionalità come la modalità motion blur, lo zoom audio, i dati di profondità dinamici e Live HDR.

Le nuove modalità mostrano la continua innovazione di Google quando si tratta di fotografia con il telefono, in particolare nel lato dell'imaging guidato dal software, dove la battaglia è sempre più combattuta.

In effetti, mentre l'iPhone 11 vanta finalmente più di due fotocamere ma ha poco altro in termini di nuove funzionalità di imaging, Google Pixel 4 sembra che aprirà nuovi orizzonti, sia nel trapianto di tecniche fotografiche tradizionali che negli effetti basati su software.

La funzione principale, secondo una dissezione del codice della Google Camera 7.0 trapelata da XDA Developers (grazie, DP Review), sarà la modalità Motion. "Presumibilmente ti consentirà di scattare foto di soggetti in movimento in primo piano sfocando lo sfondo, perfetto per le foto di eventi sportivi", afferma il sito, imitando l'effetto della fotografia panoramica con fotocamere tradizionali.

Ci sono anche un po 'più di informazioni sulla modalità di astrofotografia di Google Pixel 4 precedentemente trapelata. "Google utilizzerà la GPU (l'Adreno 640 nel Qualcomm Snapdragon 855) per accelerare la segmentazione del cielo e quindi ottimizzare l'immagine" trovando "le stelle e illuminandole".

È stata anche rivelata una modalità Live HDR, che "potrebbe essere utilizzata per applicare HDR in tempo reale al mirino della fotocamera, e può anche essere utilizzata per ritoccare automaticamente le foto pochi millisecondi dopo averle scattate".

Sembra che Pixel 4 introdurrà la funzione di zoom audio resa popolare da HTC (il che è logico, dato che Google ha acquisito alcune delle tecnologie e degli ingegneri di HTC), oltre al supporto per un nuovo formato di file chiamato DDF: dynamic depth format.

Questi file registrano e conservano i dati di profondità per le fotografie, consentendo alle app di accedere e manipolare i dati senza influire sul file originale, quindi, ad esempio, la profondità di campo potrebbe essere regolata dopo il fatto da altri software.

Tutto ciò ci rende incredibilmente eccitati per l'arrivo di Google Pixel 4 ad ottobre e ci ricorda quanto fosse poco ambiziosa Apple con le funzionalità di fotografia e imaging dell'iPhone 11.

Perdita di Google Pixel 4: in arrivo la modalità astrofotografia!
La produzione di Google Pixel viene ritirata dalla Cina mentre USA / Trump contro la Cina continuano
Il miglior telefono con fotocamera del 2022-2023: le migliori fotocamere per smartphone a confronto

Articoli interessanti...