SONY: GLI SMARTPHONE SUPERERANNO LE REFLEX NEL 2024

13 novembre 2022 - Futuro Prossimo

Alla fine dello scorso maggio Terushi Shimizu, presidente e CEO di Sony Semiconductor Solutions, aveva dichiarato che nel 2024 le fotocamere degli smartphone eguaglieranno o addirittura supereranno la qualità delle relflex e mirrorless. Si tratta di una dichiarazione sicuramente molto forte e per certi versi spiazzante, considerando non solo la caratura di  Shimizu ma anche il fatto che la stragrande maggioranza dei nostri smartphone integra per l’appunto sensori Sony e che Sony stessa produce e vende col suo marchio prodotti audiovisivi di punta (mirrorless, ottiche, telecamere ecc…).

Come potrebbe uno smartphone avere le stesse qualità di una fotocamera professionale e, soprattutto, come potrebbe uno smartphone integrare in pochi millimetri di spessore delle ottiche paragonabili a quelle professionali?

La soluzione è una e, almeno per il momento, non è hardware: sarebbe infatti impensabile portare sensori APS-C o Full-Frame su uno smartphone. E anche se si potesse, il cellulare arriverebbe a costare cifre improponibili per la massa.

L’INTELLIGENZA ARTIFICIALE COME NUOVA FRONTIERA DEL SOFTWARE

Con la nascita della fotografia digitale sono nati i primi processori d’immagine e i primi algoritmi pensati principalmente per gestire lo scatto e compensare le problematiche “fisiche” dei vari comparti. Ogni fotocamera ne ha uno proprietario che va sistematicamente a gestire i parametri di scatto (nelle modalità automatiche e semi-automatiche) e a fare una post-produzione degli scatti (se si salva in un formato compresso come il JPG).
Soprattutto sugli smartphone, negli ultimi anni, si è raggiunto un livello di accuratezza estremamente elevato, dove gli algoritmi riescono quasi sempre a compensare efficacemente tutte le carenze dovute all’hardware, come ad esempio la perdita di nitidezza, la gestione dei controluce o anche banalmente le enormi distorsioni delle ottiche super-grandangolari.

Nel frattempo anche l’hardware si è evoluto: ad oggi abbiamo smartphone con sensori da 1” (pollice), con aperture del diaframma estremamente ampie e variabili (a partire da f/1.5) e anche con zoom ottici periscopici. Tuttavia, il gap con l’attrezzatura votata esclusivamente alla fotografia è ancora ampio sotto ogni punto di vista.

Una possibile soluzione per colmarlo, anche se sembrerà assurdo, è quella di progettare un software che sia in grado di tirar fuori più di quello che l’hardware possa offrire, ed è qui che subentra l’intelligenza artificiale (abbr. IA o AI). Si tratta sempre di algoritmi (ovvero un software che lavora su un hardware) ma così tanto evoluti da saper imparare (deep learning) e successivamente gestire in maniera singolare e specifica ogni situazione per i quali sono stati pensati.

Pensiamo, ad esempio, all’elaborazione “pixel per pixel” proposta da Apple sugli iPhone 11 per migliorare il livello di dettaglio e di texture (Deep Fusion), all’ormai famosa modalità notturna (presente su quasi tutti gli smartphone), al miglioramento dell’incarnato, alle funzionalità di HDR, denoise e sharpening avanzate, allo zoom digitale senza perdita di dettaglio, agli EIS “super” per i video e a tante altre funzionalità che vanno a migliorare ciò che il comparto fotografico effettivamente riesce a “vedere”.

GLI SMARTPHONE, LE FOTOCAMERE E I MARGINI DI MIGLIORAMENTO

Il discorso di Shimizu, tenuto non a caso durante la presentazione di una nuova tecnologia fotografica per smartphone (two-layer transistor pixel), era per lo più una analisi sui possibili margini di miglioramento degli smartphone rispetto a quello delle fotocamere tradizionali.

Potremmo provare a spiegarlo meglio: le fotocamere consumer ormai sono “ferme” da anni sui sensori APS-C e Full-Frame, e sotto questo aspetto non ci sono stati grandi stravolgimenti (a parte piccole ottimizzazioni su dinamica, tenuta ISO ecc…). Considerando anche che i fotografi scattano in RAW, dove non vi è alcuna manipolazione software, sviluppare un’intelligenza avanzata per elaborare questi scatti sarebbe quasi sprecato. L’unico comparto dove veramente l’IA può essere d’aiuto è l’autofocus, e qualcuno si è già mosso in questa direzione (ad esempio Sony con l’ultima arrivata A7r V).
Per gli smartphone invece il discorso è diametralmente opposto: sicuramente l’hardware verrà pian piano affinato e potenziato, ma considerando che quasi tutti gli scatti vengono salvati in JPG (magari per una rapida condivisione sui social) la vera rivoluzione sarà nell’elaborazione. Avere foto “perfette” e in modalità automatiche nonostante sensori ed ottiche di dimensioni ridotte sarà davvero un grande passo in avanti; e per raggiungere questo traguardo sono in via di sviluppo non solo algoritmi ma anche veri e propri chip dedicati all’imaging pensati per affiancare il processore principale (ad esempio MariSilicon X, montato su alcuni degli ultimi smartphone Oppo).

L’INTELLIGENZA ARTIFICIALE RENDERA’ TUTTI FOTOGRAFI?

La risposta è ovviamente negativa, ma tutte queste elaborazioni avanzate e completamente automatiche permetteranno di ridurre il gap.

Se da un lato il fotografo “vero” riuscirà sempre a spiccare grazie alla corretta applicazione delle regole compositive, al suo estro e alla sua capacità di trasmettere un determinato messaggio, dall’altro tutti gli errori tecnici come parametri di scatto errati o inserimento degli elementi di disturbo in una scena verranno facilmente risolti con due click.

Articolo a cura di Gianmarco Barone