Restaurare una foto con i filtri neurali
Ho una nuova foto storica da restaurare. Una bella foto di una coppia degli anni ’50 ormai un po’ rovinata e con un brutto solco situato proprio sopra il volto del ragazzo.
Una buona occasione per testare nuovamente i filtri neurali di Photoshop e l’evoluzione che hanno avuto in questi ultimi 2 anni. Infatti sono stati annunciati nell’ottobre 2021 e sono presenti dall’edizione 2021 della Creative Cloud.
Ma come funzionano esattamente questi potenti filtri?
Lavorano come tutti gli altri filtri di Photoshop ma questi si appoggiano all’apprendimento automatico basato su Adobe Sensei. È una intelligenza artificiale (IA) che si basa anche sull’apprendimento automatico (ML) per migliorare la conoscenza, accelerare il flusso di lavoro e guidare il processo decisionale in tempo reale.
Facciamo un passo indietro: l‘intelligenza artificiale (IA) è quel campo dell’informatica che studia come rendere i computer “bravi” ad affrontare nuovi compiti che una volta potevano essere svolti solo dall’uomo.
L’apprendimento automatico (ML) è un sottocampo dell’intelligenza artificiale dedicato alla creazione di programmi che migliorano le prestazioni quando ricevono nuovi dati, al posto di essere istruiti (programmati) manualmente.
Il deep learning è un insieme di tecniche di machine learning modellate in modo simile a quello dei neuroni del cervello che comunicano tra loro e si adattano ad elaborare più velocemente nuovi dati.
Tutti questi elementi compongono Sensei e riescono ad eseguire in pochi secondi attività che richiederebbero ore negli essere umani. Interessante, no?!?
Sensei nello specifico si occupa della comprensione dei contenuti, della creatività computazionale e dell’intelligenza dell’esperienza.
I filtri neurali utili in caso di restauro di vecchie fotografie sono Photo Restoration e Colorize. Il primo serve a migliorare la foto in generale e ridurre i graffi. Quando apriamo il menu delle opzioni avanzate troviamo anche altri controlli relativi alla riduzione del rumore generale, del rumore specifico nel colore e degli artefatti. Una grande implementazione se teniamo conto che nelle prime versioni il controllo dell’effetto era limitato! Invece ora è possibile in pochi secondi verificare come vengano applicate le correzioni, aggiustandole prima di applicarle definitivamente.
Anche il filtro per la colorazione è stato decisamente implementato ed ora è possibile scegliere tra i vari profili e soprattutto è possibile controllare la saturazione e la distribuzione dei toni, lavorando sempre sulla riduzione del rumore.
Ho decisamente apprezzato queste migliorie e ho dedicato del tempo a testare le modifiche apportate.
Nonostante questo, ho comunque optato per un restauro ibrido: una prima parte di recupero della fotografia l’ho eseguito manualmente con il supporto della mia Wacom (in particolare le zone più danneggiate) e solo successivamente l’ho aggiustata leggermente con i filtri neurali.
In particolare perché in alcune zone della fotografia il ritocco automatico creava delle zone poco armoniche o addirittura toglieva alcuni dettagli importanti, come il piccolo brillante sulla maglietta della ragazza. Anche nella porzione rovinata del naso il risultato non era soddisfacente. Qui sotto ci sono alcuni esempi dell’elaborazione con i filtri neurali (a sinistra) e realizzati a mano da me (a destra).
Il lato interessante dei filtri neurali è che continuano a migliorare man mano che vengono utilizzati, quindi possono veramente ottimizzare il flusso di lavoro. Non vanno visti però come bacchette magiche per ogni situazione! Un lavoro certosino e armonioso al momento non può essere sostituito con un click! 😉
Qui sotto il video completo del progetto.