Kazalo:
- Tako deluje Googlov algoritem
- Samodejni popravek ob upoštevanju konteksta
- Mogoče bomo to tehnologijo videli v Pixelu
Raziskovalci iz Googla in MIT-a so razvili algoritem, ki skuša popraviti napake pri širokokotnih posnetkih.
Morda ste na fotografijah videli, da so obrazi nekaterih ljudi videti raztegnjeni, rahlo zmečkani ali nekoliko popačeni. Čeprav je to morda posledica nekaj veščin fotografa, je resnica, da posnetki s širokokotno lečo iz mobilnih naprav običajno povzročijo popačenje predmetov ali ljudi, ki so na robu slike.
Obstajajo različne metode, ki skušajo rešiti to težavo, vendar doslej nobena ni bila tako učinkovita kot Googlov novi predlog. Čeprav se morda zdi enostavno popraviti, ni, saj zahteva zapleteno lokalno urejanje, ki ne vpliva na ostale predmete na fotografiji.
Tako deluje Googlov algoritem
Kot pojasnjujejo raziskovalci, ta algoritem zazna obraze in ustvari mrežo, ki omogoča samodejno obrnitev te vrste popačenja pri fotografiranju s širokim kotom, kot je prikazano na sliki:
Razliko lahko ugotovimo pri uporabi tega algoritma na naslednjih slikah. Gre za selfi, posnet s širokokotno lečo z 97 ° vidnim poljem.
Prva slika prikazuje popačenja na obrazih, druga pa prikazuje, kako je algoritem obnovil oblike obrazov v prvotno stanje.
To pomeni, da se ta postopek samodejno aktivira pri uporabi širokokotne leče, ki zagotavlja posebno pomoč obrazom, ne da bi pri tem povzročil spremembe na preostali sliki. In seveda zaradi hitrosti tega samodejnega popravka (približno 920 milisekund) uporabniki ne morejo zaznati.
Po preskusih, ki so jih opravili, ta algoritem uspešno deluje v območju od 70 ° do 120 ° v vidnem polju in pokriva skoraj vse možnosti mobilne naprave.
Da bi izkoristil potencial tega algoritma, uporabniku ne bi bilo treba ukrepati ali aktivirati nobenega posebnega načina kamere. Ta funkcija bi se izvajala samodejno le, če zazna, da se uporablja širokokotna leča.
Samodejni popravek ob upoštevanju konteksta
Dinamiko tega algoritma lahko vidimo v naslednjem videu:
Algoritem samodejno popravi ob upoštevanju preostalih predmetov, ki se pojavijo na prizorišču, in zagotovi, da se celotni kontekst fotografije ujema. Rezultati so naravni, brez podrobnosti, ki kažejo, da je bila fotografija sploh spremenjena.
Skupina, ki stoji za tem projektom, je na Flickrju delila fotogalerijo, ki prikazuje, kako različne metode rešujejo to težavo v primerjavi z dinamiko njihovega algoritma. Obstaja več kot 160 fotografij (kot je tista, ki jo vidite na začetku članka), ki nam pomagajo pri oceni rezultatov.
Mogoče bomo to tehnologijo videli v Pixelu
Lahko bi upali, da bo ta algoritem ali neka izpeljana tehnologija uporabljena v naslednji generaciji Pixela, saj je ekipa, ki sodeluje pri tem projektu, zaposleni v Googlu.
Vendar v dokumentu, ki so ga delili, o tem niso ničesar omenili. Ti prvi preizkusi algoritma v akciji so bili še enkrat uspešni in so pokazali, kako lahko potencial umetne inteligence izboljša dinamiko mobilnih naprav in uporabnikom olajša življenje.
Ker bi nedvomno podobna dinamika v naši mobilni napravi prihranila veliko preglavic in časa, ko bi poskušali urediti ta popačenja na fotografijah.
