Tartalomjegyzék:
- A Google algoritmusa így működik
- Automatikus javítás a kontextus figyelembevételével
- Talán meglátjuk ezt a technológiát a Pixelben
A Google és az MIT kutatói kifejlesztettek egy algoritmust, amely a nagylátószögű felvételek hibáinak kijavítására törekszik.
Láthatta, hogy egyes emberek arca kinyújtottnak, kissé összeszorítottnak vagy némi torzításúnak tűnik a fotókon. Bár ennek oka lehet a fotós kevés képessége, az igazság az, hogy a mobileszközökről származó nagylátószögű lencsével készített felvételek torzulást okoznak a kép szélén lévő tárgyakban vagy emberekben.
Különböző módszerek próbálják megoldani ezt a problémát, de eddig egyik sem volt olyan hatékony, mint a Google új javaslata. Bár könnyen javíthatónak tűnik, nem az, mivel összetett helyi szerkesztést igényel, amely nem befolyásolja a fotó többi objektumát.
A Google algoritmusa így működik
Amint azt a kutatók elmagyarázzák, ez az algoritmus felismeri az arcokat, és létrehoz egy hálót, amely lehetővé teszi az ilyen típusú torzítások automatikus visszafordítását, amikor a képen nagy látószögű felvételt készít:
Meg tudjuk különböztetni ezt az algoritmust a következő képeken alkalmazva. Ez egy szelfi, amelyet széles látószögű lencsével készítettek, 97 ° -os látómezővel.
Az első kép az arcok torzulásait mutatja, a második pedig azt, hogy az algoritmus hogyan állította vissza az arcalakokat eredeti állapotukba.
Ez azt jelenti, hogy ez a folyamat automatikusan bekapcsol, amikor a nagylátószögű lencsét használja, és ez a speciális segítséget nyújtja az arcoknak, de anélkül, hogy változásokat okozna a kép többi részén. Természetesen ennek az automatikus korrekciónak a sebessége (kb. 920 milliszekundum) lehetetlenné teszi a felhasználók számára a felismerést.
Tesztjeik szerint ez az algoritmus a látótérben a 70 ° és 120 ° közötti tartományban sikeresen működik, szinte minden lehetőséget lefed egy mobil eszközön.
Az algoritmusban rejlő lehetőségek kiaknázásához a felhasználónak nem kell semmilyen műveletet végrehajtania vagy aktiválnia semmilyen speciális kameramódot. Ez a funkció csak akkor valósul meg automatikusan, ha észleli, hogy a nagylátószögű lencsét használják.
Automatikus javítás a kontextus figyelembevételével
Az algoritmus dinamikáját a következő videóban láthatjuk:
Az algoritmus automatikusan korrigálja a helyszínen megjelenő többi objektum figyelembevételével, biztosítva, hogy a fénykép teljes kontextusa megegyezzen. Az eredmények természetesek olyan részletek nélkül, amelyek azt mutatják, hogy a fényképet egyáltalán módosították.
A projekt mögött álló csapat megosztott egy fotógalériát a Flickr-en, bemutatva, hogy a különböző módszerek hogyan kezelik ezt a problémát algoritmusuk dinamikájához képest. Több mint 160 fénykép található (például a cikk elején látható), amelyek segítenek nekünk az eredmények értékelésében.
Talán meglátjuk ezt a technológiát a Pixelben
Remélhetjük, hogy ezt az algoritmust vagy valamilyen származtatott technológiát alkalmazzák a Pixel következő generációjában, mivel a projektben részt vevő csapat a Google alkalmazottja.
Az általuk megosztott dokumentumban azonban semmit sem említettek erről. Az algoritmus működés közbeni első tesztjei sikeresen megmutatták, hogy a mesterséges intelligencia potenciálja hogyan javíthatja a mobil eszközök dinamikáját és megkönnyítheti a felhasználók életét.
Mivel kétségtelen, hogy hasonló dinamikával rendelkezünk mobilkészülékünkben, sok fejfájást és időt takaríthat meg, amikor megpróbálja szerkeszteni ezeket a torzulásokat a fényképeken.