(Javítva!) Megérkezett az AI az autofókuszba is, “instant” lesz az Eye-AF

A Sony bejelentette az új APS-C kamerájával egyidejűleg, hogy új AF-algoritmust fejlesztett, melyet nem csak a most bemutatott A6400 kamera kap meg, hanem visszamenőleg beleteszik az A7/A9 széria aktuális generációjába is. Ebben pedig már szerepet kap a mesterséges intelligencia, ha jól sejtem elsőként a fotográfia világában.

A tavalyi Photokinán a Sony nem durrantott nagyot, csak egy sajtótájékoztatót tartottak, melyben elmesélték, hogy 12 új E-mount optikát fognak piacra dobni a közeljövőben, illetve azt, hogy kísérleteznek a mesterséges intelligenca felhasználásával az autofókusz működése során, továbbá azt is elmondták, hogy az Eye-AF működni fog állatokkal is.

Mindössze 4 hónapot kellett várni erre, a most bemutatott Sony A6400 mirrorless kamerában már megjelent az új technológia, firmware frissítésben pedig megkapja az új fícsöröket az A9, az A7R III és az A7 III is.

Elősször lássuk miről van szó:

A Sony A6400 promovideójában is láthatjuk az AI-powered Eye-AF funkciót:

Az új gép egyébként barátságos áron érkezik, de most nem erről szeretnék beszélni. Hanem arról, hogy a követés, az arcfelismerés és az eye-af egy új szintre lépett, és nem csak azért mert gyorsabb lesz és bizonyára kifinomultabb az AI által, hanem azért, mert korábban az Eye-AF-et gombra kellett programozni, most viszont úgy tűnik, a kamera követőfókusz módban automatikusan, és nagyjából késlekedés nélkül lesz képes váltogatni a sima követő AF, az arckövető AF és az Eye-AF között. Ez az alábbi DPReview videóban nagyon jól látszik (3:27-től kb.):

A fentieken kívül – ha jól értettem a Dpreview videóból -, végre úgy működik a követőfókusz, mint egy DSLR-ben, vagyis ha single vagy extended fókuszponttal mutatjuk meg a témát a kamerának, azt nem csak a kis kereten belül követi a mozgó témát (és veszíti el ha kilép a keretből), hanem bárhová megy utána a teljes fókuszmezőben. Ezt eddig csak Center AF ponttal tudta a Sony, meg létezett Center Lock-On AF is, de valljuk be ezek kissé bonyolultak voltak egy DSLR-megoldáshoz képest. Most azonban leegyszerűsítették a dolgot és úgy működik…hát….szóval ahogy eddig is kellett volna. Megmutatjuk a témát, majd a kamera követi bárhová a fókuszterületen és automatikusan váltogat egyszerű tracking, face-detect és eye-af között. Halleluja!

A bónusz meg persze az, hogy állatokkal is működni fog az Eye-AF, ami természetfotósoknak nagy áldás lesz, ha tényleg hatékony. Hogy egy madárral is működni fog-e röptében, azzal azért fenntartásaim vannak (persze ki tudja?), de emlősállatokkal szerintem nem lesz nagy gond.

Lássuk mely masinák mindebből mit kapnak meg?

Az A9 frissítése két lépésben érkezik. Az 5.0 jön márciusban, a 6.0 pedig a nyár folyamán. Előbbi verzió tartalmazza majd a Real-Time Tracking üzemmódot, ami a Sony új témafelismerő, mesterséges intelligencia alapú algoritmusa. Az új algoritmus vigyelembe veszi emberek esetén a szemeket, az arcot, továbbá a téma színét és távolságát. Ha megmutatjuk a témánkat a kamerának, az előnyben részesíti a szemeket a követésnél, ha elveszíti a szemet, akkor az arcot priorizálja, ha azt is elveszíti akkor is rajta marad a témán (pl. ha elfordul az alanyunk). A korábbi verzióknál ilyenkor előfordult hogy több ember esetén átugrott a fókusz egy másik arcra. A Sony A9-ben az autofókusznak saját processzora van, bizonyára ez teszi lehetővé az új algoritmus által igényelt plusz számítási kapacitást. Mivel a többi Alpha kamerában nincs ilyen, ezért azok nem kapják meg a Real-Time Trackinget. Az A9-be jön még a Touch Tracking és Touch Pad funkció, valamiféle Focus area circulation, továbbá Time Lapse, videó esetén stabilabb White Balance és Relay Recording (ha az egyik kártya betelik, folytatja a másikon) és még egy csomó apróság, ami ha jól látom az új A7-ekben megvan, de az A9-ből még kimaradt. Érdekesség, hogy a kamera színreprodukciójába, tónusátmenetek kezelésébe, és az Auto-WB algoritumusába is belenyúlnak az új 5.0 firmware-rel, a Sony szerint ezáltal javulni fog a képminőség. Jön valamiféle My Dial funkció is.

Forrás: DPReview.com

Forrás: DPReview.com

Aztán van még ugye a Real-Time Eye-AF, vagyis az a funkció, ami úgy követi a modell szemét, hogy nem kell ehhez egy külön gombot nyomva tartani, továbbá előre megadhatjuk, hogy a témánk jobb, bal vagy a közelebbi szemét szeretnénk-e élesnek látni. Ez a funkció bekerül az A9-be, az A7R III-ba és az A7 III-ba is, a hírek szerint március-áprilisban érkezik.

A harmadik funkció az állatok esetében is működő Eye-AF. Ez is mesterséges intelligenciát használ, szóval sajnos csak az A9 kapja meg az új funkciót, ezt is csak a 6.0-ás firmware-rel, ami nyáron érkezik. Update: ezt a funkciót megkapja a többi kamera is!

A Time-Lapse funkciót megkapja az A7-széria III generációja is.

Az időzítés tehát úgy néz ki, hogy 1. A9 frissítés márciusban, A7 frissítés áprilisban, 2. A9 frissítés nyáron.

Azt hiszem a Sony jól időzítette a bejelentést, tekintve, hogy a Canon és a Nikon annyira nyomja a marketinget a mirrorlesseinek, hogy biztos vagyok benne, az elmúlt hónapokban néhány frissen átpártolt Sonys már kezdett meginogni, gondolván, hogy lehet mégiscsak vissza kellene térni a gyökerekhez. A Sony aztáltal, hogy elsőként a piaconolyan high-end technológiát vitt a gépeibe, mint a mesterséges intelligencia, ismét bebizonyította, hogy innováció terén továbbra is lépéselőnyben van a nagyokhoz képest.

Már csak egy dolgot nem értek…

Ha a maximum középkategóriásnak nevezhető APS-C kamerába, az új A6400-ba belefért az AI, akkor a fullframe szegmensben miért csak az A9 kapja meg…? Lehet, hogy mégsem a plusz processzoron múlik ez, hanem szimplán csak marketing? Elég jó esély van rá szerintem, hogy az A7R IV és az A7 IV már tudni fogja ezt. Jóllehet a Sony figyelmeztet a promovideóiban, hogy az új funkciók működése nagyban múlik a kameramodellen és szituációkon, ergo bizonyára egy A9-ben az AI követés “kicsit” jobb lesz, mint az A6400-ban.

Update: Egyedül a témafelismerő Real-Time Tracking az amit csak az A9 fog tudni, a többi funkciót megkapja minden gép. Mind a Real-Time Eye-AF, mind pedig az Animal Eye-AF mesterséges intelligencia technológiát használ a működéshez, vagyis az AI nem csak az A9 kiváltsága.

 

 

Szerző: Korecz Márk

Reklámfotózásban és vállalati fotózásban foglalkoztatott alkalmazott fotográfus, a FotóSarok Blog, továbbá az egyetlen stúdióvilágítással foglalkozó, hazai blog alapító szerzője.

Oszd meg ezt a posztot
  • Laci

    Az mindenképpen pozitív, hogy egy elérhető áron dobták be ezt a 6400-ast, illetve, hogy visszamenőlegesen frissítenek gépeket.

  • Laci

    Én azt tapasztalom a környezetemben, illetve fotós üzletben beszélgettem (most mindegy melyik), nemhogy visszatartana embereket pl az EOS R meg a Nikon Z, hanem még többen váltanak. Kicsit ezt érzem a Canon-os adok veszek topikokban is..

  • Shrk

    Mitől MI-bb a forma stb. detektálás az eddigi szem, arc stb. detektáláshoz képest? a6500-ba nem várható ez a firmware, nem tud valaki erről?

    • Hát ezt nem fogjuk megtudni valszeg sosem. :D De ugye itt gépi tanulásról van szó. A kamera nem csak előre megírt algoritmusok alapján ismeri fel a szemet, arcot, hanem megmutattak neki csilliárd számú mindenféle emberi arcot és az alapján tanulta meg a csíziót. Tehát tényleg felismeri nem csak “agyatlanul” detektálja. Valami ilyesmi a machine learning lényege.

      • Nem írják, hogy konkrétan milyen MI-technológia van a gépben, ahogy azt sem, hogy ezen belül gépi tanulást alkalmaztak volna (de valószínűleg igen). Amúgy ettől még “agyatlanul” detektálja, mert azt nem “tudja” a gép, hogy miért hozta a konkrét döntést. Ha van egy ismeretlen minta, akkor az ismertek alapján fog következtetni, de arról fogalma sincs, hogy az jó, vagy rossz. Pl. ezért nem lehet kiváltani az élő orvosokat a röntgen felvételek elemzésénél.

        • Valamelyik gyári promovideóban említik a machine learning módszerét.

  • Tert

    Nagyon hiányzott már egy gép, ami felismeri a szomszéd kormi cica szemét és pontosan ráfokuszál miközben az a lábassal játszik.
    Persze a természetfotósok azonnal ráharapnak majd a fantasztikus lehetőségre és mostantól sokkal jobb képeket készíthetnek – persze csak ha vesznek egy Sony-t….
    Személy szerint jobban örülnék végre egy ergonomikusabb váznak és egy veszteségmentes tömörítésnek, de én csak egy hobbit vagyok a profiknak biztos a többi dolog fontos amit én nem tudok kihasználni soha…

    • Kerge

      Az vadállat fotókat távolról, nagy telékkel szokták, a mélységélességbe itt nem 3 cm, tök mindegy, hogy az orra hegyére, vagy a szemére fókuszálunk. A szomszéd cicához közelről persze jó lehet. :)

  • Laci

    Azon gondolkodtam, ha a gépben mesterséges intelligencia van, akkor az tanul a fotózások során? Ez lenne a lényege..
    Na most akkor, mikor a használt piacon megjelennek majd ezek a gépek, árképző tényező lesz vajon, hogy melyik gép mennyire lett okos, mennyit tanult? :)

    • Érdekes elgondolás, de szerintem többet képzelünk bele az AI-ba mint ami valójában (jelenleg). Azért egy komolyabb AI működéshez feltételezem harmatgyenge lenne a kamerába épített processzor. Biztos vagyok benne hogy ahogy minden számítástechnikai fogalomban úgy az AI -ban is vannak szintek. Van az a szint ami a kamera AF-et támogatja meg van az a szint is, ami egy önvezető autót próbál irányítani. A kettő azért fényévekre van egymástól mégis mindkettőt AI-nak hívják.

      • Laci

        Gondolj bele, egyiket úgy hirdetik majd, hogy kutyákat fotóztak vele, jól felismeri a kutyákat, a másikat rally fotózásra, az meg az autókkal áll majd jobban :)