HWSW MOBIL normál verzió

Google I/O: egyedi chipek, Kotlin és instant alkalmazások

Gálffy Csaba, 2017. május 19. 17:00

Rengeteg fontos, fejlesztőknek szóló bejelentést tett a Google az idei konferenciáján. Most ezekből válogattuk ki a legfontosabbakat - ezekre érdemes lesz a jövőben is figyelni.

Kotlin+Android - meglepően logikus döntés

Hangos ováció fogadta a keynote-on a bejelentést, hogy a Kotlin programozási nyelv immár hivatalos, első rangú nyelv lesz Androidon. A Kotlin a Java alapjait használó, arra építő, annak legkomolyabb problémáit orvosolni ígérő nyelv a JetBrains műhelyéből. Ezzel az Android két fő programozási nyelve, a C++ és a Java mellett van egy harmadik, kiemelten támogatott nyelv is - alkalmazások persze ma már szinte minden nyelven írhatóak a különböző köztesrétegeknek köszönhetően Pythontól C#-ig rengeteg lehetősége van a fejlesztőknek.

Mit is jelent tehát a kiemelt támogatás? Például a hivatalos androidos fejlesztői környezet, a Google által készített Android Studio 3.0-s verziója beépülő modult kap Kotlinhoz, amely immár a standard csomag részét képezi (ez eddig külön letöltésként volt elérhető). Az egyelőre nem világos, hogy a Kotlin-támogatás hogyan fogja magát az Android fejlesztést befolyásolni, hosszabb távon viszont könnyen elképzelhető, hogy Java helyett inkább erre tevődik majd a hangsúly.

A Kotlin jövőjét illetően másik fontos bejelentés, hogy a Google és a JetBrains közösen úgy döntött, hogy a nyelv további fejlesztését egy non-profit alapítványra bízzák. Eddig a fejlesztés irányait saját hatáskörben a kitaláló JetBrains határozta meg, és ugyan a nyelv implementációja nyílt forráskódú volt Apache2 licenc alatt, a közösségnek és a nagyobb Kotlin-szereplőknek maximum javaslattételi joguk volt. Az új alapítvánnyal a JetBrains elengedi a Kotlin kezét, a jövőben már a közösség fogja meghatározni, hogy merre fejlődjön, milyen fejlesztéseket kapjon a még mindig csak bimbózó új nyelv. Támogatni persze ezután is fogja, a JetBrains mellett azonban az új "alkotmány" mellett várhatóan más cégek is szívesen beszállnak a zajló munkába.

Instant Apps - végre élesben?

A tavalyi I/O egyik nagy bejelentése az Instant Apps technológia volt. Ez lehetővé teszi a fejlesztőknek, hogy az alkalmazást apró, önállóan futtatható elemekre bontsák, így annak egy-egy funkcionalitását önmagában is elérhetővé tegyék a felhasználó számára. Az instant alkalmazások hasonlóan működnek, mint egy weboldal: felhasználói interakcióra letöltődnek, futnak, elvégzik feladatukat, majd nyomtalanul törlődnek. Van persze lehetőség a teljes app telepítésére is, de ez nem szükséges feltétel. A Google egyik példája a parkolás fizetés: ehhez elegendő a fizető alkalmazás egyetlen nézetét letölteni, amelyben végrehajtható a tranzakció, majd fizetés után el is tűnhet.

Most végre a Google hivatalosan is elrajtoltatta a technológiát, mostantól bárki fejleszthet Instant Apps alapon. Ehhez az Android Studio 3.0 biztosítja a megfelelő eszköztárat, így nem csak a Google közeli partnerei, hanem bármely androidos fejlesztő készíthet ilyen "felrobbantott", atomjaira szedett alkalmazást. Ezek futtatásához sajnos viszonylag friss Androidra van egyelőre szükség, csak 6.0 vagy frissebb rendszerrel működik jelenleg, de a cég ígérete szerint az 5.0-hoz kiadott Android Support Library is hamarosan megkapja a szükséges komponenseket. Ez egyébként komoly visszalépés, a tavaly még arról volt szó, hogy egészen Android 4.3-ig backportolja a funkciót a Google - így a teljes androidos bázisnak csak 70 százaléka célozható ezzel meg.

TPU - és amit a chipgyártókról mond

A Google I/O keynote egyik meghatározó tematikus eleme a mesterséges intelligencia volt, és ehhez kötődik a keresőóriás másik fontos bejelentése is: az első generációs AI-gyorsító után elkészült a második, minden korábbinál gyorsabb kiadás is. A Tensor Processing Unit (TPU) névre keresztelt egységek ASIC (alkalmazásspecifikus integrált áramkör) feladatot látnak el, tehát nagyon pontosan meghatározott algoritmusokat, alkalmazásokat gyorsítanak. A TPU esetében ezek a Google-féle gépi tanulásos platform, a TensorFlow számításai - az alapokról az első generációs TPU-val kapcsolatban itt írtunk részletesebben.

A második generációs lapka már egy igazi monstrum, egy-egy, négy chipből álló egység elméleti maximális teljesítménye 180 teraflops, azonban nem ez az igazi erősségük: a modulok könnyedén fürtözhetőek egy egyedi, nagy sebességű hálózat segítségével. A Google 64 TPU egységből (256 lapkából) álló fürtöket használ, ezek egyenként 11,5 petaflops teljesítményre képesek, és így, egységként vethetőek be egy modell tanítására, de igény esetén az erőforrások egyszerre több folyamat között megoszthatóak. A sebességre jellemző, hogy a számítási modellek, amelyekhez 32, a piacon található leggyorsabb GPU egy teljes napig dolgozott, egy fürt nyolcadán egy délután alatt elkészül - ez a fajta produktivitásnövelés az, ami tényleg meg tudja dobni a fejlesztések sebességét.

A jó hír, hogy a TPU-k teljesítményét a Google felhős modellben külső fejlesztőknek is elérhetővé teszi, a Google Compute Engine részeként. A TPU-k a virtuális gépekhez rendelhetőek és a cég TensorFlow keretrendszerén keresztül programozhatóak, a Google pedig dedikált magaszintű API-kat is biztosít hozzá. A rendszer ráadásul működik a TPU-kon kívül az Nvidia által szállított GPU-k bevonásával is - a megrendelő igényei szerint. Ezek a számítási feladatok a TPU-k mellett a tárolós alrendszerre, a hálózatra és az infrastruktúra egyéb elemeire is komoly terhelést rónak, a Google ennek megfelelően az infrastruktúrát is fejleszteni fogja a közeljövőben.

Szólj hozzá >>

« vissza | következő anyag »