Mapy Google dostaną tryb "incognito". Następne będą wyszukiwarka i YouTube
Podczas konferencji Sundar Pichai przedstawił także stan prac nad sztuczną inteligencją, która będzie działać poziom wyżej, niż obecnie znane modele maszynowego uczenia.
07.05.2019 | aktual.: 02.10.2020 10:04
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Mapy w trybie "incognito"
Pichai opowiedział także o zmianach na polu bezpieczeństwa i zachowania prywatności. Niedawno dowiedzieliśmy się, że z konta Google będziemy mogli cyklicznie usuwać swoje dane po ustawieniu ich czasu ważności – 3 lub 18 miesięcy.
W najpopularniejszych aplikacjach Google'a będziemy mogli szybko przejść do swojego konta i jego ustawień, gdzie zebrane zostały wszystkie opcje prywatności aplikacji. Najlepsze jest jednak to, że z trybu "Incognito" skorzystamy nie tylko w przeglądarce Google Chrome, ale też w Mapach Google. Wyszukiwania i trasy nie będą w tym trybie łączone z kontem Google. Niebawem tryb "incognito" pojawi się także w YouTubie i Wyszukiwarce Google.
Smartfony z Androidem 7.0 i nowszymi będą mogły służyć nam jako sprzętowy klucz zabezpieczający.
GBoard uczy się bez słów
W czym tkwi sekret jakość podpowiedzi klawiatury GBoard? Federated Learning to rozproszony tryb ulepszania modelu maszynowego uczenia z pomocą danych przetwarzanych przez modele lokalne. Informacje z nich są wysyłane do modelu globalnego, a on dzięki temu uczy się nowych popularnych słów. Co ważne, Google wcale nie widzi konkretnych słów, które wpisujemy dzięki tej klawiaturze. To bardzo interesujący kompromis między ML i zachowaniem prywatności.
Na przykładzie rozpoznawania obrazu Pichai przedstawił też poważny problem dotyczący prezentowania lekarzy – SI wskaże głównie mężczyzn w czystym kitlu i ze stetoskopem, przez co można odnieść mylne wrażenie, że częścią pracy lekarza jest bycie mężczyzną.
To oczywiście nieprawda, tak samo, jak prezentowany obraz czystego biura i nienagannego fartucha, które widzimy na zdjęciach stockowych. Google stara się skonstruować modele, które będą działać na odpowiednio wysokim poziomie abstrakcji, by uniknąć takich skrzywień. Od analizy kolorów pikseli zdjęć trzeba przejść do szerszego kontekstu.
Google I/O możecie śledzić, oglądając transmisje z prezentacji i wykładów lub zaglądając na nasz blog na żywo.