Google pracuje nad zrewolucjonizowaniem rynku sztucznej inteligencji. Wszystko wskazuje na to, że Gemini już wkrótce zacznie działać wewnątrz zewnętrznych aplikacji. Dzięki temu zacznie pełnić rolę osobistego agenta potrafiącego wykonać najróżniejsze akcje bez większej ingerencji samego użytkownika. Mowa chociażby o zamawianiu jedzenia na podstawie wcześniejszych transakcji oraz preferencji konsumenta. Jeśli wszystko pójdzie zgodnie z planem, to zaoszczędzimy nie tylko sporo czasu, ale i odciążymy głowę.
Gemini wejdzie niedługo na nowy poziom
Gemini dopiero co zaczęło zapamiętywać rzeczy i brać je pod uwagę podczas następnych konwersacji. Najnowsza aktualizacja sprawia, że rozmowa ze sztuczną inteligencją jest znacznie bardziej naturalna, choć oczywiście najpierw skorzystają z tego płatni konsumenci. Warto też pamiętać, że asystent zadebiutował na iOS jako samodzielna aplikacja – tym samym łatwiejsze stało się używanie AI na smartfonach marki Apple.
Pierwsza wersja testowa systemu Android 16 przyniosła ze sobą garść ciekawych informacji dotyczących najbliższych planów Google. Tym razem dowiedzieliśmy się o zupełnie nowym interfejsie API występującego pod nazwą „app functions”, który może odmienić sposób korzystania ze smartfona. Mowa bowiem o podarowaniu asystentowi Gemini znacznie większego dostępu do zewnętrznych aplikacji. Dzięki temu usługa nareszcie zacznie pełnić rolę osobistego agenta z prawdziwego zdarzenia. Podobną opcję zapowiedziało swego czasu Apple, więc zapewne wkrótce stanie się ona standardem.
Redakcja portalu Android Authority przytacza konkretny przykład działania nadchodzącego rozwiązania. Gemini będzie w stanie samodzielnie złożyć zamówienie w pobliskiej restauracji bez konieczności uruchamiania dedykowanej aplikacji. Brzmi dosyć kontrowersyjnie, ale z drugiej strony niezwykle przydatnie. Oszczędzimy dzięki temu sporo czasu, choć oczywiście wszystko zależy, jak funkcja zadziała w praktyce.
Taki plan zakładano przecież od początku
Czy jednak obecność takich planów jakkolwiek szokuje? Raczej nie, bowiem technologiczni giganci od dawna zapowiadali, że docelowym stanem rzeczy jest robienie przez asystentów wielu rzeczy za rzeczywistego użytkownika. Brzmi to oczywiście jak coś skrajnie futurystycznego i dopiero teraz realizowane są wstępne cele zakładanego scenariusza. Gemini pozwala chociażby na przeszukiwanie wewnętrznych aplikacji pokroju Gmail czy Mapy Google – integracja z zewnętrznymi usługami to bez wątpienia twardszy orzech do zgryzienia.
Podejmowanie faktycznych działań przez osobistych asystentów nadal pozostaje w sferze marzeń i zapewne pierwsze rezultaty prac korporacji zobaczymy dopiero w przyszłym roku. Tak wynika chociażby z nieoficjalnych doniesień sugerujących, że mądrzejsza Siri zacznie sama zamawiać jedzenie w połowie 2025 roku. Będzie ciekawie.
- Przeczytaj również: Nowy asystent AI od Google ma przejąć kontrolę nad Twoją przeglądarką
Wszystko więc wskazuje na to, że kilkanaście nadchodzących miesięcy będzie iście przełomowych dla rozwoju sztucznej inteligencji. Czy jednak tego samego nie mówiliśmy rok temu? Osobiście wolę nie nastawiać się na żadne rewolucje, a po prostu obserwować faktyczne owoce zmagań technologicznych molochów.
Źródło: Android Authority / Zdjęcie otwierające: Google