Gemini kan nu använda andra appar på Android-mobiler – ett stort steg mot “AI som gör jobbet”
Google tar ett tydligt kliv från “smart chatt” till agentisk assistent. I en ny betafunktion i Gemini-appen kan Android-versionen av Gemini nu använda tredjepartsappar för att utföra uppgifter i flera steg – som att boka en resa med Uber eller beställa hem mat.
Det här är en tydlig signal om vart mobil-AI är på väg: från att ge råd och förslag till att faktiskt genomföra saker åt dig – med din översikt och kontroll.
Vad kan Gemini göra – i praktiken?
Grundidén är enkel: du ger Gemini ett mål, och assistenten planerar och utför delstegen inne i apparna. I stället för att du själv ska hoppa mellan skärmar, fylla i fält och leta upp rätt alternativ, gör Gemini arbetet åt dig.
Exempel på typiska kommandon som blir möjliga (enligt Googles egen beskrivning och tidiga demovisningar):
- “Boka en Uber hem från jobbet om 10 minuter.”
- “Beställ min vanliga lunch igen i en matleveransapp.”
- “Lägg en beställning på middag till fyra personer och anpassa efter vegetariskt.”
Funktionen är designad för att klara flerstegsflöden – alltså exakt den typ av uppgifter där vi annars lägger tid på monotona tryckningar, val och upprepade moment.
Betan börjar med taxi- och matleveransappar
I betaversionen är omfattningen medvetet avgränsad. Enligt Google och rapporteringen i bland annat TechCrunch och 9to5Google får Gemini initialt tillgång till appar inom:
- Rideshare/taxi (t.ex. Uber och andra lokala alternativ)
- Mat- och leverans (i USA nämns flera stora leveranstjänster i rapporteringen)
Poängen med den snäva starten är sannolikt att säkra kvalitet, minimera risk och samla feedback innan Google breddar till fler kategorier (t.ex. resor, kalenderflöden, shopping, bank, supportärenden och så vidare).
Var testas funktionen?
Betan rullas ut i Gemini-appen på Android och testas först på utvalda toppmodeller:
- Google Pixel 10-familjen (enligt Googles blogginlägg)
- Samsung Galaxy S26-serien (enligt Googles blogginlägg och flera medier)
Tillgängligheten i startläget är dessutom geografiskt begränsad till USA och Sydkorea, enligt Googles kommunikation och rapporteringen hos The Verge.
Hur kan Gemini “använda” appar – utan att vara en app i appen?
Det intressanta är hur Gemini gör jobbet. I stället för att bara ge dig instruktioner (“klicka här, fyll i där”) kan Gemini enligt rapporteringen öppna en kontrollerad vy och utföra interaktioner steg för steg – ungefär som en människa som navigerar i gränssnittet, men snabbare och mer systematiskt.
Samtidigt bygger Google också mer “programmatisk” kontroll för AI-agenter via nya ramar för utvecklare. Ett exempel som diskuterats i Android-kretsar är AppFunctions, som beskrivs av 9to5Google och mer övergripande i utvecklar- och branschkommentarer hos bland andra Thurrott.
Det här är viktigt: om appar kan exponera “meningsfulla funktioner” (exempelvis “beställ senaste ordern”, “boka resa till favoritadress”, “lägg till varor från recept”) blir AI-agenter både säkrare och mer pålitliga än om de enbart “klickar runt” visuellt.
Varför är detta en stor grej – även för Sverige?
Även om betan startar i USA och Sydkorea är det här en tydlig förhandsvisning av nästa fas i mobil-AI. För Sverige kan effekterna bli konkreta på flera områden:
- Svenska apputvecklare kan behöva anpassa sina appar för agentflöden – antingen via Googles ramverk eller tydliga, AI-vänliga gränssnitt.
- Transport och leverans (tänk lokala aktörer och nordiska appar) kan få helt nya användarmönster när beställningar flyttar från “klickflöde” till “promptflöde”.
- Kundresan förändras: om AI:n gör valet och genomför beställningen blir det ännu viktigare hur tjänster presenteras, prissätts och vilka standardval som finns.
- AI-kompetens blir operativ: det räcker inte att “förstå AI” – man måste förstå hur agentiska system påverkar produkter, UX, marknadsföring och support.
För många svenska bolag kan detta bli lika omvälvande som när mobilen först blev navet för handel och tjänster – men nu med AI som mellanlager mellan användaren och appen.
Integritet och kontroll: AI som gör – men du bestämmer
När en AI kan agera i andra appar blir frågan om kontroll central. I de tidiga beskrivningarna betonas att användaren ska kunna:
- Följa processen
- Avbryta och justera
- Godkänna avgörande moment (som betalning och slutlig beställning)
Det här är en typisk balans i agentisk AI: maximal hjälp utan att användaren tappar överblick. Det är också en av anledningarna till att Google startar i ett avgränsat betaformat.
Slutsats: Android rör sig från operativsystem till “intelligenslager”
Med Gemini som kan utföra flerstegsuppgifter i appar blir Android inte bara en plattform där appar körs – utan en plattform där AI kan orkestrera hur tjänster används. Det här är ett skifte som på sikt kan förändra hur vi:
- Beställer och handlar
- Bokar och planerar
- Interagerar med tjänster
- Bygger appar och digitala produkter
Och för Sverige blir frågan inte om detta kommer – utan hur snabbt ekosystemet (företag, myndigheter, utvecklare) anpassar sig när AI-agenten flyttar in i mobilen på riktigt.
Källor & hänvisningar
- Google Blog: Let Gemini handle your multi-step daily tasks on Android
- The Verge: Google Gemini can book an Uber or order food for you on Pixel 10 and Galaxy S26
- TechCrunch: Gemini can now automate some multi-step tasks on Android
- 9to5Google: Gemini automation on Pixel 10, S26 can book rides and place orders
- 9to5Google: Google details AppFunctions that let Gemini use Android apps
- Thurrott: Google outlines how AI agents will interact with Android apps
- Google DeepMind: Gemini
- Uber – officiell webbplats
Skriven av Ralph Andersson med hjälp av AI

Inga kommentarer:
Skicka en kommentar