Apple använder Google Gemini i nya Siri (släpps 2026)

Apple har haft svårt att leverera den utlovade, mer intelligenta versionen av Siri. Nu vänder företaget sig till sin största konkurrent, Google, och planerar att använda Googles AI‑plattform Gemini för att få fart på utvecklingen.

Vad användare kan förvänta sig

För användare av iPhone och andra Apple‑enheter kan samarbetet innebära att:

  • Siri blir märkbart bättre på att förstå mer komplexa frågor
  • assistenten kan hantera flerstegsuppgifter, som att tolka innehåll på telefonen och agera utifrån det
  • stabiliteten i enkla vardagsfunktioner som alarm och påminnelser bevaras samtidigt som nya AI‑funktioner läggs till

Den exakta funktionsuppsättningen återstår att se, liksom hur mycket som körs lokalt jämfört med i molnet.

Klart är att Apple inte längre försöker lösa hela AI‑utmaningen enbart med egna modeller, utan nu kombinerar satsningen på Apple Intelligence med Googles teknik för att snabbare få fram en mer kapabel version av Siri.

Integritet och säkerhet

Att Apple samarbetar med Google väcker frågor om integritet, särskilt eftersom Google bygger stora delar av sin verksamhet på datainsamling. Båda företagen betonar att upplägget är utformat för att skydda användarnas data.

Apple säger att Apple Intelligence körs lokalt på enheterna så långt det är möjligt, och att mer krävande beräkningar sker via Private Cloud Compute – Apples egen molninfrastruktur med fokus på integritet. Google förtydligar att det gäller även när Gemini ingår i lösningen.

Konsekvensen är att:

  • Google inte får direkt tillgång till Siri‑förfrågningar eller personlig information från Apple‑enheter
  • Apple behåller kontrollen över hur användardata hanteras, precis som i samarbetet med OpenAI

För användaren innebär det att man kan få tillgång till Googles AI‑kapacitet utan att dela sin Siri‑data direkt med Google.

Google Gemini
Gemini – snart i din iPhone.

När kan nya Siri med Gemini dyka upp?

Både Apple och Google säger nu att den AI‑drivna Siri ska lanseras ”i år”. Det är en tydlig förändring jämfört med tidigare uppgifter. En Apple‑representant sade i mars till sajten Daring Fireball att utvecklingen tog längre tid än väntat och att målet var en lansering först 2026.

Andra uppgifter pekar på en snabbare tidsplan.

Bloomberg‑journalisten Mark Gurman, som ofta hänvisar till interna källor på Apple, har tidigare sagt att uppgraderingen av Siri kan komma redan till våren. Samtidigt skulle Apple också kunna välja att knyta lanseringen till sin utvecklarkonferens WWDC, som brukar hållas i juni.

Den exakta tidpunkten är fortfarande oklar, men samstämmiga uttalanden från både Apple och Google om ”i år” antyder att användare inte behöver vänta flera år till.

Så ska samarbetet fungera i praktiken

Apple har ännu inte redovisat alla detaljer i avtalet, men både Apple och Google har kommenterat vissa centrala delar.

På X (tidigare Twitter) förklarade Google att Apple Intelligence fortsatt ska köras på Apple‑enheter och via Apples lösning Private Cloud Compute. Google framhåller att det sker med bibehållna ”branschledande” integritetsstandarder från Apple.

Det liknar det upplägg Apple har med OpenAI i dag. När användare ställer frågor till ChatGPT via Apple får modellen inte använda frågorna för vidare träning eller spara dem i loggar. Översatt till Google‑samarbetet innebär det att Google inte får direkt tillgång till data som genereras när användare pratar med AI‑Siri.

Google bekräftar också att avtalet med Apple är ett flerårsavtal. Det tyder på att parterna ser samarbetet som långsiktigt, snarare än en tillfällig lösning.

Därför väljer Apple att använda Google Gemini

Apple presenterade en mer avancerad Siri för nästan två år sedan, som en del av satsningen ”Apple Intelligence”.

Trots alla ”förbättringar” är ”nya” Siri ungefär densamma som tidigare. Den kan svara på några fler frågor om Apple‑produkter och skicka frågor vidare till ChatGPT, men de stora AI‑förbättringarna har dröjt.

Under utvecklingen har Apple försökt bygga en mer kapabel Siri helt med egna AI‑modeller. Efter en längre tids arbete och upprepade försök att lösa problem med AI:n väljer Apple att ta in hjälp utifrån.

I ett uttalande till CNBC:s Jim Cramer säger Apple att man efter en noggrann utvärdering kommit fram till att Googles teknik ger den mest kapabla grunden för Apples egna ”Foundation Models”. Apple framhåller samtidigt att man ser fram emot nya typer av användarupplevelser som samarbetet kan möjliggöra.

Vad Siri var tänkt att klara av

Apple har tidigare beskrivit en rad funktioner som ska skilja AI‑Siri från dagens version. Assistenten ska inte bara svara på allmänna frågor, utan också:

  • utföra uppgifter åt användaren, till exempel skicka ett färdigskrivet e‑postmeddelande
  • använda kontext från innehållet på telefonen, som att hitta en väns adress från en sms‑konversation

Problemen har främst uppstått när de nya, mer komplexa AI‑funktionerna blandats med Siris grundläggande uppgifter. Under tester har till exempel traditionella funktioner som att ställa in alarm och påminnelser slutat fungera stabilt. Varje sådan konflikt har tvingat Apple att backa och omvärdera sin teknik.

Googles egna Gemini‑baserade röstassistent på Android hade liknande barnsjukdomar, men de verkar enligt praktiska tester ha minskat betydligt. Det gör Google till en naturlig partner för Apple när man vill komma vidare med en mer avancerad, men ändå pålitlig, röstassistent.

Via CNBC

Lämna en kommentar