Zo ziet de nieuwe Siri met Gemini eruit: data, functies en overeenkomsten tussen Apple en Google.

  • Apple introduceert een nieuwe Siri, aangedreven door Gemini, in iOS 26.4. Een bètaversie staat gepland voor februari, gevolgd door een volledige uitrol in het voorjaar.
  • De integratie stelt Siri in staat om de context en het scherm te begrijpen en complexe acties binnen apps uit te voeren, waardoor het steeds meer op een geavanceerde chatbot gaat lijken.
  • Gemini zal binnen de infrastructuur van Apple opereren (op het apparaat en in Private Cloud Compute), zonder gegevens naar Google-servers te verzenden.
  • De overeenkomst met Google is ongeveer 1.000 miljard dollar per jaar waard en dient als tijdelijke oplossing terwijl Apple zijn eigen modellen ontwikkelt.

nieuwe Siri met Gemini op Apple-apparaten

La De volgende grote evolutie van Siri Het gaat via Google Gemini.Na jarenlange klachten over de stagnatie van zijn spraakassistent heeft Apple gekozen voor een strategische samenwerking met Google om geavanceerde kunstmatige intelligentiemodellen in zijn ecosysteem te integreren. Het resultaat zal een veel contextuelere Siri zijn, die beter begrijpt wat we willen en complexe taken kan uitvoeren zonder dat de gebruiker tussen apps hoeft te schakelen.

Deze verandering beperkt zich niet tot een simpele softwareaanpassing: Het houdt een ingrijpende herziening van Siri's "brein" in.Het bedrijf uit Cupertino, dat gebruikmaakt van de technologie van Gemini maar wel onderworpen is aan de privacy- en controleregels van Apple, vertrouwt op deze technologie. Apple, dat zwaar bekritiseerd wordt omdat het achterloopt op concurrenten zoals Google en OpenAI in de AI-race, heeft een gamechanger nodig en die gaat het precies met dit product bereiken.nieuwe Siri met Gemini"Het zal eerst op de iPhone verschijnen en daarna op de andere apparaten."

Wanneer komt de nieuwe Siri met Gemini uit en op welke apparaten zal deze beschikbaar zijn?

Apple beheert een Tweefasenplan voor de uitrol van de nieuwe SiriDe eerste golf komt met iOS 26.4, waarvan de bèta in februari verschijnt en de stabiele versie naar verwachting in het voorjaar, ergens tussen maart en april, uitkomt. Deze versie zal de generatieve AI-mogelijkheden die het bedrijf eerder onder de noemer Apple Intelligence presenteerde, eindelijk beschikbaar maken voor gebruikers.

In die eerste update, Siri zal steeds meer op Gemini gaan leunen. voor geavanceerde begripstakenMaar de klassieke interface is nog niet volledig veranderd. We zullen een slimmere Siri "vanbinnen" zien, een die onze verzoeken beter begrijpt en tussen apps kan navigeren, maar het zal nog niet de conversatiechatbot zijn die Apple voor de volgende fase aan het voorbereiden is.

Die grotere sprong zal komen met iOS 27, iPadOS 27 en macOS 27In die generatie, die naar verwachting eind dit jaar verschijnt na de presentatie op WWDC in juni, is het de bedoeling dat Siri niet langer alleen een traditionele spraakassistent is, maar zich in plaats daarvan gedraagt ​​als een langeafstandsgesprek-chatbotNet als bij ChatGPT of Gemini zelf, zullen lange gesprekken, een constante context, de mogelijkheid om verzoeken te typen of te dicteren, en het vermogen van het systeem om complexe commandoreeksen te begrijpen, deel uitmaken van de kern van de gebruikerservaring.

Wat de beschikbaarheid per model betreft, blijft Apple prioriteit geven aan de nieuwste apparaten. De meest geavanceerde functies van de nieuwe Siri met Gemini Ze zullen zich richten op de nieuwste generatie iPhones en apparaten die krachtig genoeg zijn om hybride AI-modellen te verwerken (op het apparaat zelf en in de cloud van Apple), met name in Europa waar regelgeving en privacyeisen zwaarder wegen.

Welke concrete veranderingen zal Siri met zich meebrengen wanneer Gemini wordt geïntegreerd?

Het grote verschil met de huidige Siri zal zijn... vermogen om context, scherm en persoonlijke gegevens te begrijpenIn plaats van alleen maar losse commando's te geven, wil Apple dat de assistent echt "namens de gebruiker" handelt binnen het systeem en de applicaties, zonder dat gebruikers handmatig menu's hoeven te openen of naar functies hoeven te zoeken.

Van de verwachte nieuwe functies voor Siri met Gemini springen er een aantal belangrijke gebieden in het oog. Zo zal het bijvoorbeeld helpen om te begrijpen wat er op het scherm verschijnt: De assistent kan de inhoud die op de iPhone wordt weergegeven, interpreteren. (een e-mail, een chat, een website, een document) en gebruik het als context om te reageren of actie te ondernemen. Je kunt ook persoonlijke informatie, zoals e-mails over vluchten of berichten met reserveringen, gebruiken om complexere vragen te beantwoorden, zoals "hoe laat komt de vlucht van mijn moeder aan?", zonder dat de gebruiker elk detail hoeft te specificeren.

Een andere pijler zal de gekoppelde uitvoering van acties binnen applicatiesIn plaats van te vragen om zeer specifieke dingen ("Mail openen", "een bericht schrijven"), kan Siri verzoeken van een hoger niveau ontvangen, zoals "maak een samenvatting van het rapport dat ik gisteren heb ontvangen en stuur het naar mijn baas" en de benodigde stappen aan elkaar koppelen met behulp van Gemini wanneer de taak een complexere redenering vereist.

Apple werkt ook aan wat intern is omschreven als functies van “Wereldwijde kennisantwoorden”Antwoorden gebaseerd op algemene kennis verzameld via internet, aangevuld met referenties of bronvermeldingen, vergelijkbaar met wat ChatGPT of Gemini nu al bieden. Hierdoor kunnen gebruikers meer open vragen stellen zonder Siri te verlaten.

Ook de integratie met apps zal een flinke sprong voorwaarts maken. Siri kan straks specifieke functies binnen apps activeren. Gebruik alleen je stem: zoek naar specifieke foto's, schrijf notities, maak complexe herinneringen aan of stel lange e-mails op, allemaal met een begrip van nuances dat dichter bij dat van moderne AI-chats ligt dan bij dat van een traditionele assistent.

Gemini als Siri's "secundaire brein": hoe taken worden verdeeld

Apple zal Gemini niet volledig vervangen door Siri, maar het juist als hulpmiddel gebruiken. een "secundair brein" om op terug te vallen wanneer verzoeken te complex wordenVoor eenvoudige en routinematige taken blijft het gebruikelijke systeem functioneren en worden verzoeken zeer snel verwerkt op het apparaat zelf met behulp van lokale modellen.

Wanneer de gebruiker een verzoek indient dat redenering, een diepere interpretatie van natuurlijke taal of de verwerking van grote hoeveelheden informatie vereist, Siri zal stilletjes een deel van het werk overdragen aan Gemini.In de praktijk zal de gebruiker merken dat de assistent nu lange documenten kan samenvatten, nieuws kan analyseren, reizen kan voorbereiden, meerdere stappen in verschillende apps aan elkaar kan koppelen of instructies met veel nuances kan verwerken.

Een van de interessante punten voor Europese gebruikers zal zijn dat de relatie tussen de nieuwe Siri met Gemini en het Google-ecosysteemDe integratie stelt gebruikers in staat om rechtstreeks via Siri opdrachten uit te voeren waarvoor ze momenteel Google-apps moeten openen: een bestand zoeken in Drive, een e-mail schrijven of beantwoorden in Gmail, of een concept voorbereiden in Docs, allemaal zonder door menu's te hoeven navigeren.

Naast tekst is het model van Google van nature multimodaal, wat betekent dat Het kan tekst, audio en afbeeldingen in combinatie herkennen.Door deze functionaliteit naar de iPhone-camera te brengen, analyseert Gemini in realtime wat het apparaat ziet, waarna Siri de gebruiker het antwoord geeft. Het is een evolutie van de huidige visuele zoektechnologie, maar met een aanzienlijke sprong voorwaarts op het gebied van begrip en context.

In elk geval zal Gemini deelnemen. transparant en optioneel voor de gebruikerApple implementeert de integratie op een manier waarmee elke gebruiker zelf kan kiezen of hij zijn account wil koppelen en Siri toestemming wil geven om de systemen van Google te raadplegen. Gebruikers die hiervoor niet kiezen, blijven een beperktere versie van Siri gebruiken, maar dan zonder die externe verbinding.

Privacy, data en de infrastructuur van private cloudcomputing.

Een van de meest gevoelige punten van "Siri met Gemini" is wat er met de gegevens gebeurt. Apple heeft erop aangedrongen dat, ondanks het gebruik van Google-technologie, Gemini zal niet functioneren als een klassieke externe service binnen de iPhone.In plaats van verzoeken naar Google-servers te sturen, worden de query's uitgevoerd op het apparaat zelf of op de infrastructuur van Apple, bekend als Private Cloud Compute.

Dit hybride model is gebaseerd op een combinatie van door Apple ontworpen chips en eigen servers, waarin AI-taken die meer rekenkracht vereisen, worden afgehandeld zonder de gegevens aan derden te verstrekken.Voordat de gegevens het apparaat verlaten, worden ze geanonimiseerd en persoonlijke identificatiegegevens verwijderd. Het bedrijf garandeert dat er niets wordt opgeslagen dat aan een specifieke gebruiker kan worden gekoppeld.

Zoals Tim Cook heeft benadrukt, is de overeenkomst met Google specifiek ontworpen om om de privacynormen te handhaven die Apple al jaren hoog in het vaandel draagt.Het bedrijf benadrukt dat noch Google, noch andere partners toegang zullen hebben tot de inhoud die door gebruikers wordt gegenereerd tijdens de interactie met Siri, zelfs niet wanneer die interactie gebruikmaakt van geavanceerde taalmodellen zoals Gemini.

In de praktijk betekent dit dat Europese gebruikers hetzelfde gegevensbeschermingskader behouden als voorheen, maar met een veel krachtigere ondersteuning. Apple behoudt de controle over de gebruikerservaring en de beveiliging.Google levert de algoritmische kracht die de sprong voorwaarts in taalbegrip en -generatie mogelijk maakt.

Deze architectuur sluit ook aan bij de Europese regelgeving en de groeiende eisen met betrekking tot datasoevereiniteit. Voor Apple is het cruciaal om te kunnen zeggen dat het geen gebruikersgegevens aan Google "doorgeeft".Hoewel het profiteert van zijn technologie, is de integratie van Gemini daarom op een heel andere manier ontworpen dan hoe de chatbot rechtstreeks via de diensten van Google zelf wordt aangeboden.

De economische overeenkomst met Google en de langetermijnstrategie

Het minst zichtbare aspect van deze hele operatie is de economische component. Verschillende bronnen geven aan dat Apple zal Google jaarlijks ongeveer 1.000 miljard dollar betalen. voor toegang tot een aangepaste versie van Gemini, afgestemd op de behoeften van Siri en Apple Intelligence.

Dit bedrag komt bovenop de inkomsten die Google al verdient met... de standaard zoekmachine in Safarieen overeenkomst ter waarde van meer dan 18.000 miljard dollar, oftewel 20.000 miljard dollar per jaar. Vanuit zakelijk oogpunt was het uitbreiden van de samenwerking naar het gebied van AI veel eenvoudiger dan helemaal opnieuw beginnen met een andere partner, zowel qua kosten als qua tijd.

Apple omschrijft deze overeenkomst intern als een tijdelijke oplossingHet bedrijf blijft zijn eigen modellen voor kunstmatige intelligentie ontwikkelen met het idee om op middellange of lange termijn de afhankelijkheid van externe partners te verminderen en de volledige controle over belangrijke technologieën terug te winnen, zoals het al op andere gebieden heeft gedaan (chips, hardwareontwerp, besturingssystemen).

Tot relatief recent onderzocht Apple alternatieven zoals een een nauwere samenwerking met Anthropic of een uitbreiding van de samenwerking met OpenAIOnderhandelingen met sommige van deze partijen werden echter gecompliceerd door kosten en voorwaarden, terwijl de marktdruk om een ​​duidelijk antwoord te zien in AI weinig ruimte liet voor verder uitstel van beslissingen.

Uiteindelijk is de keuze voor Tweelingen een teken van pragmatisme: Apple erkent dat vertraging op dit gebied betekent dat je je relevantie verliest.Het bedrijf heeft ervoor gekozen om te vertrouwen op degenen die al een volwassen en schaalbaar model hebben, terwijl het zelf een alternatief ontwikkelt. Voor gebruikers vertaalt dit zich in tastbare verbeteringen, zonder dat ze jaren hoeven te wachten op een volledig eigen oplossing.

Siri als geavanceerde chatbot: de volgende stap met iOS 27.

De versie van Siri die we met iOS 26.4 zullen zien, zal grotendeels hetzelfde zijn als... een grondige upgrade van de interne motor Het gaat om meer dan een radicale herziening van de gebruikerservaring. De echte facelift, die Siri zal transformeren in een volwaardige chatbot, is voorbehouden aan de volgende generatie van het systeem.

Met iOS 27 is Apple van plan om Siri gedraagt ​​zich als een volwaardige spraakassistent.Het is in staat om lange dialogen te voeren, context uit eerdere berichten op te halen, voorkeuren te onthouden en naast spraakopdrachten ook geschreven instructies te accepteren. Deze ontwikkeling brengt Apple's assistent in lijn met wat ChatGPT en Gemini al bieden in hun webinterfaces en speciale apps.

In dat stadium kan de gebruiker de assistent vragen om Teksten genereren, documenten samenvatten, bestanden analyseren en ondersteuning bieden bij programmeertaken.Dit alles vanuit het systeem zelf. Er wordt ook verwacht dat het geïntegreerde internetzoekopdrachten kan uitvoeren, afbeeldingen kan genereren en kan werken met content die de gebruiker uploadt of op het apparaat heeft opgeslagen.

De sleutel zit hem in hoe Apple zet die kracht om in iets dat gebruiksvriendelijk is en past binnen het ecosysteem.Het gaat niet alleen om een ​​krachtig model, maar ook om de integratie ervan in het besturingssysteem, native apps en dagelijkse workflows, zodat het niet als een bijzaak wordt gezien, maar als een natuurlijke uitbreiding van wat we al doen met de iPhone, iPad of Mac.

Het bedrijf is zich ervan bewust dat zijn reputatie met Siri niet bepaald vlekkeloos is en dat Elke mislukking in deze nieuwe fase zal nauwlettend worden onderzocht.Daarom heeft het bedrijf gekozen voor een geleidelijke overgang: eerst het "brein" versterken met Gemini en vervolgens de ambitieuzere interface uitrollen wanneer het een duidelijk beeld heeft van hoe gebruikers reageren en waar de knelpunten zich bevinden.

Wat we met de nieuwe Siri met Gemini kunnen verwachten, is in de praktijk het volgende: een categorieverandering voor Apple's assistentHet zal evolueren van een hulpmiddel dat velen alleen voor basistaken gebruikten naar een centraal onderdeel van de gebruikerservaring op hun apparaten, mits de implementatie aan de verwachtingen voldoet en de privacybeloftes respecteert, iets wat vooral gevoelig ligt in markten zoals Europa.

Alles wijst erop dat iPhone-gebruikers in Spanje en de rest van Europa de komende maanden een andere Siri zullen gaan ervaren: een Siri die meer aandacht heeft voor de context, gemakkelijker tussen applicaties kan schakelen en beter in staat is complexe verzoeken te begrijpen. Dit is te danken aan een Gemini-processor die op de achtergrond, maar binnen de infrastructuur van Apple, zal werken, in een delicate balans tussen AI-kracht, zakelijke belangen en gegevensbescherming.

nieuwe Siri, mogelijk gemaakt door Gemini
Gerelateerd artikel:
De nieuwe Siri, aangedreven door Gemini: zo verandert de AI-strategie van Apple.