Waarom Apple Intelligence niet werkt op oudere iPhones of Vision Pro

Op de vraag waarom Apple Intelligence niet beschikbaar was op oudere iPhones, zei het bedrijf dat de chips tot nu toe simpelweg niet krachtig genoeg waren om een ​​goede ervaring te bieden. Op oudere chips kan het reageren erg lang duren.

Maar velen zeiden dat als hun telefoons de taak niet aankonden, waarom dan niet gewoon Apple Intelligence-servers zouden gebruiken, ook wel bekend als Private Cloud Compute? Dat is tenslotte wat er tegenwoordig al gebeurt met veel Siri-verzoeken. Daar hebben wij nu een antwoord op…

Johannes Gruber Ik heb hierover met Apple gesproken.

Een vraag die mij keer op keer wordt gesteld is waarom apparaten die niet in aanmerking komen voor Apple Intelligence niet alles kunnen doen via Private Cloud Compute. Iedereen realiseert zich dat als een apparaat niet snel of krachtig genoeg is voor verwerking op het apparaat. Maar waarom kunnen oudere iPhones (of in het geval van niet-Pro iPhone 15s, nieuwe iPhones met chips van twee jaar oud) Private Cloud Compute niet voor alles gebruiken?

Voor zover ik begrijp, is dit niet de manier waarop Apple Intelligence is ontworpen om te werken. Modellen die op het apparaat draaien, zijn heel andere modellen dan modellen die in de cloud draaien, en een van deze modellen op het apparaat zijn heuristieken die bepalen welke taken kunnen worden uitgevoerd door verwerking op het apparaat en waarvoor speciale cloud computing of ChatGPT vereist is.

Gruber geeft toe dat dit waarschijnlijk niet het geval is Zojuist een reden; Apple moet al veel rekenkracht aan de serverzijde bieden om verzoeken af ​​te handelen die niet op het apparaat kunnen worden afgehandeld, en de servervraag zou dramatisch hoger zijn als het deze zou moeten afhandelen. iedereen Verzoeken van oude telefoons. Maar de opgegeven reden lijkt redelijk.

READ  Valve onthult plannen om het Steam Deck-scherm en de batterij te verbeteren

Een andere verrassende onthulling is dat Apple Intelligence niet ondersteund zal worden door de Vision Pro, ook al is de M2-chip daarvoor krachtig genoeg. De reden hiervoor, zegt Gruber, is dat de chip al op maximale capaciteit draait en dus niet genoeg reservecapaciteit heeft voor de intelligentie van Apple.

Volgens de goed geïnformeerde vogeltjes maakt de Vision Pro feitelijk intensief gebruik van de M2 ​​neurale engine als aanvulling op de R1-chip voor realtime verwerkingsdoeleinden – occlusie, objectdetectie en dat soort dingen. Bij Macs en iPads uit de M-serie is de Neural Engine native en volledig beschikbaar voor Apple Intelligence-functies. Met Vision Pro wordt het daadwerkelijk gebruikt.

Nogmaals, de verklaring is logisch, al is het enorm jammer, aangezien het platform bijna speciaal voor AI lijkt te zijn ontworpen – een voorloper van een uiteindelijk Apple Glasses-product dat vrijwel zeker Apple Intelligence zal bevatten.

Nog een fragment uit het rapport van Gruber: bereid je voor dat je voortdurend geïrriteerd raakt als je om toestemming wordt gevraagd om te leveren aan ChatGPT. Net als bij de interne builds van Apple is er niet altijd een optie Toestaan.

Sommige mensen zullen een optie willen om de bezorging van verzoeken aan ChatGPT “altijd toe te staan”, maar volgens Apple-vertegenwoordigers met wie ik heb gesproken, bestaat zo’n optie nog niet.

Ik vermoed dat dit zal veranderen, omdat het snel een constante ergernis zal worden, maar Apple zal in de begindagen van de dienst waarschijnlijk op veilig willen spelen op het gebied van privacy.

Beeld uit fotografie AltumCode op Ontsplashen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *