Etter å ha sett styrke i antall, har Apple gjort et strategisk grep i det konkurrerende markedet for kunstig intelligens ved å gjøre åtte små AI-modeller tilgjengelige. Samlet kalt OpenELM, de kompakte verktøyene er designet for å kjøre på enheter og offline – perfekt for smarttelefoner.
Publisert på åpen kildekode AI-fellesskapet Klemme ansiktet, tilbys modellene i 270 millioner, 450 millioner, 1.1 milliarder og 3 milliarder parameterversjoner. Brukere kan også laste ned Apples OpenELM i enten forhåndstrente eller instruksjonstilpassede versjoner.
De ferdigtrente modellene gir en base på toppen som brukere kan finjustere og utvikle. De instruksjonstilpassede modellene er allerede programmert til å svare på instruksjoner, noe som gjør dem mer egnet for samtaler og interaksjoner med sluttbrukere.
Selv om Apple ikke har foreslått spesifikke brukstilfeller for disse modellene, kan de brukes til å kjøre assistenter som kan analysere e-poster og tekster, eller gi intelligente forslag basert på dataene. Dette er en tilnærming som ligner på en tatt av Google, som distribuerte sin Gemini AI-modell på Pixel-smarttelefonutvalget.
Modellene ble trent på offentlig tilgjengelige datasett, og Apple deler både koden for CoreNet (biblioteket som brukes til å trene OpenELM) og "oppskriftene" for modellene sine. Med andre ord kan brukere inspisere hvordan Apple bygde dem.
Apple-utgivelsen kommer kort tid etter Microsoft annonserte Phi-3, en familie av små språkmodeller som er i stand til å kjøre lokalt. Phi-3 Mini, en 3.8 milliarder parametermodell trent på 3.3 billioner tokens, er fortsatt i stand til å håndtere 128K tokens av kontekst, noe som gjør den sammenlignbar med GPT-4 og slår Llama-3 og Mistral Large når det gjelder tokenkapasitet.
Siden den er åpen kildekode og lett, kan Phi-3 Mini potensielt erstatte tradisjonelle assistenter som Apples Siri eller Googles Gemini for noen oppgaver, og Microsoft har allerede testet Phi-3 på en iPhone og rapportert tilfredsstillende resultater og raske tokengenerasjoner.
Selv om Apple ennå ikke har integrert disse nye AI-språkmodellene i sine forbrukerenheter, er den kommende iOS 18-oppdateringen ryktes å inkludere nye AI-funksjoner som bruker prosessering på enheten for å sikre brukernes personvern.
Apple-maskinvare har en fordel ved lokal AI-bruk, siden den kombinerer enhets-RAM med GPU-video-RAM (eller VRAM). Dette betyr at en Mac med 32 GB RAM (en vanlig konfigurasjon i en PC) kan bruke den RAM-en som den ville gjort med GPU VRAM for å kjøre AI-modeller. Ved sammenligning, Windows-enheter er hamstrerte av separat enhets RAM og GPU VRAM. Brukere må ofte kjøpe en kraftig 32 GB GPU for å øke RAM-en for å kjøre AI-modeller.
Imidlertid henger Apple etter Windows/Linux når det gjelder AI-utvikling. De fleste AI-applikasjoner dreier seg om maskinvare designet og bygget av Nvidia, som Apple faset ut til støtte for sine egne brikker. Dette betyr at det er relativt lite Apple-native AI-utvikling, og som et resultat krever bruk av AI på Apple-produkter oversettelseslag eller andre komplekse prosedyrer.
Hold deg oppdatert på kryptonyheter, få daglige oppdateringer i innboksen din.
- SEO-drevet innhold og PR-distribusjon. Bli forsterket i dag.
- PlatoData.Network Vertical Generative Ai. Styrk deg selv. Tilgang her.
- PlatoAiStream. Web3 Intelligence. Kunnskap forsterket. Tilgang her.
- PlatoESG. Karbon, CleanTech, Energi, Miljø, Solenergi, Avfallshåndtering. Tilgang her.
- PlatoHelse. Bioteknologisk og klinisk etterretning. Tilgang her.
- kilde: https://decrypt.co/228325/apple-small-ai-models-openelm-microsoft-phi-mini