Platon Data Intelligence.
Vertikalt søk og Ai.

Apple lanserer 8 små AI-språkmodeller for å konkurrere med Microsofts Phi-3 – Dekrypter

Dato:

Etter å ha sett styrke i antall, har Apple gjort et strategisk grep i det konkurrerende markedet for kunstig intelligens ved å gjøre åtte små AI-modeller tilgjengelige. Samlet kalt OpenELM, de kompakte verktøyene er designet for å kjøre på enheter og offline – perfekt for smarttelefoner.

Publisert på åpen kildekode AI-fellesskapet Klemme ansiktet, tilbys modellene i 270 millioner, 450 millioner, 1.1 milliarder og 3 milliarder parameterversjoner. Brukere kan også laste ned Apples OpenELM i enten forhåndstrente eller instruksjonstilpassede versjoner.

De ferdigtrente modellene gir en base på toppen som brukere kan finjustere og utvikle. De instruksjonstilpassede modellene er allerede programmert til å svare på instruksjoner, noe som gjør dem mer egnet for samtaler og interaksjoner med sluttbrukere.

Selv om Apple ikke har foreslått spesifikke brukstilfeller for disse modellene, kan de brukes til å kjøre assistenter som kan analysere e-poster og tekster, eller gi intelligente forslag basert på dataene. Dette er en tilnærming som ligner på en tatt av Google, som distribuerte sin Gemini AI-modell på Pixel-smarttelefonutvalget.

Modellene ble trent på offentlig tilgjengelige datasett, og Apple deler både koden for CoreNet (biblioteket som brukes til å trene OpenELM) og "oppskriftene" for modellene sine. Med andre ord kan brukere inspisere hvordan Apple bygde dem.

Apple-utgivelsen kommer kort tid etter Microsoft annonserte Phi-3, en familie av små språkmodeller som er i stand til å kjøre lokalt. Phi-3 Mini, en 3.8 milliarder parametermodell trent på 3.3 billioner tokens, er fortsatt i stand til å håndtere 128K tokens av kontekst, noe som gjør den sammenlignbar med GPT-4 og slår Llama-3 og Mistral Large når det gjelder tokenkapasitet.

Siden den er åpen kildekode og lett, kan Phi-3 Mini potensielt erstatte tradisjonelle assistenter som Apples Siri eller Googles Gemini for noen oppgaver, og Microsoft har allerede testet Phi-3 på en iPhone og rapportert tilfredsstillende resultater og raske tokengenerasjoner.

Selv om Apple ennå ikke har integrert disse nye AI-språkmodellene i sine forbrukerenheter, er den kommende iOS 18-oppdateringen ryktes å inkludere nye AI-funksjoner som bruker prosessering på enheten for å sikre brukernes personvern. 

Apple-maskinvare har en fordel ved lokal AI-bruk, siden den kombinerer enhets-RAM med GPU-video-RAM (eller VRAM). Dette betyr at en Mac med 32 GB RAM (en vanlig konfigurasjon i en PC) kan bruke den RAM-en som den ville gjort med GPU VRAM for å kjøre AI-modeller. Ved sammenligning, Windows-enheter er hamstrerte av separat enhets RAM og GPU VRAM. Brukere må ofte kjøpe en kraftig 32 GB GPU for å øke RAM-en for å kjøre AI-modeller.

Imidlertid henger Apple etter Windows/Linux når det gjelder AI-utvikling. De fleste AI-applikasjoner dreier seg om maskinvare designet og bygget av Nvidia, som Apple faset ut til støtte for sine egne brikker. Dette betyr at det er relativt lite Apple-native AI-utvikling, og som et resultat krever bruk av AI på Apple-produkter oversettelseslag eller andre komplekse prosedyrer.

Hold deg oppdatert på kryptonyheter, få daglige oppdateringer i innboksen din.

spot_img

Siste etterretning

spot_img

Chat med oss

Hei der! Hvordan kan jeg hjelpe deg?