Platon Data Intelligence.
Vertikal sökning & Ai.

Denna ultralätta AI-modell passar på din telefon och kan slå ChatGPT – Dekryptera

Datum:

Microsoft idag hävdade att det har släppt "de mest kapabla och kostnadseffektiva små språkmodellerna (SLM) som finns tillgängliga", säger Phi-3— den tredje iterationen av dess Phi familj av små språkmodeller (SLM) – överträffar modeller av jämförbar storlek och några få större.

En liten språkmodell (SLM) är en typ av AI-modell som är designad för att vara extremt effektiv för att utföra specifika språkrelaterade uppgifter. Till skillnad från stora språkmodeller (LLM), som är väl lämpade för ett brett utbud av generiska uppgifter, är SLM:er byggda på en mindre datauppsättning för att göra dem mer effektiva och kostnadseffektiva för specifika användningsfall.

Phi-3 kommer i olika versioner, förklarade Microsoft, där den minsta är Phi-3 Mini, en 3.8 miljarder parametermodell tränad på 3.3 biljoner tokens. Trots sin relativt lilla storlek väger Llama-3:s korpus över 15 biljoner tokens of data—Phi-3 Mini kan fortfarande hantera 128K tokens of context. Detta gör den jämförbar med GPT-4 och slår Llama-3 och Mistral Large när det gäller tokenkapacitet.

Med andra ord kan AI-giganter som Llama-3 på Meta.ai och Mistral Large kollapsa efter en lång chatt eller fråga långt innan den här lätta modellen börjar kämpa.

En av de viktigaste fördelarna med Phi-3 Mini är dess förmåga att passa och köra på en typisk smartphone. Microsoft testade modellen på en iPhone 14, och den körde utan problem och genererade 14 tokens per sekund. Att köra Phi-3 Mini kräver bara 1.8 GB VRAM, vilket gör det till ett lätt och effektivt alternativ för användare med mer fokuserade krav.

Även om Phi-3 Mini kanske inte är lika lämplig för avancerade kodare eller personer med breda krav, kan det vara ett effektivt alternativ för användare med specifika behov. Till exempel kan startups som behöver en chatbot eller personer som använder LLM:er för dataanalys använda Phi-3 Mini för uppgifter som dataorganisation, extrahera information, göra matematiska resonemang och bygga agenter. Om modellen ges tillgång till internet kan den bli ganska kraftfull och kompensera för dess brist på kapacitet med realtidsinformation.

Phi-3 Mini uppnår höga testresultat tack vare Microsofts fokus på att sammanställa sin datauppsättning med så användbar information som möjligt. Den bredare Phi-familjen är faktiskt inte bra för uppgifter som kräver faktakunskap, men hög resonemangsförmåga placerar dem över stora konkurrenter. Phi-3 Medium (en modell med 14 miljarder parametrar) slår konsekvent kraftfulla LLM:er som GPT-3.5 — LLM som driver gratisversionen av ChatGPT — och Mini-versionen slår kraftfulla modeller som Mixtral-8x7B i de flesta syntetiska riktmärken.

Det är dock värt att notera att Phi-3 inte är öppen källkod som sin föregångare, Phi-2. Istället är det en öppen modell, vilket betyder att den är tillgänglig och tillgänglig för användning, men den har inte samma öppen källkod som Phi-2, vilket möjliggör bredare användning och kommersiella applikationer.

Under de kommande veckorna sa Microsoft att de kommer att släppa fler modeller i Phi-3-familjen, inklusive Phi-3 Small (7 miljarder parametrar) och den tidigare nämnda Phi-3 Medium.

Microsoft har gjort Phi-3 Mini tillgänglig på Azure AI Studio, Hugging Face och Ollama. Modellen är instruktionsjusterad och optimerad för ONNX Runtime med stöd för Windows DirectML, såväl som plattformsoberoende stöd över olika GPU, CPU och till och med mobil hårdvara.

Håll dig uppdaterad om kryptonyheter, få dagliga uppdateringar i din inkorg.

plats_img

Senaste intelligens

plats_img

Chatta med oss

Hallå där! Hur kan jag hjälpa dig?