Platone Data Intelligence.
Ricerca verticale e intelligenza artificiale.

Questo modello AI ultraleggero si adatta al tuo telefono e può battere ChatGPT - Decrittografa

Data:

Microsoft oggi rivendicato che ha rilasciato "i modelli Small Language (SLM) più capaci ed economici disponibili", affermando Phi-3-la terza iterazione del suo Famiglia Phi di modelli linguistici piccoli (SLM): supera i modelli di dimensioni comparabili e alcuni modelli più grandi.

Uno Small Language Model (SLM) è un tipo di modello di intelligenza artificiale progettato per essere estremamente efficiente nell'esecuzione di compiti specifici legati al linguaggio. A differenza dei Large Language Models (LLM), che sono adatti per un'ampia gamma di attività generiche, gli SLM si basano su un set di dati più piccolo per renderli più efficienti ed economici per casi d'uso specifici.

Phi-3 è disponibile in diverse versioni, ha spiegato Microsoft, la più piccola delle quali è Phi-3 Mini, un modello da 3.8 miliardi di parametri addestrato su 3.3 trilioni di token. Nonostante le sue dimensioni relativamente piccole, il corpo di Llama-3 pesa molto 15 miliardi token di dati: Phi-3 Mini è ancora in grado di gestire 128 token di contesto. Ciò lo rende paragonabile a GPT-4 e batte Llama-3 e Mistral Large in termini di capacità dei token.

In altre parole, i colossi dell'intelligenza artificiale come Llama-3 su Meta.ai e Mistral Large potrebbero collassare dopo una lunga chiacchierata o sollecitare molto prima che questo modello leggero inizi a lottare.

Uno dei vantaggi più significativi di Phi-3 Mini è la sua capacità di adattarsi e funzionare su un tipico smartphone. Microsoft ha testato il modello su un iPhone 14 e ha funzionato senza problemi, generando 14 token al secondo. L'esecuzione di Phi-3 Mini richiede solo 1.8 GB di VRAM, rendendolo un'alternativa leggera ed efficiente per gli utenti con esigenze più mirate.

Anche se Phi-3 Mini potrebbe non essere adatto a programmatori di fascia alta o a persone con esigenze ampie, può essere un'alternativa efficace per utenti con esigenze specifiche. Ad esempio, le startup che necessitano di un chatbot o le persone che sfruttano gli LLM per l'analisi dei dati possono utilizzare Phi-3 Mini per attività come l'organizzazione dei dati, l'estrazione di informazioni, il ragionamento matematico e la creazione di agenti. Se al modello viene fornito l’accesso a Internet, può diventare piuttosto potente, compensando la sua mancanza di capacità con informazioni in tempo reale.

Phi-3 Mini ottiene punteggi elevati nei test grazie all'attenzione di Microsoft nel curare il proprio set di dati con le informazioni più utili possibili. La famiglia Phi più ampia, infatti, non è adatta per compiti che richiedono conoscenze fattuali, ma elevate capacità di ragionamento li posizionano al di sopra dei principali concorrenti. Phi-3 Medium (un modello da 14 miliardi di parametri) batte costantemente LLM potenti come GPT-3.5, il LLM che alimenta la versione gratuita di ChatGPT, e la versione Mini batte modelli potenti come Mixtral-8x7B nella maggior parte dei benchmark sintetici.

Vale la pena notare, tuttavia, che Phi-3 non è open source come il suo predecessore, Phi-2. Invece è un modello aperto, il che significa che è accessibile e disponibile per l'uso, ma non ha la stessa licenza open source di Phi-2, che consente un utilizzo più ampio e applicazioni commerciali.

Nelle prossime settimane, Microsoft ha dichiarato che rilascerà altri modelli della famiglia Phi-3, tra cui Phi-3 Small (7 miliardi di parametri) e il già citato Phi-3 Medium.

Microsoft ha reso Phi-3 Mini disponibile su Azure AI Studio, Hugging Face e Ollama. Il modello è ottimizzato per le istruzioni e per ONNX Runtime con supporto per Windows DirectML, nonché supporto multipiattaforma su diverse GPU, CPU e persino hardware mobile.

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.

spot_img

L'ultima intelligenza

spot_img

Parla con noi

Ciao! Come posso aiutarla?