Platone Data Intelligence.
Ricerca verticale e intelligenza artificiale.

Nuove funzionalità significative semplificano l'utilizzo di Amazon Bedrock per creare e scalare applicazioni di intelligenza artificiale generativa e ottenere risultati impressionanti | Servizi Web di Amazon

Data:

Abbiamo presentato Amazon Bedrock al mondo poco più di un anno fa, offrendo un modo completamente nuovo di creare applicazioni di intelligenza artificiale generativa (AI). Con la più ampia selezione di Foundation Model (FM) di prima e terza parte e funzionalità intuitive, Amazon Bedrock è il modo più semplice e veloce per creare e scalare applicazioni IA generative sicure. Ora decine di migliaia di clienti utilizzano Amazon Bedrock per creare e scalare applicazioni straordinarie. Stanno innovando in modo rapido, semplice e sicuro per far avanzare le loro strategie di intelligenza artificiale. Inoltre, supportiamo i loro sforzi potenziando Amazon Bedrock con nuove entusiasmanti funzionalità, tra cui una scelta ancora maggiore di modelli e funzionalità che semplificano la selezione del modello giusto, la personalizzazione del modello per un caso d'uso specifico e la salvaguardia e la scalabilità delle applicazioni di intelligenza artificiale generativa.

I clienti di diversi settori, dalla finanza ai viaggi, dall’ospitalità alla sanità, alla tecnologia di consumo, stanno facendo notevoli progressi. Stanno realizzando un valore aziendale reale mettendo rapidamente in produzione le applicazioni di intelligenza artificiale generativa per migliorare l’esperienza dei clienti e aumentare l’efficienza operativa. Consideriamo la Borsa di New York (NYSE), il mercato dei capitali più grande del mondo che elabora miliardi di transazioni ogni giorno. Il NYSE sta sfruttando la scelta di FM di Amazon Bedrock e le capacità generative di intelligenza artificiale all'avanguardia in diversi casi d'uso, inclusa l'elaborazione di migliaia di pagine di normative per fornire risposte in un linguaggio di facile comprensione

La compagnia aerea globale United Airlines ha modernizzato il proprio sistema di servizio passeggeri per tradurre i codici di prenotazione passeggeri esistenti in un inglese semplice in modo che gli agenti possano fornire un'assistenza clienti rapida ed efficiente. LexisNexis Legal & Professional, fornitore leader a livello mondiale di informazioni e analisi, ha sviluppato un assistente AI generativo legale personalizzato su Lexis+ AI. I clienti LexisNexis ricevono risultati attendibili due volte più velocemente rispetto al prodotto concorrente più vicino e possono risparmiare fino a cinque ore a settimana per ricerche legali e riepiloghi. E HappyFox, un software di help desk online, ha selezionato Amazon Bedrock per la sua sicurezza e prestazioni, aumentando l'efficienza del suo sistema di ticket automatizzato basato sull'intelligenza artificiale nella sua soluzione di assistenza clienti del 40% e la produttività degli agenti del 30%.

E in Amazon continuiamo a innovare con l’intelligenza artificiale generativa per offrire esperienze più coinvolgenti e coinvolgenti ai nostri clienti. Proprio la scorsa settimana Amazon Music ha annunciato Maestro. Maestro è un generatore di playlist AI basato su Amazon Bedrock che offre agli abbonati di Amazon Music un modo più semplice e divertente per creare playlist basate su istruzioni. Maestro è ora disponibile in versione beta per un numero limitato di clienti statunitensi su tutti i livelli di Amazon Music.

Con Amazon Bedrock, ci concentriamo sulle aree chiave di cui i clienti hanno bisogno per creare applicazioni di intelligenza artificiale generativa di livello aziendale pronte per la produzione al giusto costo e velocità. Oggi sono entusiasta di condividere le nuove funzionalità che stiamo annunciando nelle aree della scelta del modello, degli strumenti per la creazione di applicazioni di intelligenza artificiale generativa, della privacy e della sicurezza.

1. Amazon Bedrock amplia la scelta dei modelli con i modelli Llama 3 e ti aiuta a trovare il modello migliore per le tue esigenze

In questi primi giorni, i clienti stanno ancora imparando e sperimentando diversi modelli per determinare quali utilizzare per vari scopi. Vogliono poter provare facilmente i modelli più recenti e testare quali capacità e caratteristiche forniranno loro i migliori risultati e caratteristiche di costo per i loro casi d'uso. La maggior parte dei clienti di Amazon Bedrock utilizza più di un modello e Amazon Bedrock offre la più ampia selezione di modelli LLM (Large Language Model) di prima e terza parte e altri FM. Ciò include i modelli da Laboratori AI21, Antropico, avere coesione, Meta, Maestrale AIe Stabilità AI, così come il nostro Modelli Amazon Titan. In effetti, Joel Hron, capo dell'intelligenza artificiale e dei Thomson Reuters Labs presso Thomson Reuters ha detto recentemente questo riguardo all'adozione di Amazon Bedrock: "Avere la possibilità di utilizzare una gamma diversificata di modelli non appena vengono lanciati è stato un fattore chiave per noi, soprattutto considerando la rapidità con cui questo spazio si sta evolvendo". I modelli all'avanguardia della famiglia di modelli Mistral AI inclusi Maestrale 7B, Mixtral 8x7Be Mistral Grande stupire i clienti per le loro elevate prestazioni nella generazione di testo, nel riepilogo, nelle domande e risposte e nella generazione di codice. Da quando abbiamo introdotto la famiglia di modelli Anthropic Claude 3, migliaia di clienti hanno sperimentato come Claude 3 Haiku, Sonnet e Opus abbiano stabilito nuovi parametri di riferimento nelle attività cognitive con intelligenza, velocità ed efficienza in termini di costi senza rivali. Dopo la valutazione iniziale utilizzando Claude 3 Haiku e Opus in Amazon Bedrock, BlueOcean.ai, una piattaforma di brand intelligence, ha riscontrato una riduzione dei costi di oltre il 50% quando è riuscita a consolidare quattro chiamate API separate in un'unica chiamata più efficiente.

Masahiro Oba, Direttore generale, Group Federated Governance della piattaforma DX presso Sony Group Corporation, ha condiviso:

“Sebbene le sfide legate all’applicazione dell’intelligenza artificiale generativa al business siano molte, le diverse capacità di Amazon Bedrock ci aiutano a personalizzare le applicazioni di intelligenza artificiale generativa per il business di Sony. Siamo in grado di sfruttare non solo le potenti funzionalità LLM di Claude 3, ma anche funzionalità che ci aiutano a salvaguardare le applicazioni a livello aziendale. Sono davvero orgoglioso di lavorare con il team Bedrock per democratizzare ulteriormente l’intelligenza artificiale generativa all’interno del Gruppo Sony”.

Di recente ho incontrato Aaron Linsky, CTO di Artificial Investment Associate Labs presso Bridgewater Associates, una delle principali società di gestione patrimoniale, dove stanno utilizzando l'intelligenza artificiale generativa per migliorare il loro "Artificial Investment Associate", un grande passo avanti per i loro clienti. Si basa sulla loro esperienza nel fornire consulenza di esperti basata su regole per il processo decisionale sugli investimenti. Con Amazon Bedrock, possono utilizzare i migliori FM disponibili, come Claude 3, per diversi compiti, combinando la comprensione fondamentale del mercato con le capacità di ragionamento flessibili dell'intelligenza artificiale. Amazon Bedrock consente una sperimentazione continua dei modelli, consentendo a Bridgewater di creare un sistema di investimento potente e auto-migliorante che unisce consulenza sistematica a capacità all'avanguardia, creando un processo in evoluzione, incentrato sull'intelligenza artificiale.

Per offrire ai clienti una scelta di modelli ancora maggiore, oggi stiamo facendo Meta Llama 3 modelli disponibili su Amazon Bedrock. I modelli Llama 3 3B e Llama 8 3B di Llama 70 sono progettati per creare, sperimentare e scalare in modo responsabile applicazioni di intelligenza artificiale generativa. Questi modelli sono stati significativamente migliorati rispetto all'architettura del modello precedente, incluso il potenziamento della preformazione e gli approcci di perfezionamento delle istruzioni. Llama 3 8B eccelle nel riepilogo, nella classificazione, nell'analisi dei sentimenti e nella traduzione del testo, ideale per risorse limitate e dispositivi edge. Llama 3 70B eccelle nella creazione di contenuti, intelligenza artificiale conversazionale, comprensione del linguaggio, ricerca e sviluppo, imprese, riepilogo accurato, classificazione sfumata/analisi del sentiment, modellazione del linguaggio, sistemi di dialogo, generazione di codice e seguito delle istruzioni. Leggi di più su Meta Llama 3 ora disponibile su Amazon Bedrock.

Annunciamo inoltre il supporto in arrivo per i FM aziendali Command R e Command R+ di Cohere. Questi modelli sono altamente scalabili e ottimizzati per attività a lungo contesto come il retrieval-augmented generation (RAG) con citazioni per mitigare le allucinazioni, l'uso di strumenti in più fasi per automatizzare attività aziendali complesse e il supporto di 10 lingue per operazioni globali. Command R+ è il modello più potente di Cohere ottimizzato per attività a lungo contesto, mentre Command R è ottimizzato per carichi di lavoro di produzione su larga scala. Con i modelli Cohere in arrivo su Amazon Bedrock, le aziende possono creare applicazioni di intelligenza artificiale generativa di livello aziendale che bilanciano elevata precisione ed efficienza per le operazioni di intelligenza artificiale quotidiane oltre la prova di concetto.

Amazon Titan Image Generator è ora disponibile a livello generale e Amazon Titan Text Embeddings V2 sarà presto disponibile

Oltre ad aggiungere i modelli 3P più capaci, Amazon Titan Image Generator è oggi generalmente disponibile. Con Amazon Titan Image Generator, i clienti di settori quali pubblicità, e-commerce, media e intrattenimento possono generare in modo efficiente immagini realistiche di qualità professionale in grandi volumi e a basso costo, utilizzando istruzioni in linguaggio naturale. Possono modificare le immagini generate o esistenti utilizzando istruzioni di testo, configurare le dimensioni dell'immagine o specificare il numero di variazioni dell'immagine per guidare il modello. Per impostazione predefinita, ogni immagine prodotta da Amazon Titan Image Generator contiene una filigrana invisibile, in linea con l'impegno di AWS nel promuovere un'intelligenza artificiale responsabile ed etica riducendo la diffusione della disinformazione. La funzione Watermark Detection identifica le immagini create da Image Generator ed è progettata per essere a prova di manomissione, contribuendo ad aumentare la trasparenza dei contenuti generati dall'intelligenza artificiale. Il rilevamento delle filigrane aiuta a mitigare i rischi legati alla proprietà intellettuale e consente a creatori di contenuti, testate giornalistiche, analisti del rischio, team di rilevamento delle frodi e altri di identificare e mitigare meglio la diffusione di contenuti fuorvianti generati dall'intelligenza artificiale. Leggi di più su Rilevamento filigrana per Titan Image Generator.

Presto disponibile, Amazon Titan Text Embeddings V2 fornisce in modo efficiente risposte più pertinenti per casi d'uso aziendali critici come la ricerca. Modelli di incorporamento efficienti sono fondamentali per le prestazioni quando si sfrutta RAG per arricchire le risposte con informazioni aggiuntive. Embeddings V2 è ottimizzato per i flussi di lavoro RAG e fornisce un'integrazione perfetta con Basi di conoscenza per Amazon Bedrock per fornire risposte più informative e pertinenti in modo efficiente. Gli incorporamenti V2 consentono una comprensione più approfondita delle relazioni tra i dati per attività complesse come il recupero, la classificazione, la ricerca di similarità semantica e il miglioramento della pertinenza della ricerca. Offrendo dimensioni di incorporamento flessibili di 256, 512 e 1024 dimensioni, Embeddings V2 dà priorità alla riduzione dei costi mantenendo il 97% della precisione per i casi d'uso RAG, surclassando altri modelli leader. Inoltre, le dimensioni di incorporamento flessibili soddisfano le diverse esigenze applicative, dalle distribuzioni mobili a bassa latenza ai flussi di lavoro asincroni ad alta precisione.

La nuova valutazione del modello semplifica il processo di accesso, confronto e selezione di LLM e FM

La scelta del modello appropriato è un primo passo fondamentale verso la creazione di qualsiasi applicazione di intelligenza artificiale generativa. Gli LLM possono variare drasticamente in termini di prestazioni in base all'attività, al dominio, alle modalità dei dati e ad altri fattori. Ad esempio, è probabile che un modello biomedico superi i modelli sanitari generali in contesti medici specifici, mentre un modello di codifica potrebbe dover affrontare sfide con compiti di elaborazione del linguaggio naturale. L’utilizzo di un modello eccessivamente potente potrebbe portare a un utilizzo inefficiente delle risorse, mentre un modello sottodimensionato potrebbe non riuscire a soddisfare gli standard minimi di prestazione, fornendo potenzialmente risultati errati. E selezionare un FM inadatto all’inizio di un progetto potrebbe minare la fiducia e la fiducia delle parti interessate.

Con così tanti modelli tra cui scegliere, vogliamo rendere più semplice per i clienti scegliere quello giusto per il loro caso d'uso.

Lo strumento di valutazione dei modelli di Amazon Bedrock, ora disponibile a livello generale, semplifica il processo di selezione consentendo il benchmarking e il confronto con set di dati e parametri di valutazione specifici, garantendo agli sviluppatori la selezione del modello che meglio si allinea con gli obiettivi del progetto. Questa esperienza guidata consente agli sviluppatori di valutare i modelli in base a criteri adattati a ciascun caso d'uso. Attraverso la valutazione del modello, gli sviluppatori selezionano i modelli candidati da valutare: opzioni pubbliche, modelli personalizzati importati o versioni ottimizzate. Definiscono attività di test, set di dati e parametri di valutazione rilevanti, come accuratezza, latenza, proiezioni dei costi e fattori qualitativi. Leggi di più su Valutazione del modello in Amazon Bedrock.

La possibilità di scegliere tra i FM con le migliori prestazioni in Amazon Bedrock è stata estremamente vantaggiosa per Elastic Security. James Spiteri, Direttore della gestione del prodotto presso Elastic, ha condiviso:

“Con pochi clic possiamo valutare un singolo suggerimento su più modelli contemporaneamente. Questa funzionalità di valutazione del modello ci consente di confrontare i risultati, i parametri e i costi associati tra diversi modelli, permettendoci di prendere una decisione informata su quale modello sarebbe più adatto per ciò che stiamo cercando di realizzare. Ciò ha semplificato notevolmente il nostro processo, facendoci risparmiare una notevole quantità di tempo nella distribuzione delle nostre applicazioni in produzione”.

2. Amazon Bedrock offre funzionalità per personalizzare l'intelligenza artificiale generativa in base alle esigenze aziendali

Sebbene i modelli siano incredibilmente importanti, ci vuole più di un modello per creare un'applicazione utile per un'organizzazione. Ecco perché Amazon Bedrock dispone delle funzionalità per aiutarti a personalizzare facilmente le soluzioni di intelligenza artificiale generativa per casi d'uso specifici. I clienti possono utilizzare i propri dati per personalizzare privatamente le applicazioni attraverso la messa a punto o utilizzando le basi di conoscenza per un'esperienza RAG completamente gestita per fornire risposte più pertinenti, accurate e personalizzate. Gli agenti per Amazon Bedrock consentono agli sviluppatori di definire attività, flussi di lavoro o processi decisionali specifici, migliorando il controllo e l'automazione e garantendo al tempo stesso un allineamento coerente con il caso d'uso previsto. A partire da oggi, ora puoi utilizzare gli Agenti con i modelli Anthropic Claude 3 Haiku e Sonnet. Stiamo inoltre introducendo un'esperienza aggiornata della console AWS, che supporta uno schema semplificato e il ritorno del controllo per facilitare l'avvio degli sviluppatori. Leggi di più su Agenti per Amazon Bedrock, ora più veloci e più facili da usare.

Con la nuova importazione di modelli personalizzati, i clienti possono sfruttare tutte le funzionalità di Amazon Bedrock con i propri modelli

Tutte queste funzionalità sono essenziali per creare applicazioni di intelligenza artificiale generativa, motivo per cui abbiamo voluto renderle disponibili a un numero ancora maggiore di clienti, compresi quelli che hanno già investito risorse significative nella messa a punto di LLM con i propri dati su diversi servizi o nella formazione di modelli personalizzati da graffio. Molti clienti hanno modelli personalizzati disponibili su Amazon SageMaker, che offre la più ampia gamma di oltre 250 FM pre-addestrati. Questi FM includono modelli all'avanguardia come Mistral, Llama2, CodeLlama, Jurassic-2, Jamba, pplx-7B, 70B e l'impressionante Falcon 180B. Amazon SageMaker aiuta a organizzare e ottimizzare i dati, a creare un'infrastruttura di formazione scalabile ed efficiente e a distribuire modelli su larga scala in modo economicamente vantaggioso e a bassa latenza. Ha rappresentato un punto di svolta per gli sviluppatori nella preparazione dei dati per l'intelligenza artificiale, nella gestione degli esperimenti, nel training dei modelli più velocemente (ad esempio, Perplexity AI addestra i modelli il 40% più velocemente in Amazon SageMaker), nella riduzione della latenza di inferenza (ad esempio, Workday ha ridotto la latenza di inferenza dell'80% con Amazon SageMaker) e migliorando la produttività degli sviluppatori (ad esempio, NatWest ha ridotto il time-to-value per l'intelligenza artificiale da 12-18 mesi a meno di sette mesi utilizzando Amazon SageMaker). Tuttavia, rendere operativi questi modelli personalizzati in modo sicuro e integrarli in applicazioni per casi d’uso aziendali specifici presenta ancora delle sfide.

Ecco perché oggi vi presentiamo Importazione di modelli personalizzati Amazon Bedrock, che consente alle organizzazioni di sfruttare gli investimenti esistenti nell'intelligenza artificiale insieme alle capacità di Amazon Bedrock. Con Custom Model Import, i clienti possono ora importare e accedere ai propri modelli personalizzati basati su popolari architetture di modelli aperti tra cui Flan-T5, Llama e Mistral, come un'interfaccia di programmazione delle applicazioni (API) completamente gestita in Amazon Bedrock. I clienti possono prendere i modelli che hanno personalizzato su Amazon SageMaker o altri strumenti e aggiungerli facilmente ad Amazon Bedrock. Dopo una convalida automatizzata, possono accedere senza problemi al proprio modello personalizzato, come con qualsiasi altro modello in Amazon Bedrock. Ottengono tutti gli stessi vantaggi, tra cui scalabilità perfetta e potenti funzionalità per salvaguardare le loro applicazioni, adesione ai principi di intelligenza artificiale responsabile, nonché la capacità di espandere la base di conoscenza di un modello con RAG, creare facilmente agenti per completare attività in più fasi e trasportare la messa a punto per continuare a insegnare e perfezionare i modelli. Il tutto senza la necessità di gestire l'infrastruttura sottostante.

Con questa nuova funzionalità, stiamo rendendo semplice per le organizzazioni scegliere una combinazione di modelli Amazon Bedrock e i propri modelli personalizzati mantenendo la stessa esperienza di sviluppo semplificata. Oggi, Amazon Bedrock Custom Model Import è disponibile in anteprima e supporta tre delle architetture di modelli aperti più popolari e con piani per aggiungerne altre in futuro. Leggi di più su Importazione di modelli personalizzati per Amazon Bedrock.

ASAPP è un'azienda di intelligenza artificiale generativa con una storia decennale nella creazione di modelli ML.

“Il nostro agente vocale e chat con intelligenza artificiale generativa conversazionale sfrutta questi modelli per ridefinire l’esperienza del servizio clienti. Per offrire ai nostri clienti un'automazione end-to-end, abbiamo bisogno di agenti LLM, knowledge base e flessibilità nella selezione dei modelli. Con l'importazione di modelli personalizzati, saremo in grado di utilizzare i nostri modelli personalizzati esistenti in Amazon Bedrock. Bedrock ci consentirà di integrare i nostri clienti più rapidamente, di aumentare il nostro ritmo di innovazione e di accelerare il time-to-market per le nuove funzionalità dei prodotti”.

– Priya Vijayarajendran, Presidente, Tecnologia.

3. Amazon Bedrock fornisce una base sicura e responsabile per implementare facilmente le misure di salvaguardia

Man mano che le capacità dell’IA generativa progrediscono e si espandono, creare fiducia e affrontare le preoccupazioni etiche diventa ancora più importante. Amazon Bedrock affronta queste preoccupazioni sfruttando l'infrastruttura sicura e affidabile di AWS con misure di sicurezza leader del settore, solida crittografia dei dati e severi controlli di accesso.

Guardrails per Amazon Bedrock, ora disponibile a livello generale, aiuta i clienti a prevenire contenuti dannosi e a gestire le informazioni sensibili all'interno di un'applicazione.

Offriamo anche Guardrail per Amazon Bedrock, che ora è generalmente disponibile. Guardrails offre una protezione di sicurezza leader del settore, offrendo ai clienti la possibilità di definire policy sui contenuti, stabilire limiti di comportamento delle applicazioni e implementare misure di salvaguardia contro potenziali rischi. Guardrails per Amazon Bedrock è l'unica soluzione offerta da un importante fornitore di servizi cloud che consente ai clienti di creare e personalizzare protezioni di sicurezza e privacy per le loro applicazioni di intelligenza artificiale generativa in un'unica soluzione. Aiuta i clienti a bloccare fino all'85% in più di contenuti dannosi rispetto alla protezione fornita nativamente dai FM su Amazon Bedrock. Guardrails fornisce un supporto completo per il filtraggio dei contenuti dannosi e solide funzionalità di rilevamento delle informazioni di identificazione personale (PII). Guardrails funziona con tutti i LLM in Amazon Bedrock e con i modelli ottimizzati, garantendo coerenza nel modo in cui i modelli rispondono a contenuti indesiderati e dannosi. Puoi configurare soglie per filtrare i contenuti in sei categorie: odio, insulti, sessualità, violenza, cattiva condotta (inclusa attività criminale) e attacco immediato (jailbreak e pronta iniezione). Puoi anche definire una serie di argomenti o parole che devono essere bloccati nella tua applicazione di intelligenza artificiale generativa, comprese parole dannose, linguaggio volgare, nomi di concorrenti e prodotti. Ad esempio, un'applicazione bancaria può configurare un guardrail per rilevare e bloccare argomenti relativi alla consulenza sugli investimenti. Un'applicazione di contact center che riepiloga le trascrizioni del call center può utilizzare la redazione delle PII per rimuovere le PII nei riepiloghi delle chiamate oppure un chatbot conversazionale può utilizzare i filtri dei contenuti per bloccare contenuti dannosi. Leggi di più su Guardrail per Amazon Bedrock.

Aziende come Aha!, una società di software che aiuta più di 1 milione di persone a dare vita alla propria strategia di prodotto, utilizza Amazon Bedrock per potenziare molte delle proprie capacità di intelligenza artificiale generativa.

“Abbiamo il pieno controllo sulle nostre informazioni attraverso le politiche sulla privacy e sulla protezione dei dati di Amazon Bedrock e possiamo bloccare i contenuti dannosi attraverso Guardrails per Amazon Bedrock. Ci siamo basati su di esso per aiutare i product manager a scoprire approfondimenti analizzando il feedback inviato dai loro clienti. Questo è solo l'inizio. Continueremo a basarci sulla tecnologia AWS avanzata per aiutare i team di sviluppo prodotto di tutto il mondo a stabilire con sicurezza la priorità su cosa costruire successivamente."

Con una scelta ancora più ampia di FM leader e funzionalità che ti aiutano a valutare modelli e salvaguardare le applicazioni, nonché a sfruttare gli investimenti precedenti nell'intelligenza artificiale insieme alle funzionalità di Amazon Bedrock, i lanci di oggi rendono ancora più semplice e veloce per i clienti creare e scalare l'intelligenza artificiale generativa applicazioni. Questo post del blog evidenzia solo un sottoinsieme delle nuove funzionalità. Puoi saperne di più su tutto ciò che abbiamo lanciato nelle risorse di questo post, incluso porre domande e riassumere i dati da un singolo documento senza impostare un database vettoriale nelle basi di conoscenza e nel disponibilità generale del supporto per più origini dati con basi di conoscenza.

I primi ad adottare le capacità di Amazon Bedrock stanno ottenendo un vantaggio cruciale, favorendo incrementi di produttività, alimentando scoperte rivoluzionarie in tutti i domini e offrendo ai clienti esperienze migliorate che promuovono lealtà e coinvolgimento. Sono entusiasta di vedere cosa faranno i nostri clienti con queste nuove funzionalità.

Come dice sempre il mio mentore Werner Vogels “Now Go Build” e io aggiungo “…con Amazon Bedrock!”

Risorse

Consulta le seguenti risorse per saperne di più su questo annuncio:


Circa l'autore

Swami Shivasubramanian è vicepresidente dei dati e dell'apprendimento automatico presso AWS. In questo ruolo, Swami supervisiona tutti i servizi AWS Database, Analytics e AI e Machine Learning. La missione del suo team è aiutare le organizzazioni a far funzionare i propri dati con una soluzione di dati end-to-end completa per archiviare, accedere, analizzare, visualizzare e prevedere.

spot_img

L'ultima intelligenza

spot_img

Parla con noi

Ciao! Come posso aiutarla?