Platon Data Intelligence.
Pystyhaku ja Ai.

Kuinka Booking.com uudisti ML-kokeilukehyksensä Amazon SageMakerin avulla Amazon Web Services

Treffi:

Tämä viesti on kirjoitettu yhdessä Booking.comin Kostia Kofmanin ja Jenny Tokarin kanssa.

Verkkomatkailualan globaalina johtajana Booking.com etsii jatkuvasti innovatiivisia tapoja parantaa palvelujaan ja tarjota asiakkaille räätälöityjä ja saumattomia kokemuksia. Booking.comin Ranking-tiimillä on keskeinen rooli sen varmistamisessa, että haku- ja suositusalgoritmit on optimoitu tarjoamaan käyttäjilleen parhaat tulokset.

Jakaessaan talon sisäisiä resursseja muiden sisäisten tiimien kanssa Ranking-tiimin koneoppimisen (ML) tutkijat kohtasivat usein pitkiä odotusaikoja saadakseen käyttöön resursseja mallikoulutukseen ja kokeiluihin. Tämä haastaa heidän kykynsä kokeilla ja innovoida nopeasti. Ranking-tiimi ymmärsi modernisoidun ML-infrastruktuurin tarpeen ja lähti matkalle hyödyntääkseen Amazon Sage Maker rakentaa, kouluttaa ja ottaa käyttöön ML-malleja mittakaavassa.

Booking.com teki yhteistyötä AWS-asiantuntijapalvelut rakentaa ratkaisu, joka nopeuttaa parannettujen ML-mallien markkinoille tuloa seuraavilla parannuksilla:

  • Lyhennetyt odotusajat resurssien koulutukseen ja kokeiluihin
  • Olennaisten ML-ominaisuuksien integrointi, kuten hyperparametrien viritys
  • Supistettu kehityssykli ML-malleille

Lyhennetyt odotusajat tarkoittaisivat, että tiimi voisi nopeasti iteroida ja kokeilla malleja ja saada oivalluksia paljon nopeammin. SageMakerin on-demand-instanssien käyttö mahdollisti kymmenkertaisen odotusajan lyhenemisen. Välttämättömät ML-ominaisuudet, kuten hyperparametrien viritys ja mallin selitettävyys, puuttuivat tiloissa. Tiimin modernisointimatka esitteli nämä ominaisuudet Amazon SageMaker automaattinen mallin viritys ja Amazon SageMaker selkeyttää. Lopuksi tiimin pyrkimys oli saada välitöntä palautetta jokaisesta koodiin tehdystä muutoksesta, mikä lyhentää palautesilmukkaa minuuteista hetkeksi ja siten lyhentää ML-mallien kehityssykliä.

Tässä viestissä perehdymme Booking.comin Ranking-tiimin matkaan, kun he valjastivat SageMakerin kykyjä modernisoidakseen ML-kokeilukehyksensä. Näin tehdessään he eivät vain voittaneet nykyisiä haasteitaan, vaan myös parantaneet hakukokemustaan, mikä hyödytti viime kädessä miljoonia matkailijoita maailmanlaajuisesti.

Lähestymistapa modernisointiin

Ranking-tiimi koostuu useista ML-tieteilijöistä, joista jokaisen on kehitettävä ja testattava oma mallinsa offline-tilassa. Kun malli katsotaan onnistuneeksi offline-arvioinnin mukaan, se voidaan siirtää tuotanto A/B-testaukseen. Jos se osoittaa parannusta verkossa, se voidaan ottaa käyttöön kaikille käyttäjille.

Tämän projektin tavoitteena oli luoda käyttäjäystävällinen ympäristö ML-tutkijoille helposti muokattavissa Amazon SageMaker mallinrakennusputkistot testata hypoteesejaan ilman tarvetta koodata pitkiä ja monimutkaisia ​​moduuleja.

Yksi useista kohtaamista haasteista oli olemassa olevan paikallisen putkilinjaratkaisun mukauttaminen käytettäväksi AWS:ssä. Ratkaisu sisälsi kaksi avainosaa:

  • Olemassa olevan koodin muokkaaminen ja laajentaminen – Ratkaisumme ensimmäinen osa sisälsi olemassa olevan koodimme muokkaamisen ja laajentamisen, jotta se olisi yhteensopiva AWS-infrastruktuurin kanssa. Tämä oli ratkaisevan tärkeää varmistettaessa sujuva siirtyminen paikan päällä tapahtuvasta pilvipohjaiseen käsittelyyn.
  • Asiakaspakettien kehittäminen – Kehitettiin asiakaspaketti, joka toimii kääreenä SageMaker API:iden ja aiemmin olemassa olevan koodin ympärille. Tämä paketti yhdistää nämä kaksi, jolloin ML-tutkijat voivat helposti määrittää ja ottaa käyttöön ML-putkistoja ilman koodausta.

SageMaker-putkilinjan kokoonpano

Muokattavuus on avain mallinrakennusprosessissa, ja se saavutettiin config.ini, laaja asetustiedosto. Tämä tiedosto toimii ohjauskeskuksena kaikille putkilinjan syötteille ja käytöksille.

Sisällä saatavilla olevat kokoonpanot config.ini sisältää:

  • Putkilinjan tiedot – Ammatinharjoittaja voi määrittää liukuhihnan nimen, määrittää, mitkä vaiheet tulee suorittaa, määrittää, mihin tulosteet tulee tallentaa Amazonin yksinkertainen tallennuspalvelu (Amazon S3) ja valitse käytettävät tietojoukot
  • AWS-tilin tiedot – Voit päättää, millä alueella putkilinjan tulee kulkea ja mitä roolia käytetään
  • Vaihekohtainen kokoonpano – Voit määrittää kullekin liukuhihnan vaiheelle yksityiskohdat, kuten käytettävien esiintymien lukumäärän ja tyypin, sekä asiaankuuluvat parametrit

Seuraava koodi näyttää esimerkkimääritystiedoston:

[BUILD]
pipeline_name = ranking-pipeline
steps = DATA_TRANFORM, TRAIN, PREDICT, EVALUATE, EXPLAIN, REGISTER, UPLOAD
train_data_s3_path = s3://...
...
[AWS_ACCOUNT]
region = eu-central-1
...
[DATA_TRANSFORM_PARAMS]
input_data_s3_path = s3://...
compression_type = GZIP
....
[TRAIN_PARAMS]
instance_count = 3
instance_type = ml.g5.4xlarge
epochs = 1
enable_sagemaker_debugger = True
...
[PREDICT_PARAMS]
instance_count = 3
instance_type = ml.g5.4xlarge
...
[EVALUATE_PARAMS]
instance_type = ml.m5.8xlarge
batch_size = 2048
...
[EXPLAIN_PARAMS]
check_job_instance_type = ml.c5.xlarge
generate_baseline_with_clarify = False
....

config.ini on Gitin hallinnoima versioohjattu tiedosto, joka edustaa onnistuneen harjoitusputkiston suorittamiseen vaadittavaa vähimmäiskokoonpanoa. Kehityksen aikana voidaan käyttää paikallisia konfiguraatiotiedostoja, jotka eivät ole versioohjattuja. Näiden paikallisten määritystiedostojen tarvitsee sisältää vain tiettyä ajoa koskevia asetuksia, mikä tuo joustavuutta ilman monimutkaisuutta. Liukuhihnan luontiasiakasohjelma on suunniteltu käsittelemään useita määritystiedostoja, joista viimeisin on edellisten asetusten edelle.

SageMaker-putkilinjan vaiheet

Putkilinja on jaettu seuraaviin vaiheisiin:

  • Koulutus- ja testitietojen valmistelu – Teratavuja raakadataa kopioidaan S3-ämpäriin ja käsitellään käyttäen AWS-liima työpaikkoja Spark-käsittelyä varten, jolloin tiedot on jäsennelty ja muotoiltu yhteensopivuutta varten.
  • Juna – Koulutusvaiheessa käytetään TensorFlow-estimaattoria SageMaker-harjoitustöissä. Harjoittelu tapahtuu hajautetusti Horovodin avulla, ja tuloksena oleva malliartefaktti tallennetaan Amazon S3:een. Hyperparametrien viritystä varten voidaan käynnistää hyperparametrien optimointityö (HPO) ja valitaan paras malli tavoitemetriikan perusteella.
  • Ennustaa – Tässä vaiheessa SageMaker Processing -työ käyttää tallennettua malliartefaktia ennusteiden tekemiseen. Tämä prosessi toimii rinnakkain saatavilla olevilla koneilla, ja ennustetulokset tallennetaan Amazon S3:een.
  • Arvioida – PySpark-käsittelytyö arvioi mallin mukautetun Spark-komentosarjan avulla. Arviointiraportti tallennetaan sitten Amazon S3:een.
  • Kunto – Arvioinnin jälkeen tehdään päätös mallin laadusta. Tämä päätös perustuu määritystiedostossa määritettyyn ehtometriikkaan. Jos arvio on myönteinen, malli rekisteröidään hyväksytyksi; muussa tapauksessa se on rekisteröity hylätyksi. Molemmissa tapauksissa arviointi- ja selitettävyysraportti, jos se on luotu, kirjataan mallirekisteriin.
  • Pakettimalli päättelyä varten – Prosessointityötä käyttämällä malli pakataan, tallennetaan Amazon S3:een ja valmistetaan ladattavaksi sisäiseen ML-portaaliin, jos arviointitulokset ovat positiivisia.
  • Selittää – SageMaker Clarify luo selitettävyysraportin.

Käytössä on kaksi erillistä tietovarastoa. Ensimmäinen arkisto sisältää ML-liukuhihnan määritelmän ja koontikoodin, ja toinen arkisto sisältää koodin, joka suoritetaan kussakin vaiheessa, kuten käsittelyssä, harjoittelussa, ennustamisessa ja arvioinnissa. Tämä kahden arkiston lähestymistapa mahdollistaa suuremman modulaarisuuden ja mahdollistaa tiede- ja insinööritiimien iteroinnin itsenäisesti ML-koodin ja ML-putkien komponenttien suhteen.

Seuraava kaavio kuvaa ratkaisun työnkulkua.

Automaattinen mallin viritys

ML-mallien kouluttaminen edellyttää useiden koulutuskokeiden iteratiivista lähestymistapaa, jotta voidaan rakentaa vankka ja suorituskykyinen lopullinen malli yrityskäyttöön. ML-tieteilijöiden on valittava sopiva mallityyppi, rakennettava oikeat syöttötietojoukot ja säädettävä mallin oppimisprosessia ohjaavien hyperparametrien joukko koulutuksen aikana.

Hyperparametrien sopivien arvojen valinta mallin koulutusprosessiin voi merkittävästi vaikuttaa mallin lopulliseen suorituskykyyn. Ei kuitenkaan ole olemassa ainutlaatuista tai määriteltyä tapaa määrittää, mitkä arvot sopivat tiettyyn käyttötapaukseen. Suurimman osan ajasta ML-tieteilijöiden on suoritettava useita koulutustöitä hieman erilaisilla hyperparametrijoukoilla, tarkkailtava mallin koulutusmittareita ja yritettävä sitten valita lupaavampia arvoja seuraavaa iteraatiota varten. Tämä mallin suorituskyvyn viritysprosessi tunnetaan myös hyperparametrien optimoinnina (HPO), ja se voi toisinaan vaatia satoja kokeita.

Ranking-tiimi suoritti HPO:ta manuaalisesti omissa tiloissaan, koska he pystyivät käynnistämään vain hyvin rajoitetun määrän koulutustöitä rinnakkain. Siksi heidän oli suoritettava HPO peräkkäin, testattava ja valittava erilaisia ​​hyperparametriarvojen yhdistelmiä manuaalisesti ja seurattava säännöllisesti edistymistä. Tämä pidensi mallin kehitys- ja viritysprosessia ja rajoitti HPO-kokeiden kokonaismäärää, jotka voitaisiin suorittaa toteutettavissa olevassa ajassa.

AWS:ään siirtymisen myötä Ranking-tiimi pystyi käyttämään SageMakerin automaattista mallin viritystä (AMT). AMT:n avulla Ranking ML:n tutkijat voivat käynnistää automaattisesti satoja koulutustöitä kiinnostavien hyperparametrien sisällä löytääkseen lopullisen mallin parhaiten toimivan version valitun mittarin mukaan. Ranking-tiimi voi nyt valita neljästä erilaisesta automaattisesta viritysstrategiasta hyperparametrien valintaan:

  • Verkkohaku – AMT odottaa kaikkien hyperparametrien olevan kategorisia arvoja, ja se käynnistää koulutustöitä jokaiselle erilliselle kategoriselle yhdistelmälle tutkien koko hyperparametriavaruuden.
  • Satunnainen haku – AMT valitsee satunnaisesti hyperparametriarvojen yhdistelmät annetuilta alueilta. Koska eri koulutustöiden ja parametriarvojen valinnan välillä ei ole riippuvuutta, tällä menetelmällä voidaan käynnistää useita rinnakkaisia ​​koulutustöitä, mikä nopeuttaa optimaalisen parametrin valintaprosessia.
  • Bayesin optimointi – AMT käyttää Bayesin optimointitoteutusta parhaan hyperparametriarvojoukon arvaamiseen ja käsittelee sitä regressioongelmana. Se ottaa huomioon aiemmin testattuja hyperparametriyhdistelmiä ja niiden vaikutusta mallikoulutustöihin uudella parametrivalinnalla optimoiden älykkäämpää parametrien valintaa vähemmällä kokeella, mutta se myös käynnistää koulutustöitä vain peräkkäin, jotta aiemmista koulutuksista voi aina oppia.
  • Hyperband – AMT käyttää suorittamiensa koulutustöiden väli- ja lopputuloksia jakaakseen dynaamisesti resursseja koulutustöihin hyperparametrikonfiguraatioilla, jotka näyttävät lupaavampia tuloksia ja pysäyttävät automaattisesti huonommin suoritetut.

SageMakerin AMT auttoi Ranking-tiimin lyhentämään hyperparametrien viritysprosessiin käytettyä aikaa mallin kehittämistä varten antamalla heille mahdollisuuden suorittaa ensimmäistä kertaa useita rinnakkaisia ​​kokeita, käyttää automaattisia viritysstrategioita ja suorittaa kaksinumeroisia harjoitusajoja muutamassa päivässä. jotain, mikä ei ollut mahdollista paikan päällä.

Mallin selitettävyys SageMaker Clarifyn avulla

Mallin selitettävyyden ansiosta ML-harjoittajat voivat ymmärtää ML-malliensa luonteen ja käyttäytymisen tarjoamalla arvokkaita oivalluksia ominaisuussuunnitteluun ja valintapäätöksiin, mikä puolestaan ​​parantaa mallien ennusteiden laatua. Ranking-tiimi halusi arvioida selitettävyyttään kahdella tavalla: ymmärtää, kuinka ominaisuuksien syötteet vaikuttavat mallin tuotoksiin koko tietojoukossa (maailmanlaajuinen tulkittavuus), ja pystyä myös löytämään syöteominaisuuksien vaikutus tietyn mallin ennusteeseen kiinnostavassa datapisteessä ( paikallinen tulkinta). Näiden tietojen avulla Ranking ML -tutkijat voivat tehdä tietoisia päätöksiä mallin suorituskyvyn edelleen parantamisesta ja ottaa huomioon mallin ajoittain tarjoamat haastavat ennustetulokset.

SageMaker Clarify antaa sinun luoda mallin selitettävyysraportteja käyttämällä Shapleyn lisäaineselityksiä (SHAP), kun koulutat mallejasi SageMakerilla, mikä tukee sekä globaalia että paikallista mallien tulkintaa. Mallin selitettävyysraporttien lisäksi SageMaker Clarify tukee harjoitusta edeltävien bias-mittareiden, harjoituksen jälkeisten bias-mittareiden ja osittaisten riippuvuuskäyrien analyysien suorittamista. Työ suoritetaan SageMaker Processing -työnä AWS-tilillä ja se integroituu suoraan SageMaker-putkilinjoihin.

Globaali tulkintaraportti luodaan automaattisesti työn tulostuksessa ja näytetään Amazon SageMaker Studio ympäristö osana koulutuskokeilua. Jos tämä malli rekisteröidään SageMaker-mallirekisteriin, raportti linkitetään lisäksi malliartefakttiin. Molempia vaihtoehtoja käyttämällä Ranking-tiimi pystyi helposti jäljittämään eri malliversioita ja niiden käyttäytymismuutoksia.

Ranking-tiimi otti parametrin käyttöön tutkiakseen syöteominaisuuksien vaikutusta yhteen ennusteeseen (paikalliset tulkinnallisuusarvot). save_local_shap_values SageMaker Clarify -töissä ja pystyi lataamaan ne S3-alustasta lisäanalyysejä varten SageMaker Studion Jupyter-muistikirjoihin.

Edelliset kuvat näyttävät esimerkin siitä, miltä mallin selitettävyys näyttäisi mielivaltaisessa ML-mallissa.

Harjoittelun optimointi

Syväoppimisen (DL) nousu on johtanut siihen, että ML on tullut yhä riippuvaisemmaksi laskentatehosta ja valtavista tietomääristä. ML-harjoittajat kohtaavat yleensä resurssien tehokkaan käytön esteen kouluttaessaan näitä monimutkaisia ​​malleja. Kun suoritat koulutusta suurilla laskentaklustereilla, resurssien käytön optimoinnissa syntyy erilaisia ​​haasteita, kuten I/O-pullonkaulat, ytimen käynnistysviiveet, muistirajoitukset ja vajaakäyttöiset resurssit. Jos harjoitustyön kokoonpanoa ei ole hienosäädetty tehokkuuden saavuttamiseksi, nämä esteet voivat johtaa laitteiston epäoptimaaliseen käyttöön, pitkittyneeseen harjoittelun kestoon tai jopa keskeneräisiin harjoitusajoihin. Nämä tekijät lisäävät projektin kustannuksia ja viivästävät aikatauluja.

Prosessorin ja grafiikkasuorittimen käytön profilointi auttaa ymmärtämään näitä tehottomuuksia, määrittämään mallin eri TensorFlow-toimintojen laitteistoresurssien kulutuksen (aika ja muisti), ratkaisemaan suorituskyvyn pullonkaulat ja lopulta saamaan mallin toimimaan nopeammin.

Ranking-tiimi käytti kehyksen profilointiominaisuutta Amazon SageMaker -korjaamo (nyt poistettu käytöstä Amazon SageMaker Profiler) näiden koulutustehtävien optimoimiseksi. Tämän avulla voit seurata kaikkia suorittimen ja grafiikkasuorittimen toimintaa, kuten suorittimen ja grafiikkasuorittimen käyttöä, ytimen ajoa GPU:illa, ytimen käynnistystä suorittimissa, synkronointitoimintoja, muistitoimintoja GPU:iden välillä, ytimen käynnistysten ja vastaavien ajojen välisiä viiveitä sekä tiedonsiirtoa suorittimien välillä. ja GPU:t.

Ranking joukkue käytti myös TensorFlow Profiler ominaisuus Tensorboard, joka auttoi edelleen profiloimaan TensorFlow-mallikoulutusta. SageMaker on nyt integroitu edelleen TensorBoardiin ja tuo TensorBoardin visualisointityökalut SageMakeriin integroituna SageMaker-koulutukseen ja -alueisiin. TensorBoardin avulla voit suorittaa mallien virheenkorjaustehtäviä käyttämällä TensorBoardin visualisointilaajennuksia.

Näiden kahden työkalun avulla Ranking-tiimi optimoi TensorFlow-mallinsa ja pystyi tunnistamaan pullonkaulat ja lyhentämään keskimääräistä harjoitusvaiheen aikaa 350 millisekunnista 140 millisekuntiin CPU:ssa ja 170 millisekunnista 70 millisekuntiin grafiikkasuorittimessa, nopeudet 60 %. ja 59 prosenttia.

Liiketoiminnan tulokset

Siirtymispyrkimykset keskittyivät saatavuuden, skaalautuvuuden ja joustavuuden parantamiseen, mikä yhdessä toi ML-ympäristön uudelle tasolle toiminnallisessa huippuosaamisessa, esimerkkinä lisääntynyt mallin koulutustiheys ja vähentyneet epäonnistumiset, optimoidut harjoitusajat ja kehittyneet ML-ominaisuudet.

Mallin koulutustiheys ja epäonnistumiset

Kuukausittaisten mallikoulutusten määrä viisinkertaistui, mikä johti huomattavasti useampaan mallien optimointiin. Lisäksi uusi ML-ympäristö johti putken ajojen epäonnistumisasteen pienenemiseen noin 50 prosentista 20 prosenttiin. Epäonnistuneiden töiden käsittelyaika lyheni rajusti, keskimäärin yli tunnista mitättömään viiteen sekuntiin. Tämä on lisännyt voimakkaasti toiminnan tehokkuutta ja vähentänyt resurssien hukkaa.

Optimoitu harjoitusaika

Siirron mukanaan tuoma tehokkuus lisääntyy SageMaker-pohjaisen GPU-koulutuksen avulla. Tämä muutos lyhensi mallin harjoitusaikaa viidesosaan sen aikaisemmasta kestosta. Aikaisemmin syväoppimismallien koulutusprosessit kuluttivat noin 60 tuntia suorittimella; tämä virtaviivaistettiin noin 12 tuntiin GPU:lla. Tämä parannus ei ainoastaan ​​säästä aikaa, vaan myös nopeuttaa kehityssykliä, mikä mahdollistaa nopeammat iteraatiot ja mallin parannukset.

Kehittyneet ML-ominaisuudet

Siirron menestyksen keskeistä on SageMaker-ominaisuusjoukon käyttö, joka sisältää hyperparametrien virityksen ja mallin selitettävyyden. Lisäksi siirto mahdollisti saumattoman kokeiden seurannan käyttämällä Amazon SageMaker -kokeilut, mikä mahdollistaa oivaltavamman ja tuottavamman kokeilun.

Mikä tärkeintä, uusi ML-kokeiluympäristö tuki nyt tuotannossa olevan uuden mallin onnistunutta kehitystä. Tämä malli on syväoppiva eikä puupohjainen, ja se on tuonut huomattavia parannuksia online-mallin suorituskykyyn.

Yhteenveto

Tämä viesti tarjosi yleiskatsauksen AWS Professional Services -palvelusta ja Booking.com-yhteistyöstä, joka johti skaalautuvan ML-kehyksen käyttöönottoon ja lyhensi menestyksekkäästi heidän Ranking-tiiminsä ML-mallien markkinoilletuloaikaa.

Booking.comin ranking-tiimi oppi, että pilveen ja SageMakeriin siirtyminen on osoittautunut hyödylliseksi ja että koneoppimistoimintojen (MLOps) mukauttamisen ansiosta ML-insinöörit ja tutkijat voivat keskittyä taitoonsa ja lisätä kehitysnopeutta. Tiimi jakaa oppimansa ja tehdyn työn koko Booking.comin ML-yhteisön kanssa keskustelujen ja omistautuneiden istuntojen kautta ML-harjoittajien kanssa, joissa he jakavat koodin ja ominaisuudet. Toivomme, että tämä viesti voi olla toinen tapa jakaa tietoa.

AWS Professional Services on valmis auttamaan tiimiäsi kehittämään skaalautuvaa ja tuotantoon sopivaa ML:ää AWS:ssä. Katso lisätietoja AWS-asiantuntijapalvelut tai ota yhteyttä tilivastaavasi kautta.


Tietoja Tekijät

Laurens van der Maas on koneoppimisinsinööri AWS Professional Servicesissä. Hän työskentelee läheisessä yhteistyössä asiakkaiden kanssa, jotka rakentavat koneoppimisratkaisujaan AWS:lle, on erikoistunut hajautettuun koulutukseen, kokeiluun ja vastuulliseen tekoälyyn ja on intohimoinen siitä, kuinka koneoppiminen muuttaa maailmaa sellaisena kuin sen tunnemme.

Daniel Zagyva on tietotutkija AWS Professional Services -palvelussa. Hän on erikoistunut skaalautuvien, tuotantotason koneoppimisratkaisujen kehittämiseen AWS-asiakkaille. Hänen kokemuksensa ulottuu eri aloille, mukaan lukien luonnollisen kielen käsittelyyn, generatiiviseen tekoälyyn ja koneoppimistoimintoihin.

Kostia Kofman on Booking.comin vanhempi koneoppimispäällikkö, joka johtaa Search Ranking ML -tiimiä ja valvoo Booking.comin laajinta ML-järjestelmää. Henkilökohtaistamisen ja sijoituksen asiantuntemuksensa ansiosta hän menestyy hyödyntämällä huipputeknologiaa asiakaskokemusten parantamiseksi.

Jenny Tokar on vanhempi koneoppimisinsinööri Booking.comin Search Ranking -tiimissä. Hän on erikoistunut kehittämään päästä päähän ML-putkistoja, joille on ominaista tehokkuus, luotettavuus, skaalautuvuus ja innovaatio. Jennyn asiantuntemus antaa hänen tiimilleen mahdollisuuden luoda huippuluokan sijoitusmalleja, jotka palvelevat miljoonia käyttäjiä päivittäin.

Aleksandra Dokic on vanhempi datatutkija AWS Professional Services -palvelussa. Hän nauttii asiakkaiden tukemisesta innovatiivisten AI/ML-ratkaisujen rakentamisessa AWS:lle, ja hän on innoissaan liiketoiminnan muutoksista tiedon voiman avulla.

Luba Protsiva on sitoutumispäällikkö AWS Professional Services -palvelussa. Hän on erikoistunut toimittamaan Data- ja GenAI/ML-ratkaisuja, joiden avulla AWS-asiakkaat voivat maksimoida liiketoiminta-arvonsa ja nopeuttaa innovaatioita.

spot_img

Uusin älykkyys

spot_img

Keskustele kanssamme

Hei siellä! Kuinka voin olla avuksi?