เพลโต ดาต้า อินเทลลิเจนซ์
ค้นหาแนวตั้ง & Ai

ยินดีต้อนรับสู่ยุคใหม่ของการสร้างในระบบคลาวด์ด้วย Generative AI บน AWS | อเมซอนเว็บเซอร์วิส

วันที่:

เราเชื่อว่า generative AI มีศักยภาพเมื่อเวลาผ่านไปในการเปลี่ยนแปลงประสบการณ์ของลูกค้าแทบทุกรายที่เรารู้จัก บริษัทจำนวนหนึ่งที่เปิดตัวแอปพลิเคชัน AI แบบเจนเนอเรชั่นบน AWS นั้นมีจำนวนมากและสร้างขึ้นอย่างรวดเร็ว รวมถึง adidas, Booking.com, Bridgewater Associates, Clariant, Cox Automotive, GoDaddy และ LexisNexis Legal & Professional และอื่นๆ อีกมากมาย สตาร์ทอัพด้านนวัตกรรมอย่าง Perplexity AI ต่างก็หันมาใช้ AWS สำหรับ generative AI บริษัท AI ชั้นนำอย่าง Anthropic ได้เลือก AWS เป็นผู้ให้บริการระบบคลาวด์หลักสำหรับปริมาณงานที่มีความสำคัญต่อภารกิจ และสถานที่ในการฝึกอบรมโมเดลในอนาคต และผู้ให้บริการโซลูชันระดับโลกอย่าง Accenture กำลังเก็บเกี่ยวผลประโยชน์จากแอปพลิเคชัน AI เจนเนอเรชันที่ปรับแต่งตามความต้องการ ขณะที่พวกเขาเสริมศักยภาพให้กับนักพัฒนาภายในองค์กรด้วย Amazon Code Whisperer.

ลูกค้าเหล่านี้เลือก AWS เพราะเรามุ่งเน้นไปที่การทำสิ่งที่เราทำมาตลอด โดยใช้เทคโนโลยีที่ซับซ้อนและมีราคาแพงซึ่งสามารถเปลี่ยนแปลงประสบการณ์และธุรกิจของลูกค้า และทำให้เป็นประชาธิปไตยสำหรับลูกค้าทุกขนาดและความสามารถทางเทคนิค เพื่อบรรลุเป้าหมายนี้ เรากำลังลงทุนและสร้างสรรค์สิ่งใหม่ๆ อย่างรวดเร็วเพื่อมอบชุดความสามารถที่ครอบคลุมมากที่สุดใน XNUMX เลเยอร์ของเจนเนอเรทีฟ AI Stack ชั้นล่างสุดเป็นโครงสร้างพื้นฐานในการฝึก Large Language Models (LLM) และ Foundation Models (FM) อื่นๆ และจัดทำอนุมานหรือการคาดการณ์ เลเยอร์กลางสามารถเข้าถึงโมเดลและเครื่องมือทั้งหมดได้อย่างง่ายดายที่ลูกค้าจำเป็นต้องใช้ในการสร้างและปรับขนาดแอปพลิเคชัน AI ที่สร้างด้วยการรักษาความปลอดภัย การควบคุมการเข้าถึง และคุณสมบัติอื่นๆ ที่ลูกค้าคาดหวังจากบริการของ AWS และที่ชั้นบนสุด เราได้ลงทุนในแอปพลิเคชันที่เปลี่ยนแปลงเกมในด้านสำคัญๆ เช่น การเขียนโค้ดที่ใช้ AI แบบสร้างสรรค์ นอกเหนือจากการเสนอทางเลือกและความสามารถที่หลากหลายและเชิงลึกในทุกเลเยอร์ตามที่พวกเขาคาดหวังจากเราแล้ว ลูกค้ายังบอกเราว่าพวกเขาชื่นชมแนวทางที่ให้ความสำคัญกับข้อมูลเป็นอันดับแรกของเรา และไว้วางใจว่าเราได้สร้างทุกสิ่งตั้งแต่ต้นจนจบด้วยองค์กร ระดับความปลอดภัยและความเป็นส่วนตัว

สัปดาห์นี้เราได้ก้าวไปข้างหน้าอย่างยิ่งใหญ่ โดยประกาศความสามารถใหม่ที่สำคัญมากมายในทั้งสามเลเยอร์ของสแต็ก เพื่อให้ลูกค้าของเราใช้ generative AI อย่างแพร่หลายในธุรกิจของพวกเขาได้อย่างง่ายดายและใช้งานได้จริง

ชั้นล่างสุดของสแต็ก: AWS Trainium2 เป็นส่วนเสริมล่าสุดเพื่อมอบโครงสร้างพื้นฐานระบบคลาวด์ที่ทันสมัยที่สุดสำหรับ AI เชิงสร้างสรรค์

ชั้นล่างสุดของสแต็กคือโครงสร้างพื้นฐาน เช่น การประมวลผล เครือข่าย เฟรมเวิร์ก บริการ ที่จำเป็นสำหรับการฝึกอบรมและใช้งาน LLM และ FM อื่นๆ AWS สร้างสรรค์นวัตกรรมเพื่อนำเสนอโครงสร้างพื้นฐานที่ทันสมัยที่สุดสำหรับ ML ด้วยความร่วมมืออันยาวนานกับ NVIDIA ทำให้ AWS เป็นบริษัทแรกที่นำ GPU มาสู่ระบบคลาวด์เมื่อกว่า 12 ปีที่แล้ว และล่าสุด เราเป็นผู้ให้บริการระบบคลาวด์รายใหญ่รายแรกที่ทำให้ NVIDIA H100 GPU พร้อมใช้งานกับอินสแตนซ์ P5 ของเรา เรายังคงลงทุนในนวัตกรรมที่ไม่เหมือนใครซึ่งทำให้ AWS เป็นระบบคลาวด์ที่ดีที่สุดในการรัน GPU รวมถึงคุณประโยชน์ด้านประสิทธิภาพด้านราคาของระบบเสมือนจริงที่ทันสมัยที่สุด (AWS Nitro) เครือข่ายระดับเพตะบิตอันทรงพลังด้วย Elastic Fabric Adapter (EFA) และไฮเปอร์- ปรับขนาดคลัสเตอร์ด้วย Amazon EC2 UltraClusters (อินสแตนซ์เร่งความเร็วนับพันรายการตั้งอยู่ร่วมกันใน Availability Zone และเชื่อมต่อถึงกันในเครือข่ายที่ไม่มีการบล็อกซึ่งสามารถส่งมอบได้ถึง 3,200 Gbps สำหรับการฝึกอบรม ML ขนาดใหญ่) นอกจากนี้เรายังช่วยให้ลูกค้าเข้าถึงความสามารถในการประมวลผล GPU ที่เป็นที่ต้องการอย่างมากสำหรับ AI เชิงสร้างสรรค์ได้ง่ายขึ้นด้วย Amazon EC2 Capacity Blocks สำหรับ ML ซึ่งเป็นโมเดลการใช้งานแรกและแห่งเดียวในอุตสาหกรรมที่ช่วยให้ลูกค้าจอง GPU ไว้ใช้ในอนาคตได้ (สูงสุด 500 ปรับใช้ใน EC2 UltraClusters) สำหรับปริมาณงาน ML ในระยะเวลาอันสั้น

เมื่อหลายปีก่อน เราตระหนักดีว่าเพื่อผลักดันขอบเขตด้านประสิทธิภาพด้านราคาต่อไป เราจะต้องคิดค้นนวัตกรรมใหม่ทั้งหมดจนถึงซิลิคอน และเราเริ่มลงทุนในชิปของเราเอง สำหรับ ML โดยเฉพาะ เราเริ่มต้นด้วย AWS Inferentia ซึ่งเป็นชิปการอนุมานที่สร้างขึ้นตามวัตถุประสงค์ของเรา วันนี้ เราอยู่ใน AWS Inferentia รุ่นที่สองที่มีอินสแตนซ์ Amazon EC2 Inf2 ซึ่งได้รับการปรับให้เหมาะสมโดยเฉพาะสำหรับแอปพลิเคชัน AI ที่สร้างขนาดใหญ่ซึ่งมีโมเดลที่มีพารามิเตอร์หลายแสนล้านรายการ อินสแตนซ์ Inf2 เสนอต้นทุนต่ำสุดสำหรับการอนุมานในระบบคลาวด์ ในขณะเดียวกันก็ให้ปริมาณงานที่สูงขึ้นถึงสี่เท่าและเวลาแฝงที่ต่ำกว่าถึงสิบเท่าเมื่อเทียบกับอินสแตนซ์ Inf1 Inf12 ขับเคลื่อนด้วยชิป Inferentia2 สูงสุด 2 ตัว เป็นอินสแตนซ์ EC2 ที่ได้รับการเพิ่มประสิทธิภาพการอนุมานเพียงตัวเดียวที่มีการเชื่อมต่อความเร็วสูงระหว่างตัวเร่งความเร็ว เพื่อให้ลูกค้าสามารถเรียกใช้การอนุมานได้เร็วขึ้นและมีประสิทธิภาพมากขึ้น (ด้วยต้นทุนที่ต่ำกว่า) โดยไม่สูญเสียประสิทธิภาพหรือเวลาแฝงโดยการกระจายโมเดลขนาดใหญ่พิเศษ ผ่านตัวเร่งความเร็วหลายตัว ลูกค้าเช่น Adobe, Deutsche Telekom และ Leonardo.ai ได้เห็นผลลัพธ์ที่ยอดเยี่ยมในช่วงแรกๆ และรู้สึกตื่นเต้นที่จะปรับใช้โมเดลของตนในวงกว้างบน Inf2

ในด้านการฝึกอบรม อินสแตนซ์ Trn1 ซึ่งขับเคลื่อนโดยชิปการฝึกอบรม ML ที่สร้างขึ้นตามวัตถุประสงค์ของ AWS อย่าง AWS Trainium ได้รับการปรับให้เหมาะสมเพื่อกระจายการฝึกอบรมไปยังเซิร์ฟเวอร์หลายเครื่องที่เชื่อมต่อกับเครือข่าย EFA ลูกค้าอย่าง Ricoh ได้ฝึกอบรม LLM ของญี่ปุ่นด้วยพารามิเตอร์นับพันล้านรายการในเวลาเพียงไม่กี่วัน Databricks ได้รับประสิทธิภาพด้านราคาที่ดีขึ้นถึง 40% ด้วยอินสแตนซ์ที่ใช้ Trainium เพื่อฝึกฝนโมเดลการเรียนรู้เชิงลึกขนาดใหญ่ แต่ด้วยโมเดลใหม่ที่มีความสามารถมากขึ้นที่ออกมาในทางปฏิบัติทุกสัปดาห์ เรากำลังผลักดันขอบเขตของประสิทธิภาพและขนาดอย่างต่อเนื่อง และเรารู้สึกตื่นเต้นที่จะประกาศให้ทราบ AWS Trainium2ออกแบบมาเพื่อมอบประสิทธิภาพด้านราคาที่ดียิ่งขึ้นสำหรับโมเดลการฝึกที่มีพารามิเตอร์หลายแสนล้านถึงล้านล้าน. Trainium2 ควรมอบประสิทธิภาพการฝึกที่รวดเร็วกว่า Trainium รุ่นแรกถึงสี่เท่า และเมื่อใช้ใน EC2 UltraClusters ควรส่งมอบการประมวลผลรวมสูงสุด 65 เอ็กซาฟล็อป ซึ่งหมายความว่าลูกค้าจะสามารถฝึกอบรม LLM พารามิเตอร์ 300 พันล้านรายการได้ภายในไม่กี่สัปดาห์หรือหลายเดือน ประสิทธิภาพ ขนาด และประสิทธิภาพการใช้พลังงานของ Trainium2 คือเหตุผลบางประการที่ Anthropic เลือกฝึกอบรมโมเดลของตนบน AWS และจะใช้ Trainium2 สำหรับโมเดลในอนาคต และเรากำลังร่วมมือกับ Anthropic ในการสร้างนวัตกรรมอย่างต่อเนื่องกับทั้ง Trainium และ Inferentia เราคาดว่าอินสแตนซ์ Trainium2 แรกจะพร้อมให้ลูกค้าใช้งานในปี 2024

นอกจากนี้เรายังเพิ่มห่วงโซ่เครื่องมือซอฟต์แวร์เป็นสองเท่าสำหรับ ML ซิลิคอนของเรา โดยเฉพาะในการพัฒนา AWS Neuron ซึ่งเป็นชุดพัฒนาซอฟต์แวร์ (SDK) ที่ช่วยให้ลูกค้าได้รับประสิทธิภาพสูงสุดจาก Trainium และ Inferentia นับตั้งแต่เปิดตัว Neuron ในปี 2019 เราได้ลงทุนจำนวนมากในเทคโนโลยีคอมไพเลอร์และเฟรมเวิร์ก และในปัจจุบัน Neuron รองรับโมเดลที่ได้รับความนิยมมากที่สุดหลายรุ่นที่เผยแพร่ต่อสาธารณะ รวมถึง Llama 2 จาก Meta, MPT จาก Databricks และ Stable Diffusion จาก Stability AI ตลอดจน 93 โมเดลจาก 100 อันดับแรกใน Hugging Face ที่เก็บโมเดลยอดนิยม Neuron เสียบเข้ากับเฟรมเวิร์ก ML ยอดนิยม เช่น PyTorch และ TensorFlow และการรองรับ JAX จะมาในต้นปีหน้า ลูกค้าบอกเราว่า Neuron ช่วยให้พวกเขาเปลี่ยนขั้นตอนการฝึกโมเดลและการอนุมานที่มีอยู่ไปเป็น Trainium และ Inferentia ได้อย่างง่ายดายด้วยโค้ดเพียงไม่กี่บรรทัด

ไม่มีใครเสนอตัวเลือกชิป ML ที่ดีที่สุด ระบบเครือข่ายความเร็วสูง ระบบเสมือนจริง และคลัสเตอร์ไฮเปอร์สเกลที่ดีที่สุดได้เหมือนกันนี้ ดังนั้นจึงไม่น่าแปลกใจที่สตาร์ทอัพด้าน Generative AI ที่มีชื่อเสียงที่สุดบางราย เช่น AI21 Labs, Anthropic, Hugging Face, Perplexity AI, Runway และ Stability AI ทำงานบน AWS แต่คุณยังคงต้องการเครื่องมือที่เหมาะสมเพื่อใช้ประโยชน์จากการประมวลผลนี้อย่างมีประสิทธิภาพเพื่อสร้าง ฝึกอบรม และใช้งาน LLM และ FM อื่นๆ ได้อย่างมีประสิทธิภาพและคุ้มค่า และสำหรับสตาร์ทอัพหลายๆ รายเหล่านี้ อเมซอน SageMaker คือคำตอบ ไม่ว่าจะสร้างและฝึกอบรมโมเดลใหม่ที่เป็นกรรมสิทธิ์ตั้งแต่เริ่มต้น หรือเริ่มต้นด้วยโมเดลยอดนิยมที่เผยแพร่ต่อสาธารณะ การฝึกอบรมเป็นการดำเนินการที่ซับซ้อนและมีราคาแพง การรันโมเดลเหล่านี้อย่างคุ้มค่าไม่ใช่เรื่องง่าย ลูกค้าจะต้องได้รับข้อมูลจำนวนมากและจัดเตรียมไว้ โดยทั่วไปแล้วจะเกี่ยวข้องกับข้อมูลการทำความสะอาดงานด้วยตนเองจำนวนมาก การลบรายการที่ซ้ำกัน เพิ่มคุณค่า และการแปลงข้อมูล จากนั้นพวกเขาจะต้องสร้างและบำรุงรักษาคลัสเตอร์ GPU/ตัวเร่งความเร็วขนาดใหญ่ เขียนโค้ดเพื่อกระจายการฝึกโมเดลข้ามคลัสเตอร์อย่างมีประสิทธิภาพ จุดตรวจสอบบ่อยครั้ง หยุดชั่วคราว ตรวจสอบและเพิ่มประสิทธิภาพโมเดล และแทรกแซงและแก้ไขปัญหาฮาร์ดแวร์ในคลัสเตอร์ด้วยตนเอง ความท้าทายมากมายเหล่านี้ไม่ใช่เรื่องใหม่ แต่เป็นเหตุผลบางประการที่ทำให้เราเปิดตัว SageMaker เมื่อหกปีที่แล้ว เพื่อทลายอุปสรรคมากมายที่เกี่ยวข้องกับการฝึกอบรมโมเดลและการปรับใช้ และช่วยให้นักพัฒนามีวิธีที่ง่ายขึ้นมาก ลูกค้าหลายหมื่นรายใช้ Amazon SageMaker และลูกค้าจำนวนมากขึ้นเรื่อยๆ เช่น LG AI Research, Perplexity AI, AI21, Hugging Face และ Stability AI กำลังฝึกอบรม LLM และ FM อื่นๆ บน SageMaker เมื่อเร็วๆ นี้ Technology Innovation Institute (ผู้สร้าง Falcon LLM ยอดนิยม) ได้ฝึกอบรมโมเดลที่ใหญ่ที่สุดที่เปิดเผยต่อสาธารณะ นั่นคือ Falcon 180B บน SageMaker เมื่อขนาดและความซับซ้อนของโมเดลเติบโตขึ้น ขอบเขตของ SageMaker ก็มีมากขึ้นเช่นกัน

ในช่วงหลายปีที่ผ่านมา เราได้เพิ่มคุณสมบัติและความสามารถที่เปลี่ยนแปลงเกมมากกว่า 380 รายการให้กับ Amazon SageMaker เช่น การปรับแต่งโมเดลอัตโนมัติ การฝึกอบรมแบบกระจาย ตัวเลือกการปรับใช้โมเดลที่ยืดหยุ่น เครื่องมือสำหรับ ML OP เครื่องมือสำหรับการเตรียมข้อมูล การจัดเก็บฟีเจอร์ โน้ตบุ๊ก การผสานรวมที่ราบรื่น ด้วยการประเมินโดยมนุษย์ตลอดวงจรการใช้งาน ML และฟีเจอร์ในตัวสำหรับ AI ที่รับผิดชอบ เราสร้างสรรค์นวัตกรรมอย่างต่อเนื่องอย่างรวดเร็วเพื่อให้แน่ใจว่าลูกค้า SageMaker สามารถสร้าง ฝึกอบรม และดำเนินการอนุมานสำหรับทุกรุ่น รวมถึง LLM และ FM อื่นๆ และเรากำลังทำให้ลูกค้าสามารถฝึกอบรมและปรับใช้โมเดลขนาดใหญ่ที่มีความสามารถใหม่สองประการได้ง่ายยิ่งขึ้นและคุ้มต้นทุนมากขึ้น ประการแรก เพื่อทำให้การฝึกอบรมง่ายขึ้น แนะนำ Amazon SageMaker ไฮเปอร์พอด ซึ่งทำให้กระบวนการต่างๆ ที่จำเป็นสำหรับการฝึกอบรมแบบกระจายที่ทนทานต่อข้อผิดพลาดในระดับสูงเป็นไปโดยอัตโนมัติ (เช่น การกำหนดค่าไลบรารีการฝึกอบรมแบบกระจาย ปรับขนาดปริมาณงานการฝึกอบรมข้ามตัวเร่งความเร็วหลายพันตัว การตรวจจับและซ่อมแซมอินสแตนซ์ที่ผิดพลาด) เร่งความเร็วการฝึกอบรมได้มากถึง 40% ด้วยเหตุนี้ ลูกค้าเช่น Perplexity AI, Hugging Face, Stability, Hippocratic, Alkaid และอื่นๆ จึงใช้ SageMaker HyperPod เพื่อสร้าง ฝึกฝน หรือพัฒนาโมเดล ที่สอง, เรากำลังเปิดตัวความสามารถใหม่ๆ เพื่อทำให้การอนุมานมีประสิทธิภาพมากขึ้นในขณะที่ลดเวลาในการตอบสนอง ตอนนี้ SageMaker ช่วยให้ลูกค้าปรับใช้หลายโมเดลบนอินสแตนซ์เดียวกัน เพื่อให้สามารถแชร์ทรัพยากรการประมวลผล ซึ่งลดต้นทุนการอนุมานได้ 50% (โดยเฉลี่ย) SageMaker ยังตรวจสอบอินสแตนซ์ที่กำลังประมวลผลคำขอการอนุมานอย่างกระตือรือร้น และกำหนดเส้นทางคำขออย่างชาญฉลาดตามอินสแตนซ์ที่พร้อมใช้งาน ส่งผลให้มีเวลาแฝงในการอนุมานลดลง 20% (โดยเฉลี่ย) Conjecture, Salesforce และ Slack กำลังใช้ SageMaker สำหรับการโฮสต์โมเดลอยู่แล้วเนื่องจากการเพิ่มประสิทธิภาพการอนุมานเหล่านี้

ชั้นกลางของสแต็ก: Amazon Bedrock เพิ่มโมเดลใหม่และคลื่นความสามารถใหม่ๆ ทำให้ลูกค้าสามารถสร้างและปรับขนาดแอปพลิเคชัน AI ที่สร้างได้อย่างปลอดภัยได้ง่ายยิ่งขึ้น

แม้ว่าลูกค้าจำนวนหนึ่งจะสร้าง LLM ของตนเองและ FM อื่นๆ หรือพัฒนาตัวเลือกจำนวนเท่าใดก็ได้ที่เปิดเผยต่อสาธารณะ แต่หลายคนก็ไม่ต้องการใช้ทรัพยากรและเวลาในการดำเนินการนี้ สำหรับพวกเขา ชั้นกลางของสแต็กเสนอโมเดลเหล่านี้เป็นบริการ ทางออกของเราที่นี่ อเมซอน เบดร็อคช่วยให้ลูกค้าสามารถเลือกจากโมเดลชั้นนำของอุตสาหกรรมตั้งแต่ Anthropic, Stability AI, Meta, Cohere, AI21 และ Amazon ปรับแต่งโมเดลด้วยข้อมูลของตนเอง และใช้ประโยชน์จากการรักษาความปลอดภัย การควบคุมการเข้าถึง และฟีเจอร์ชั้นนำแบบเดียวกับที่พวกเขาใช้ ใน AWS ทั้งหมดนี้ผ่านบริการที่ได้รับการจัดการ เราเปิดให้ Amazon Bedrock ใช้งานได้ทั่วไปในช่วงปลายเดือนกันยายน และผลตอบรับจากลูกค้าก็ได้รับผลตอบรับเชิงบวกอย่างท่วมท้น ลูกค้าจากทั่วโลกและจากทุกอุตสาหกรรมต่างรู้สึกตื่นเต้นที่ได้ใช้ Amazon Bedrock adidas ช่วยให้นักพัฒนาได้รับคำตอบอย่างรวดเร็วสำหรับทุกสิ่งตั้งแต่ข้อมูล "เริ่มต้นใช้งาน" ไปจนถึงคำถามทางเทคนิคเชิงลึก Booking.com ตั้งใจที่จะใช้ AI เจนเนอเรชั่นเพื่อเขียนคำแนะนำการเดินทางที่ปรับให้เหมาะกับลูกค้าทุกคน Bridgewater Associates กำลังพัฒนาผู้ช่วยนักวิเคราะห์การลงทุนที่ขับเคลื่อนด้วย LLM เพื่อช่วยสร้างแผนภูมิ คำนวณตัวชี้วัดทางการเงิน และสรุปผลลัพธ์ Carrier กำลังทำให้ลูกค้าเข้าถึงการวิเคราะห์พลังงานและข้อมูลเชิงลึกที่แม่นยำยิ่งขึ้น เพื่อลดการใช้พลังงานและลดการปล่อยก๊าซคาร์บอน Clariant เพิ่มขีดความสามารถของสมาชิกในทีมด้วยแชทบอท AI ที่สร้างภายในเพื่อเร่งกระบวนการ R&D สนับสนุนทีมขายด้วยการเตรียมการประชุม และทำให้อีเมลลูกค้าเป็นแบบอัตโนมัติ GoDaddy ช่วยให้ลูกค้าตั้งค่าธุรกิจออนไลน์ได้อย่างง่ายดายโดยใช้ AI สร้างสรรค์เพื่อสร้างเว็บไซต์ ค้นหาซัพพลายเออร์ เชื่อมต่อกับลูกค้า และอื่นๆ อีกมากมาย Lexis Nexis Legal & Professional กำลังเปลี่ยนแปลงงานทางกฎหมายสำหรับนักกฎหมายและเพิ่มประสิทธิภาพการทำงานด้วยความสามารถในการค้นหาการสนทนา การสรุป และการร่างเอกสารและการวิเคราะห์ของ Lexis+ AI Nasdaq กำลังช่วยทำให้เวิร์กโฟลว์การสืบสวนเกี่ยวกับธุรกรรมที่น่าสงสัยเป็นไปโดยอัตโนมัติ และเสริมสร้างขีดความสามารถด้านการต่อต้านอาชญากรรมทางการเงินและการเฝ้าระวัง แอปพลิเคชัน AI เจนเนอเรชั่นที่หลากหลายทั้งหมดนี้และอื่นๆ อีกมากมายทำงานบน AWS

เรารู้สึกตื่นเต้นกับแรงผลักดันของ Amazon Bedrock แต่ก็ยังเป็นเพียงวันแรกๆ สิ่งที่เราได้เห็นในขณะที่เราทำงานร่วมกับลูกค้าคือทุกคนดำเนินไปอย่างรวดเร็ว แต่วิวัฒนาการของ generative AI ยังคงดำเนินต่อไปอย่างรวดเร็วด้วยตัวเลือกและนวัตกรรมใหม่ ๆ ที่เกิดขึ้นจริงทุกวัน ลูกค้าพบว่ามีโมเดลที่แตกต่างกันซึ่งทำงานได้ดีกว่าสำหรับกรณีการใช้งานที่แตกต่างกัน หรือกับชุดข้อมูลที่แตกต่างกัน บางรุ่นเหมาะสำหรับการสรุป รุ่นอื่นๆ เหมาะสำหรับการใช้เหตุผลและการบูรณาการ และรุ่นอื่นๆ ยังมีการรองรับภาษาที่ยอดเยี่ยมจริงๆ จากนั้นจะมีการสร้างภาพ กรณีการใช้งานการค้นหา และอื่นๆ อีกมากมาย ซึ่งทั้งหมดนี้มาจากทั้งโมเดลที่เป็นกรรมสิทธิ์และจากโมเดลที่ทุกคนเข้าถึงได้แบบสาธารณะ และในช่วงเวลาที่มีสิ่งต่างๆ มากมายที่ยังไม่รู้ ความสามารถในการปรับตัวถือเป็นเครื่องมือที่มีค่าที่สุดในบรรดาทั้งหมด จะไม่มีแบบอย่างเดียวที่จะปกครองพวกเขาทั้งหมด และแน่นอนว่าไม่ใช่แค่บริษัทเทคโนโลยีแห่งเดียวที่นำเสนอโมเดลที่ทุกคนใช้ ลูกค้าต้องลองรุ่นต่างๆ พวกเขาจะต้องสามารถสลับไปมาระหว่างพวกเขาหรือรวมเข้าด้วยกันในกรณีการใช้งานเดียวกัน ซึ่งหมายความว่าพวกเขาต้องการตัวเลือกผู้ให้บริการโมเดลที่แท้จริง (ซึ่งเหตุการณ์ในช่วง 10 วันที่ผ่านมาได้ทำให้ชัดเจนยิ่งขึ้น) นี่คือเหตุผลที่เราคิดค้น Amazon Bedrock ขึ้นมา เหตุใดจึงโดนใจลูกค้าอย่างลึกซึ้ง และเหตุใดเราจึงคิดค้นและทำซ้ำอย่างรวดเร็วอย่างต่อเนื่องเพื่อสร้าง (และเคลื่อนย้ายไปมาระหว่าง) โมเดลต่างๆ ได้อย่างง่ายดายเหมือนกับการเรียก API และใส่เทคนิคล่าสุด สำหรับการปรับแต่งโมเดลในมือของนักพัฒนาทุกคน และรักษาความปลอดภัยให้กับลูกค้าและข้อมูลของพวกเขาเป็นส่วนตัว เรารู้สึกตื่นเต้นที่จะเปิดตัวความสามารถใหม่หลายประการที่จะทำให้ลูกค้าสามารถสร้างและปรับขนาดแอปพลิเคชัน AI ที่สร้างได้ง่ายยิ่งขึ้น:

  • ขยายตัวเลือกโมเดลด้วย Anthropic Claude 2.1, Meta Llama 2 70B และส่วนเพิ่มเติมในกลุ่ม Amazon Titan ในช่วงแรกๆ นี้ ลูกค้ายังคงเรียนรู้และทดลองใช้โมเดลต่างๆ เพื่อพิจารณาว่าโมเดลใดที่พวกเขาต้องการใช้เพื่อวัตถุประสงค์ต่างๆ พวกเขาต้องการที่จะลองใช้รุ่นล่าสุดได้อย่างง่ายดาย และทดสอบเพื่อดูว่าความสามารถและคุณสมบัติใดที่จะให้ผลลัพธ์ที่ดีที่สุดและลักษณะต้นทุนสำหรับกรณีการใช้งานของพวกเขา ด้วย Amazon Bedrock ลูกค้าจะได้รับการเรียก API เพียงครั้งเดียวจากโมเดลใหม่ ผลลัพธ์ที่น่าประทับใจที่สุดบางส่วนที่ลูกค้าได้รับในช่วงไม่กี่เดือนที่ผ่านมามาจาก LLM เช่น โมเดลคลอดด์แห่งมานุษยวิทยาซึ่งมีความเป็นเลิศในงานต่างๆ มากมาย ตั้งแต่บทสนทนาที่ซับซ้อนและการสร้างเนื้อหา ไปจนถึงการให้เหตุผลที่ซับซ้อน ขณะเดียวกันก็รักษาความน่าเชื่อถือและความสามารถในการคาดเดาได้ในระดับสูง ลูกค้ารายงานว่า Claude มีแนวโน้มที่จะสร้างเอาต์พุตที่เป็นอันตรายน้อยกว่ามาก สนทนาได้ง่ายกว่า และควบคุมได้ดีกว่ามากเมื่อเทียบกับ FM อื่นๆ ดังนั้นนักพัฒนาจึงสามารถได้ผลลัพธ์ที่ต้องการโดยใช้ความพยายามน้อยลง Claude 2 โมเดลอันล้ำสมัยของมานุษยวิทยาทำคะแนนได้สูงกว่าเปอร์เซ็นไทล์ที่ 90 ในการสอบการอ่านและเขียน GRE และคะแนนการให้เหตุผลเชิงปริมาณในทำนองเดียวกัน และ ขณะนี้โมเดล Claude 2.1 ที่เพิ่งเปิดตัวมีวางจำหน่ายแล้วใน Amazon Bedrock Claude 2.1 มอบความสามารถที่สำคัญสำหรับองค์กรต่างๆ เช่น หน้าต่างบริบทโทเค็น 200K ชั้นนำของอุตสาหกรรม (2x บริบทของ Claude 2.0) อัตราอาการประสาทหลอนที่ลดลง และการปรับปรุงความแม่นยำอย่างมีนัยสำคัญ แม้ในบริบทที่ยาวมาก Claude 2.1 ยังมีระบบแจ้งที่ได้รับการปรับปรุง ซึ่งเป็นคำสั่งแบบจำลองที่มอบประสบการณ์ที่ดีขึ้นสำหรับผู้ใช้ปลายทาง ในขณะเดียวกันก็ลดต้นทุนของการแจ้งเตือนและการดำเนินการให้เสร็จสิ้นลง 25%

    สำหรับลูกค้าที่มีจำนวนเพิ่มมากขึ้นที่ต้องการใช้เวอร์ชันที่ได้รับการจัดการของโมเดล Llama 2 ที่เผยแพร่ต่อสาธารณะของ Meta นั้น Amazon Bedrock ขอเสนอ Llama 2 13B และ เรากำลังเพิ่ม Llama 2 70B. Llama 2 70B เหมาะสำหรับงานขนาดใหญ่ เช่น การสร้างแบบจำลองภาษา การสร้างข้อความ และระบบบทสนทนา มีการดาวน์โหลดโมเดล Llama ที่เผยแพร่ต่อสาธารณะมากกว่า 30 ล้านครั้ง และลูกค้าชื่นชอบที่ Amazon Bedrock นำเสนอโมเดลเหล่านี้โดยเป็นส่วนหนึ่งของบริการที่ได้รับการจัดการ โดยที่พวกเขาไม่จำเป็นต้องกังวลเกี่ยวกับโครงสร้างพื้นฐานหรือมีความเชี่ยวชาญด้าน ML อย่างลึกซึ้งในทีมของตน นอกจากนี้ สำหรับการสร้างภาพ Stability AI ยังมีชุดโมเดลข้อความเป็นรูปภาพยอดนิยมอีกด้วย Stable Diffusion XL 1.0 (SDXL 1.0) เป็นรุ่นที่ล้ำหน้าที่สุด และขณะนี้มีวางจำหน่ายทั่วไปแล้วใน Amazon Bedrock. โมเดลรูปภาพยอดนิยมรุ่นล่าสุดได้เพิ่มความแม่นยำ ความสมจริงของแสงที่ดีขึ้น และความละเอียดสูงขึ้น

    ลูกค้าก็ใช้. อเมซอนไททัน โมเดลที่สร้างและฝึกอบรมล่วงหน้าโดย AWS เพื่อมอบความสามารถอันทรงพลังพร้อมความประหยัดที่ยอดเยี่ยมสำหรับกรณีการใช้งานที่หลากหลาย Amazon มีประวัติ 25 ปีในด้าน ML และ AI ซึ่งเป็นเทคโนโลยีที่เราใช้ในธุรกิจของเรา และเราได้เรียนรู้มากมายเกี่ยวกับการสร้างและปรับใช้โมเดล เราได้เลือกวิธีที่เราฝึกโมเดลของเราและข้อมูลที่เราใช้อย่างรอบคอบ เราชดใช้ค่าเสียหายให้กับลูกค้าจากการเรียกร้องที่ว่าโมเดลหรือผลงานของเราละเมิดลิขสิทธิ์ของใครก็ตาม เราเปิดตัว Titan รุ่นแรกในเดือนเมษายนของปีนี้ Titan Text Lite- มีจำหน่ายทั่วไปแล้ว—เป็นโมเดลที่กระชับและคุ้มค่าสำหรับกรณีการใช้งาน เช่น แชทบอท การสรุปข้อความ หรือการเขียนคำโฆษณา และยังน่าดึงดูดใจในการปรับแต่งอีกด้วย Titan Text Express—มีวางจำหน่ายทั่วไปแล้วเช่นกัน— กว้างขวางกว่า และสามารถใช้กับงานที่ใช้ข้อความได้หลากหลาย เช่น การสร้างข้อความแบบปลายเปิดและการแชทด้วยการสนทนา เรานำเสนอตัวเลือกโมเดลข้อความเหล่านี้เพื่อให้ลูกค้าสามารถปรับให้เหมาะสมเพื่อความแม่นยำ ประสิทธิภาพ และต้นทุน โดยขึ้นอยู่กับกรณีการใช้งานและความต้องการทางธุรกิจ ลูกค้าเช่น Nexxiot, PGA Tour และ Ryanair ใช้โมเดล Titan Text สองรุ่นของเรา นอกจากนี้เรายังมีโมเดลการฝัง Titan Text Embeddings สำหรับกรณีการใช้งานการค้นหาและการปรับเปลี่ยนในแบบของคุณ ลูกค้าอย่าง Nasdaq มองเห็นผลลัพธ์ที่ยอดเยี่ยมโดยใช้ Titan Text Embeddings เพื่อเพิ่มความสามารถให้กับ Nasdaq IR Insight เพื่อสร้างข้อมูลเชิงลึกจากเอกสารของบริษัททั่วโลกกว่า 9,000 แห่งเพื่อทีมความยั่งยืน กฎหมาย และการบัญชี และเราจะเพิ่มโมเดลเพิ่มเติมให้กับตระกูล Titan ต่อไปในอนาคต เรากำลังเปิดตัวโมเดลการฝังแบบใหม่ Titan Multimodal Embeddingsเพื่อขับเคลื่อนประสบการณ์การค้นหาและคำแนะนำหลายรูปแบบสำหรับผู้ใช้ที่ใช้รูปภาพและข้อความ (หรือทั้งสองอย่างรวมกัน) เป็นอินพุต และเราคือ ขอแนะนำโมเดลข้อความเป็นรูปภาพใหม่ Amazon Titan Image Generator. ด้วย Titan Image Generator ลูกค้าในอุตสาหกรรมต่างๆ เช่น การโฆษณา อีคอมเมิร์ซ และสื่อและความบันเทิง สามารถใช้การป้อนข้อความเพื่อสร้างภาพที่สมจริง คุณภาพระดับสตูดิโอในปริมาณมากด้วยต้นทุนที่ต่ำ เรารู้สึกตื่นเต้นที่ลูกค้าตอบสนองต่อ Titan Models อย่างไร และคุณสามารถคาดหวังได้ว่าเราจะสร้างสรรค์สิ่งใหม่ๆ ต่อไปที่นี่

  • ความสามารถใหม่ในการปรับแต่งแอปพลิเคชัน AI สร้างสรรค์ของคุณอย่างปลอดภัยด้วยข้อมูลที่เป็นกรรมสิทธิ์ของคุณ: หนึ่งในความสามารถที่สำคัญที่สุดของ Amazon Bedrock คือการปรับแต่งโมเดลได้ง่ายเพียงใด สิ่งนี้กลายเป็นเรื่องที่น่าตื่นเต้นอย่างแท้จริงสำหรับลูกค้า เพราะนี่คือจุดที่ AI เชิงสร้างสรรค์มาบรรจบกับผู้สร้างความแตกต่างหลัก ซึ่งก็คือข้อมูลของพวกเขา อย่างไรก็ตาม เป็นสิ่งสำคัญมากที่ข้อมูลของพวกเขายังคงปลอดภัย ที่พวกเขาสามารถควบคุมมันได้ตลอดทาง และการปรับปรุงโมเดลนั้นเป็นส่วนตัวสำหรับพวกเขา คุณสามารถทำได้หลายวิธี และ Amazon Bedrock มีตัวเลือกการปรับแต่งที่หลากหลายที่สุดในหลายรุ่น) ประการแรกคือการปรับแต่งอย่างละเอียด การปรับแต่งโมเดลอย่างละเอียดใน Amazon Bedrock เป็นเรื่องง่าย คุณเพียงเลือกรุ่นและ Amazon Bedrock จะทำสำเนาโมเดลดังกล่าว จากนั้นคุณชี้ไปที่ตัวอย่างที่มีป้ายกำกับสองสามตัวอย่าง (เช่น ชุดคู่คำถาม-คำตอบที่ดี) ที่คุณจัดเก็บไว้ใน Amazon Simple Storage Service (Amazon S3) และ Amazon Bedrock “ฝึกฝนส่วนเพิ่ม” (เสริมโมเดลที่คัดลอกด้วยข้อมูลใหม่) จากตัวอย่างเหล่านี้ และผลลัพธ์ที่ได้คือโมเดลที่ได้รับการปรับแต่งอย่างละเอียดและเป็นส่วนตัวมากขึ้น ซึ่งให้คำตอบที่เกี่ยวข้องและปรับแต่งได้มากขึ้น เรารู้สึกตื่นเต้นที่จะแจ้งให้ทราบว่าการปรับแต่งอย่างละเอียดโดยทั่วไปพร้อมใช้งานแล้วสำหรับ Cohere Command, Meta Llama 2, Amazon Titan Text (Lite และ Express), Amazon Titan Multimodal Embeddings และในการแสดงตัวอย่างสำหรับ Amazon Titan Image Generator และด้วยความร่วมมือของเรากับ Anthropic เร็วๆ นี้ เราจะให้ลูกค้า AWS เข้าถึงคุณสมบัติเฉพาะได้ก่อนใครสำหรับการปรับแต่งโมเดลและการปรับแต่ง Claude โมเดลที่ล้ำสมัยอย่างละเอียด

    เทคนิคที่สองในการปรับแต่ง LLM และ FM อื่นๆ สำหรับธุรกิจของคุณคือการเรียกข้อมูล Augmented Generation (RAG) ซึ่งช่วยให้คุณปรับแต่งการตอบสนองของโมเดลโดยเพิ่มพร้อมท์ของคุณด้วยข้อมูลจากหลายแหล่ง รวมถึงที่เก็บเอกสาร ฐานข้อมูล และ API ในเดือนกันยายน เราได้เปิดตัวความสามารถ RAG ซึ่งเป็นฐานความรู้สำหรับ Amazon Bedrock ซึ่งเชื่อมต่อโมเดลอย่างปลอดภัยกับแหล่งข้อมูลที่เป็นกรรมสิทธิ์ของคุณ เพื่อเสริมการแจ้งเตือนของคุณด้วยข้อมูลเพิ่มเติม เพื่อให้แอปพลิเคชันของคุณให้การตอบสนองที่เกี่ยวข้อง ตามบริบท และแม่นยำมากขึ้น ฐานความรู้ โดยทั่วไปแล้ว ขณะนี้พร้อมใช้งานกับ API ที่ดำเนินการเวิร์กโฟลว์ RAG ทั้งหมด จากการดึงข้อความที่จำเป็นในการเพิ่มพรอมต์ การส่งข้อความพร้อมต์ไปยังโมเดล ไปจนถึงการส่งคืนการตอบกลับ ฐานความรู้รองรับฐานข้อมูลที่มีความสามารถแบบเวกเตอร์ที่จัดเก็บการแสดงตัวเลขของข้อมูลของคุณ (การฝัง) ที่โมเดลใช้ในการเข้าถึงข้อมูลนี้สำหรับ RAG รวมถึง Amazon OpenSearch Service และฐานข้อมูลยอดนิยมอื่นๆ เช่น Pinecone และ Redis Enterprise Cloud (รองรับเวกเตอร์ของ Amazon Aurora และ MongoDB ที่กำลังจะตามมา) เร็วๆ นี้).

    วิธีที่สามที่คุณสามารถปรับแต่งโมเดลใน Amazon Bedrock ได้คือการฝึกอบรมล่วงหน้าอย่างต่อเนื่อง ด้วยวิธีนี้ โมเดลจะสร้างจากการฝึกอบรมล่วงหน้าดั้งเดิมสำหรับการทำความเข้าใจภาษาทั่วไปเพื่อเรียนรู้ภาษาและคำศัพท์เฉพาะโดเมน แนวทางนี้มีไว้สำหรับลูกค้าที่มีข้อมูลเฉพาะโดเมนที่ไม่มีป้ายกำกับจำนวนมาก และต้องการให้ LLM ของตนเข้าใจภาษา วลี คำย่อ แนวคิด คำจำกัดความ และศัพท์แสงเฉพาะสำหรับโลก (และธุรกิจ) ของพวกเขา ซึ่งแตกต่างจากการปรับแต่งแบบละเอียดซึ่งใช้ข้อมูลจำนวนค่อนข้างน้อย การฝึกอบรมล่วงหน้าอย่างต่อเนื่องจะดำเนินการกับชุดข้อมูลขนาดใหญ่ (เช่น เอกสารข้อความหลายพันฉบับ) ขณะนี้ ความสามารถในการฝึกอบรมล่วงหน้าพร้อมใช้งานแล้วใน Amazon Bedrock สำหรับ Titan Text Lite และ Titan Text Express

  • ความพร้อมใช้งานทั่วไปของ ตัวแทนของ Amazon Bedrock เพื่อช่วยดำเนินงานหลายขั้นตอนโดยใช้ระบบ แหล่งข้อมูล และความรู้ของบริษัท LLM เชี่ยวชาญในการสนทนาและสร้างเนื้อหา แต่ลูกค้าต้องการให้แอปพลิเคชันของตนสามารถทำได้ do ยิ่งไปกว่านั้น เช่น ดำเนินการ แก้ไขปัญหา และโต้ตอบกับระบบต่างๆ เพื่อทำงานหลายขั้นตอนให้เสร็จสิ้น เช่น การจองการเดินทาง การยื่นเคลมประกัน หรือการสั่งซื้อชิ้นส่วนทดแทน และ Amazon Bedrock ก็สามารถช่วยรับมือกับความท้าทายนี้ได้ ด้วยตัวแทน นักพัฒนาจะเลือกโมเดล เขียนคำแนะนำพื้นฐานบางอย่าง เช่น “คุณคือตัวแทนฝ่ายบริการลูกค้าที่ร่าเริง” และ “ตรวจสอบความพร้อมของผลิตภัณฑ์ในระบบสินค้าคงคลัง” ชี้โมเดลที่เลือกไปยังแหล่งข้อมูลและระบบองค์กรที่ถูกต้อง (เช่น CRM หรือแอปพลิเคชัน ERP) และเขียนฟังก์ชัน AWS Lambda บางส่วนเพื่อดำเนินการ API (เช่น ตรวจสอบความพร้อมใช้งานของรายการในคลัง ERP) Amazon Bedrock วิเคราะห์คำขอโดยอัตโนมัติและแยกย่อยออกเป็นลำดับเชิงตรรกะโดยใช้ความสามารถในการให้เหตุผลของโมเดลที่เลือก เพื่อพิจารณาว่าข้อมูลใดที่จำเป็น API ใดที่จะเรียกใช้ และเมื่อใดที่ควรเรียกใช้เพื่อดำเนินการตามขั้นตอนหรือแก้ไขงาน ขณะนี้พร้อมให้บริการโดยทั่วไปแล้ว ตัวแทนสามารถวางแผนและดำเนินงานทางธุรกิจส่วนใหญ่ได้ ตั้งแต่การตอบคำถามลูกค้าเกี่ยวกับความพร้อมของผลิตภัณฑ์ไปจนถึงการรับคำสั่งซื้อ และนักพัฒนาไม่จำเป็นต้องคุ้นเคยกับการเรียนรู้ของเครื่อง การแจ้งวิศวกร ฝึกอบรมโมเดล หรือเชื่อมต่อระบบด้วยตนเอง และ Bedrock ดำเนินการทั้งหมดนี้อย่างปลอดภัยและเป็นส่วนตัว และลูกค้าอย่าง Druva และ Athene ก็ใช้สิ่งเหล่านี้เพื่อปรับปรุงความแม่นยำและความรวดเร็วในการพัฒนาแอปพลิเคชัน AI เชิงสร้างสรรค์ของพวกเขา
  • เปิดประสบการณ์ใหม่ ราวกันตกสำหรับ Amazon Bedrock เพื่อให้คุณสามารถใช้การป้องกันตามความต้องการกรณีการใช้งานของคุณและนโยบาย AI ที่รับผิดชอบ ลูกค้าต้องการให้แน่ใจว่าการโต้ตอบกับแอปพลิเคชัน AI ของตนนั้นปลอดภัย หลีกเลี่ยงภาษาที่เป็นพิษหรือไม่เหมาะสม คงความเกี่ยวข้องกับธุรกิจของตน และสอดคล้องกับนโยบาย AI ที่มีความรับผิดชอบ ด้วยราวกั้น ลูกค้าสามารถระบุหัวข้อที่ควรหลีกเลี่ยงได้ และ Amazon Bedrock จะมอบเฉพาะคำตอบที่ได้รับอนุมัติให้กับผู้ใช้สำหรับคำถามที่อยู่ในหมวดหมู่ที่ถูกจำกัดเหล่านั้นเท่านั้น ตัวอย่างเช่น สามารถตั้งค่าแอปพลิเคชันธนาคารออนไลน์เพื่อหลีกเลี่ยงการให้คำแนะนำด้านการลงทุน และลบเนื้อหาที่ไม่เหมาะสม (เช่น คำพูดแสดงความเกลียดชังและความรุนแรง) ในต้นปี 2024 ลูกค้าจะสามารถตรวจทานข้อมูลส่วนบุคคลที่สามารถระบุตัวตนได้ (PII) ในการตอบสนองแบบจำลองอีกด้วย ตัวอย่างเช่น หลังจากที่ลูกค้าโต้ตอบกับตัวแทนศูนย์บริการข้อมูล การสนทนาการบริการลูกค้ามักจะถูกสรุปเพื่อการเก็บบันทึก และรั้วสามารถลบ PII ออกจากข้อมูลสรุปเหล่านั้นได้ Guardrails สามารถใช้กับโมเดลต่างๆ ใน ​​Amazon Bedrock (รวมถึงโมเดลที่ได้รับการปรับแต่ง) และกับ Agents สำหรับ Amazon Bedrock เพื่อให้ลูกค้าสามารถนำระดับการป้องกันที่สม่ำเสมอมาสู่แอปพลิเคชัน AI ที่สร้างทั้งหมดของตนได้

ชั้นบนสุดของสแต็ก: นวัตกรรมที่ต่อเนื่องทำให้ผู้ใช้สามารถเข้าถึง AI เชิงสร้างสรรค์ได้มากขึ้น

ที่ชั้นบนสุดของสแต็กคือแอปพลิเคชันที่ใช้ประโยชน์จาก LLM และ FM อื่นๆ เพื่อให้คุณสามารถใช้ประโยชน์จาก AI เชิงสร้างสรรค์ในที่ทำงาน พื้นที่หนึ่งที่ generative AI กำลังเปลี่ยนแปลงเกมอยู่แล้วคือการเขียนโค้ด ปีที่แล้ว เราได้เปิดตัว Amazon CodeWhisperer ซึ่งช่วยให้คุณสร้างแอปพลิเคชันได้เร็วและปลอดภัยยิ่งขึ้นโดยการสร้างคำแนะนำโค้ดและคำแนะนำในแบบเกือบเรียลไทม์ ลูกค้าเช่น Accenture, Boeing, Bundesliga, The Cigna Group, Kone และ Warner Music Group กำลังใช้ CodeWhisperer เพื่อเพิ่มประสิทธิภาพการทำงานของนักพัฒนา และ Accenture ช่วยให้นักพัฒนาซอฟต์แวร์และผู้เชี่ยวชาญด้านไอทีของตนได้มากถึง 50,000 รายด้วย Amazon CodeWhisperer เราต้องการให้นักพัฒนาจำนวนมากที่สุดเท่าที่จะเป็นไปได้สามารถได้รับประโยชน์ด้านประสิทธิผลของ AI เชิงสร้างสรรค์ ซึ่งเป็นสาเหตุที่ CodeWhisperer เสนอคำแนะนำฟรีให้กับบุคคลทุกคน

อย่างไรก็ตาม แม้ว่าเครื่องมือการเขียนโค้ดของ AI จะช่วยทำให้ชีวิตของนักพัฒนาง่ายขึ้นได้มาก แต่ประโยชน์ด้านประสิทธิภาพการทำงานของพวกเขานั้นถูกจำกัดด้วยการขาดความรู้เกี่ยวกับฐานโค้ดภายใน, API ภายใน, ไลบรารี, แพ็คเกจ และคลาสต่างๆ วิธีหนึ่งที่จะคิดเกี่ยวกับเรื่องนี้ก็คือ หากคุณจ้างนักพัฒนารายใหม่ แม้ว่าพวกเขาจะเป็นระดับโลก พวกเขาก็จะไม่มีประสิทธิภาพในบริษัทของคุณจนกว่าพวกเขาจะเข้าใจแนวทางปฏิบัติและโค้ดที่ดีที่สุดของคุณ เครื่องมือเขียนโค้ดที่ขับเคลื่อนด้วย AI ในปัจจุบันก็เหมือนกับนักพัฒนาหน้าใหม่ เพื่อช่วยในเรื่องนี้ เราเพิ่งแสดงตัวอย่างใหม่ ความสามารถในการปรับแต่ง ใน Amazon CodeWhisperer ที่ใช้ประโยชน์จากฐานโค้ดภายในของลูกค้าอย่างปลอดภัยเพื่อให้คำแนะนำโค้ดที่เกี่ยวข้องและมีประโยชน์มากขึ้น ด้วยความสามารถนี้ CodeWhisperer จึงเป็นผู้เชี่ยวชาญ ธุรกิจ รหัสและให้คำแนะนำที่เกี่ยวข้องมากขึ้นเพื่อประหยัดเวลามากยิ่งขึ้น ในการศึกษาที่เราทำกับ Persistent ซึ่งเป็นบริษัทวิศวกรรมดิจิทัลระดับโลกและการปรับปรุงองค์กรให้ทันสมัย ​​เราพบว่าการปรับแต่งช่วยให้นักพัฒนาทำงานเสร็จได้เร็วกว่าความสามารถทั่วไปของ CodeWhisperer ถึง 28% ขณะนี้นักพัฒนาของบริษัทเทคโนโลยีด้านการดูแลสุขภาพสามารถขอให้ CodeWhisperer “นำเข้าภาพ MRI ที่เกี่ยวข้องกับรหัสลูกค้าและเรียกใช้ผ่านตัวแยกประเภทภาพ” เพื่อตรวจจับความผิดปกติ เนื่องจาก CodeWhisperer สามารถเข้าถึงฐานโค้ดได้ จึงสามารถให้คำแนะนำที่เกี่ยวข้องได้มากขึ้น ซึ่งรวมถึงตำแหน่งการนำเข้ารูปภาพ MRI และรหัสลูกค้า CodeWhisperer เก็บการปรับแต่งให้เป็นส่วนตัวโดยสมบูรณ์ และ FM ที่เกี่ยวข้องจะไม่ใช้เพื่อการฝึกอบรม เพื่อปกป้องทรัพย์สินทางปัญญาอันมีค่าของลูกค้า AWS เป็นผู้ให้บริการคลาวด์รายใหญ่เพียงรายเดียวที่มอบความสามารถเช่นนี้ให้กับทุกคน

เปิดประสบการณ์ใหม่ อเมซอน คิวผู้ช่วยที่ขับเคลื่อนด้วย AI เจนเนอเรชั่นซึ่งออกแบบมาเพื่อการทำงานโดยเฉพาะ

แน่นอนว่านักพัฒนาไม่ใช่คนเดียวที่ได้สัมผัสกับ generative AI—ผู้คนหลายล้านคนกำลังใช้แอปพลิเคชั่นแชท generative AI สิ่งที่ผู้ให้บริการในช่วงแรกๆ ทำในพื้นที่นี้น่าตื่นเต้นและมีประโยชน์อย่างยิ่งสำหรับผู้บริโภค แต่ในหลาย ๆ ด้าน พวกเขาไม่ค่อย "ทำงาน" ในที่ทำงาน ความรู้และความสามารถทั่วไปของพวกเขานั้นยอดเยี่ยม แต่พวกเขาไม่รู้จักบริษัท ข้อมูล ลูกค้า การดำเนินงาน หรือธุรกิจของคุณ นั่นจำกัดจำนวนเงินที่พวกเขาสามารถช่วยคุณได้ พวกเขายังไม่รู้มากนักเกี่ยวกับบทบาทของคุณ เช่น งานอะไร คุณทำงานกับใคร ข้อมูลที่คุณใช้ และสิ่งที่คุณเข้าถึงได้ ข้อจำกัดเหล่านี้เป็นสิ่งที่เข้าใจได้เนื่องจากผู้ช่วยเหล่านี้ไม่สามารถเข้าถึงข้อมูลส่วนตัวของบริษัทของคุณได้ และไม่ได้รับการออกแบบมาเพื่อให้ตรงตามข้อกำหนดด้านความเป็นส่วนตัวและความปลอดภัยของข้อมูลที่บริษัทจำเป็นต้องให้สิทธิ์ในการเข้าถึงนี้ เป็นเรื่องยากที่จะรักษาความปลอดภัยหลังจากเหตุการณ์ดังกล่าว และคาดหวังว่ามันจะทำงานได้ดี เราคิดว่าเรามีวิธีที่ดีกว่า ซึ่งจะช่วยให้ทุกคนในทุกองค์กรสามารถใช้ generative AI ได้อย่างปลอดภัยในการทำงานในแต่ละวัน

Wเรารู้สึกตื่นเต้นที่จะแนะนำ Amazon Q ผู้ช่วยที่ขับเคลื่อนด้วย AI รูปแบบใหม่ซึ่งมีไว้สำหรับการทำงานโดยเฉพาะและสามารถปรับให้เข้ากับธุรกิจของคุณได้ Q สามารถช่วยให้คุณได้รับคำตอบที่รวดเร็วและเกี่ยวข้องสำหรับคำถามเร่งด่วน แก้ไขปัญหา สร้างเนื้อหา และดำเนินการโดยใช้ข้อมูลและความเชี่ยวชาญที่พบในที่เก็บข้อมูล รหัส และระบบองค์กรของบริษัทของคุณ เมื่อคุณแชทกับ Amazon Q จะให้ข้อมูลและคำแนะนำที่เกี่ยวข้องทันทีเพื่อช่วยปรับปรุงงาน เร่งการตัดสินใจ และช่วยจุดประกายความคิดสร้างสรรค์และนวัตกรรมในที่ทำงาน เราได้สร้าง Amazon Q ให้มีความปลอดภัยและเป็นส่วนตัว และสามารถเข้าใจและเคารพข้อมูลประจำตัว บทบาท และสิทธิ์ที่มีอยู่ของคุณ และใช้ข้อมูลนี้เพื่อปรับแต่งการโต้ตอบให้เป็นส่วนตัว หากผู้ใช้ไม่มีสิทธิ์ในการเข้าถึงข้อมูลบางอย่างโดยไม่มี Q พวกเขาก็ไม่สามารถเข้าถึงได้โดยใช้ Q เช่นกัน เราได้ออกแบบ Amazon Q ให้ตรงตามข้อกำหนดของลูกค้าองค์กรที่เข้มงวดตั้งแต่วันแรก โดยจะไม่มีการใช้เนื้อหาใดในการปรับปรุงโมเดลพื้นฐาน

Amazon Q คือผู้ช่วยผู้เชี่ยวชาญของคุณ สำหรับการสร้างบน AWS: เราได้ฝึกอบรม Amazon Q เกี่ยวกับความรู้และประสบการณ์ของ AWS ที่สั่งสมมาเป็นเวลา 17 ปี เพื่อให้สามารถเปลี่ยนแปลงวิธีการสร้าง ปรับใช้ และใช้งานแอปพลิเคชันและปริมาณงานบน AWS ได้ Amazon Q มีอินเทอร์เฟซการแชทใน AWS Management Console และเอกสารประกอบ, IDE ของคุณ (ผ่าน CodeWhisperer) และห้องแชทของทีมของคุณบน Slack หรือแอปแชทอื่นๆ Amazon Q สามารถช่วยให้คุณสำรวจความสามารถใหม่ๆ ของ AWS เริ่มต้นได้เร็วขึ้น เรียนรู้เทคโนโลยีที่ไม่คุ้นเคย โซลูชันทางสถาปัตยกรรม การแก้ไขปัญหา อัปเกรด และอื่นๆ อีกมากมาย —เป็นผู้เชี่ยวชาญในรูปแบบ AWS ที่ออกแบบมาอย่างดี แนวทางปฏิบัติที่ดีที่สุด เอกสารประกอบ และการนำโซลูชันไปใช้ นี่คือตัวอย่างบางส่วนของสิ่งที่คุณสามารถทำได้กับผู้ช่วยผู้เชี่ยวชาญ AWS ใหม่ของคุณ:

  • รับคำตอบและคำแนะนำที่ชัดเจนเกี่ยวกับความสามารถ บริการ และโซลูชันของ AWS: ขอให้ Amazon Q “บอกฉันเกี่ยวกับตัวแทนสำหรับ Amazon Bedrock” แล้ว Q จะให้คำอธิบายเกี่ยวกับคุณสมบัติพร้อมลิงก์ไปยังเนื้อหาที่เกี่ยวข้อง คุณยังสามารถถาม Amazon Q ได้ทุกคำถามเกี่ยวกับวิธีการทำงานของบริการ AWS (เช่น “ขีดจำกัดการปรับขนาดบนตาราง DynamoDB คืออะไร” “พื้นที่เก็บข้อมูลที่มีการจัดการ Redshift คืออะไร”) หรือวิธีออกแบบสถาปัตยกรรมโซลูชันต่างๆ ให้ดีที่สุด ( “แนวทางปฏิบัติที่ดีที่สุดสำหรับการสร้างสถาปัตยกรรมที่ขับเคลื่อนด้วยเหตุการณ์คืออะไร?”) และ Amazon Q จะรวบรวมคำตอบที่กระชับและอ้างอิง (และเชื่อมโยงไปยัง) แหล่งที่มาของมันเสมอ
  • เลือกบริการ AWS ที่ดีที่สุดสำหรับกรณีการใช้งานของคุณ และเริ่มต้นอย่างรวดเร็ว: ถาม Amazon Q “วิธีสร้างเว็บแอปบน AWS มีวิธีใดบ้าง ” และจะแสดงรายการบริการที่เป็นไปได้เช่น AWS ขยาย, AWS แลมบ์ดาและ Amazon EC2 ด้วยข้อดีของแต่ละคน จากนั้น คุณสามารถจำกัดตัวเลือกให้แคบลงได้โดยช่วยให้ Q เข้าใจความต้องการ ความชอบ และข้อจำกัดของคุณ (เช่น “ข้อใดต่อไปนี้จะดีที่สุดถ้าฉันต้องการใช้คอนเทนเนอร์” หรือ “ฉันควรใช้ฐานข้อมูลเชิงสัมพันธ์หรือไม่เชิงสัมพันธ์? "). จบด้วย “ฉันจะเริ่มต้นอย่างไร” และ Amazon Q จะสรุปขั้นตอนพื้นฐานบางส่วนและนำคุณไปสู่แหล่งข้อมูลเพิ่มเติม
  • เพิ่มประสิทธิภาพทรัพยากรคอมพิวเตอร์ของคุณ: Amazon Q สามารถช่วยคุณเลือกอินสแตนซ์ Amazon EC2 ได้ หากคุณขอให้ “ช่วยฉันค้นหาอินสแตนซ์ EC2 ที่เหมาะสมเพื่อปรับใช้ปริมาณงานการเข้ารหัสวิดีโอสำหรับแอปเกมของฉันที่มีประสิทธิภาพสูงสุด” Q จะให้รายชื่อกลุ่มอินสแตนซ์พร้อมเหตุผลสำหรับข้อเสนอแนะแต่ละข้อ และคุณสามารถถามคำถามติดตามผลกี่ข้อก็ได้เพื่อช่วยค้นหาตัวเลือกที่ดีที่สุดสำหรับปริมาณงานของคุณ
  • รับความช่วยเหลือในการดีบัก ทดสอบ และเพิ่มประสิทธิภาพโค้ดของคุณ: หากคุณพบข้อผิดพลาดขณะเขียนโค้ดใน IDE คุณสามารถขอให้ Amazon Q ช่วยได้โดยพูดว่า “โค้ดของฉันมีข้อผิดพลาด IO คุณช่วยแก้ไขได้ไหม” และ Q จะสร้างโค้ดให้คุณ หากคุณชอบคำแนะนำนี้ คุณสามารถขอให้ Amazon Q เพิ่มการแก้ไขให้กับแอปพลิเคชันของคุณได้ เนื่องจาก Amazon Q อยู่ใน IDE ของคุณ จึงเข้าใจโค้ดที่คุณกำลังดำเนินการอยู่ และรู้ว่าจะแทรกการแก้ไขไว้ที่ใด Amazon Q ยังสามารถสร้างการทดสอบหน่วย (“เขียนการทดสอบหน่วยสำหรับฟังก์ชันที่เลือก”) ที่สามารถแทรกลงในโค้ดของคุณและคุณสามารถเรียกใช้ได้ สุดท้ายนี้ Amazon Q สามารถบอกวิธีเพิ่มประสิทธิภาพโค้ดของคุณเพื่อประสิทธิภาพที่สูงขึ้นได้ ขอให้ Q “เพิ่มประสิทธิภาพการสืบค้น DynamoDB ที่ฉันเลือก” และจะใช้ความเข้าใจโค้ดของคุณเพื่อให้คำแนะนำในภาษาที่เป็นธรรมชาติเกี่ยวกับสิ่งที่ต้องแก้ไขพร้อมกับโค้ดที่แนบมาซึ่งคุณสามารถนำไปใช้ได้ในคลิกเดียว
  • วินิจฉัยและแก้ไขปัญหา: หากคุณพบปัญหาใน AWS Management Console เช่น ข้อผิดพลาดในการอนุญาต EC2 หรือข้อผิดพลาดในการกำหนดค่า Amazon S3 คุณสามารถกดปุ่ม “แก้ไขปัญหาด้วย Amazon Q” จากนั้นระบบจะใช้ความเข้าใจเกี่ยวกับประเภทข้อผิดพลาดและบริการที่มีข้อผิดพลาดอยู่ เพื่อให้คำแนะนำในการแก้ไข คุณยังสามารถขอให้ Amazon Q แก้ไขปัญหาเครือข่ายของคุณได้ (เช่น “เหตุใดฉันจึงไม่สามารถเชื่อมต่อกับ EC2 instance ของฉันโดยใช้ SSH ได้”) และ Q จะวิเคราะห์การกำหนดค่าตั้งแต่ต้นทางถึงปลายทางของคุณและให้การวินิจฉัย (เช่น “อินสแตนซ์นี้ ดูเหมือนว่าจะอยู่ในซับเน็ตส่วนตัว ดังนั้นอาจจำเป็นต้องสร้างการเข้าถึงแบบสาธารณะ”)
  • เพิ่มฐานโค้ดใหม่ในเวลาอันรวดเร็ว: เมื่อคุณแชทกับ Amazon Q ใน IDE ของคุณ มันจะรวมความเชี่ยวชาญในการสร้างซอฟต์แวร์เข้ากับความเข้าใจในโค้ดของคุณ ซึ่งเป็นการจับคู่ที่ทรงพลัง! ก่อนหน้านี้ หากคุณรับช่วงต่อโปรเจ็กต์จากบุคคลอื่น หรือคุณยังใหม่กับทีม คุณอาจต้องใช้เวลาหลายชั่วโมงในการตรวจสอบโค้ดและเอกสารประกอบด้วยตนเอง เพื่อทำความเข้าใจวิธีการทำงานและการทำงานของมัน ในตอนนี้ เนื่องจาก Amazon Q เข้าใจโค้ดใน IDE ของคุณ คุณจึงสามารถขอให้ Amazon Q อธิบายโค้ด (“ให้คำอธิบายว่าแอปพลิเคชันนี้ทำอะไรและทำงานอย่างไร”) และ Q จะให้รายละเอียดแก่คุณ เช่น บริการใดบ้างที่ การใช้โค้ดและฟังก์ชันต่างๆ ที่ทำ (เช่น Q อาจตอบประมาณว่า “แอปพลิเคชันนี้กำลังสร้างระบบตั๋วสนับสนุนขั้นพื้นฐานโดยใช้ Python Flask และ AWS Lambda” และอธิบายต่อไปถึงความสามารถหลักแต่ละประการ วิธีการนำไปใช้ และอีกมากมาย)
  • ล้างฟีเจอร์ที่ค้างอยู่ของคุณเร็วขึ้น: คุณยังสามารถขอให้ Amazon Q ช่วยแนะนำคุณและทำให้กระบวนการมากมายตั้งแต่ต้นทางถึงปลายทางในการเพิ่มคุณสมบัติให้กับแอปพลิเคชันของคุณเป็นไปโดยอัตโนมัติ อเมซอน CodeCatalystบริการพัฒนาซอฟต์แวร์แบบครบวงจรสำหรับทีมของเรา ในการดำเนินการนี้ คุณเพียงแค่มอบหมายงาน Backlog ให้กับ Q จากรายการปัญหาของคุณ เช่นเดียวกับที่คุณทำกับเพื่อนร่วมทีม และ Q จะสร้างแผนทีละขั้นตอนสำหรับวิธีสร้างและใช้งานฟีเจอร์นี้ เมื่อคุณอนุมัติแผนแล้ว Q จะเขียนโค้ดและนำเสนอการเปลี่ยนแปลงที่แนะนำแก่คุณเพื่อเป็นการทบทวนโค้ด คุณสามารถร้องขอการทำงานซ้ำ (หากจำเป็น) อนุมัติและ/หรือปรับใช้!
  • อัปเกรดโค้ดของคุณในเวลาอันสั้น: นักพัฒนาส่วนใหญ่ใช้เวลาเพียงเศษเสี้ยวของเวลาในการเขียนโค้ดใหม่และสร้างแอปพลิเคชันใหม่เท่านั้น พวกเขาใช้เวลาส่วนใหญ่ไปกับเรื่องที่เจ็บปวดและน่าเบื่อ เช่น การบำรุงรักษาและการอัพเกรด อัปเกรดเวอร์ชันภาษา ลูกค้าจำนวนมากยังคงใช้ Java เวอร์ชันเก่าต่อไป เนื่องจากต้องใช้เวลาหลายเดือนหรือหลายปี และต้องใช้เวลาหลายพันชั่วโมงในการอัพเกรดสำหรับนักพัฒนา การเลื่อนการดำเนินการนี้มีค่าใช้จ่ายและความเสี่ยงที่แท้จริง คุณจะพลาดการปรับปรุงประสิทธิภาพและเสี่ยงต่อปัญหาด้านความปลอดภัย เราคิดว่า Amazon Q สามารถเป็นผู้เปลี่ยนเกมได้ที่นี่ และรู้สึกตื่นเต้น การแปลงรหัส Amazon Qซึ่งเป็นฟีเจอร์ที่สามารถขจัดภาระหนักๆ นี้ออกไปได้มาก และลดเวลาที่ใช้ในการอัปเกรดแอปพลิเคชันจากหลายวันเหลือเพียงนาทีเดียว คุณเพียงแค่เปิดโค้ดที่คุณต้องการอัปเดตใน IDE ของคุณ และขอให้ Amazon Q “/แปลง” โค้ดของคุณ Amazon Q จะวิเคราะห์ซอร์สโค้ดทั้งหมดของแอปพลิเคชัน สร้างโค้ดในภาษาและเวอร์ชันเป้าหมาย และดำเนินการทดสอบ ช่วยให้คุณทราบถึงความปลอดภัยและการปรับปรุงประสิทธิภาพของเวอร์ชันภาษาล่าสุด เมื่อเร็วๆ นี้ ทีมนักพัฒนา Amazon กลุ่มเล็กๆ ใช้ Amazon Q Code Transformation เพื่ออัปเกรดแอปพลิเคชันที่ใช้งานจริง 1,000 รายการจาก Java 8 เป็น Java 17 ในเวลาเพียงสองวัน เวลาเฉลี่ยต่อการสมัครน้อยกว่า 10 นาที ทุกวันนี้ Amazon Q Code Transformation ทำการอัปเกรดภาษา Java จาก Java 8 หรือ Java 11 เป็น Java 17 ถัดไป (และเร็วๆ นี้) คือความสามารถในการแปลง .NET Framework เป็น .NET ข้ามแพลตฟอร์ม (พร้อมการเปลี่ยนแปลงเพิ่มเติมที่จะตามมาในอนาคต) .

Amazon Q คือผู้เชี่ยวชาญด้านธุรกิจของคุณ: คุณสามารถเชื่อมต่อ Amazon Q กับข้อมูลทางธุรกิจ สารสนเทศ และระบบของคุณ เพื่อให้สามารถสังเคราะห์ทุกอย่างและให้ความช่วยเหลือที่ได้รับการปรับแต่งเพื่อช่วยผู้คนในการแก้ปัญหา สร้างเนื้อหา และดำเนินการที่เกี่ยวข้องกับธุรกิจของคุณ การนำ Amazon Q มาสู่ธุรกิจของคุณเป็นเรื่องง่าย มีตัวเชื่อมต่อในตัวมากกว่า 40 รายการกับระบบองค์กรยอดนิยม เช่น Amazon S3, Microsoft 365, Salesforce, ServiceNow, Slack, Atlassian, Gmail, Google Drive และ Zendesk นอกจากนี้ยังสามารถเชื่อมต่อกับอินทราเน็ตภายใน วิกิ และเรียกใช้หนังสือได้ และด้วย Amazon Q SDK คุณสามารถสร้างการเชื่อมต่อกับแอปพลิเคชันภายในใดก็ได้ที่คุณต้องการ ชี้ Amazon Q ไปที่พื้นที่เก็บข้อมูลเหล่านี้ แล้วมันจะ "เพิ่มพูน" ในธุรกิจของคุณ โดยรวบรวมและทำความเข้าใจข้อมูลเชิงความหมายที่ทำให้บริษัทของคุณมีเอกลักษณ์เฉพาะตัว จากนั้น คุณจะได้รับเว็บแอปพลิเคชัน Amazon Q ที่เป็นมิตรและเรียบง่ายของตัวเอง เพื่อให้พนักงานทั่วทั้งบริษัทของคุณสามารถโต้ตอบกับอินเทอร์เฟซการสนทนาได้ Amazon Q ยังเชื่อมต่อกับผู้ให้บริการข้อมูลประจำตัวของคุณเพื่อทำความเข้าใจผู้ใช้ บทบาทของพวกเขา และระบบที่พวกเขาได้รับอนุญาตให้เข้าถึง เพื่อให้ผู้ใช้สามารถถามคำถามโดยละเอียดและเหมาะสมที่สุด และรับผลลัพธ์ที่ได้รับการปรับแต่งซึ่งมีเฉพาะข้อมูลที่พวกเขาได้รับอนุญาตให้ดูเท่านั้น Amazon Q สร้างคำตอบและข้อมูลเชิงลึกที่แม่นยำและตรงตามเนื้อหาและความรู้ที่คุณให้ไว้ และคุณสามารถจำกัดหัวข้อที่ละเอียดอ่อน บล็อกคำสำคัญ หรือกรองคำถามและคำตอบที่ไม่เหมาะสมออกไปได้ นี่คือตัวอย่างบางส่วนของสิ่งที่คุณสามารถทำได้กับผู้ช่วยผู้เชี่ยวชาญคนใหม่ของธุรกิจของคุณ:

  • รับคำตอบที่ชัดเจนและเกี่ยวข้องอย่างยิ่งโดยพิจารณาจากข้อมูลทางธุรกิจของคุณ: พนักงานสามารถถาม Amazon Q เกี่ยวกับสิ่งที่พวกเขาอาจต้องค้นหาจากแหล่งที่มาทุกประเภทก่อนหน้านี้ ถาม “แนวทางล่าสุดในการใช้โลโก้คืออะไร” หรือ “ฉันจะสมัครบัตรเครดิตบริษัทได้อย่างไร” จากนั้น Amazon Q จะสังเคราะห์เนื้อหาที่เกี่ยวข้องทั้งหมดที่พบ และกลับมาพร้อมกับคำตอบที่รวดเร็วพร้อมลิงก์ไปยังข้อมูลที่เกี่ยวข้อง แหล่งที่มา (เช่น พอร์ทัลแบรนด์และที่เก็บโลโก้ นโยบาย T&E ของบริษัท และการสมัครบัตร)
  • ปรับปรุงการสื่อสารในแต่ละวัน: เพียงแค่ถาม Amazon Q ก็สามารถสร้างเนื้อหา (“สร้างบล็อกโพสต์และพาดหัวข่าวโซเชียลมีเดียสามหัวข้อที่ประกาศผลิตภัณฑ์ที่อธิบายไว้ในเอกสารนี้”) สร้างบทสรุปสำหรับผู้บริหาร (“เขียนบทสรุปของบันทึกการประชุมของเราพร้อมรายการหัวข้อย่อยของรายการดำเนินการ” ) ให้ข้อมูลอัปเดตทางอีเมล (“ร่างอีเมลที่เน้นโปรแกรมการฝึกอบรมในไตรมาสที่ 3 ของเราสำหรับลูกค้าในอินเดีย”) และช่วยจัดโครงสร้างการประชุม (“สร้างวาระการประชุมเพื่อพูดคุยเกี่ยวกับรายงานความพึงพอใจของลูกค้าล่าสุด”)
  • ทำงานให้เสร็จสิ้น: Amazon Q สามารถช่วยทำงานบางอย่างให้เสร็จสิ้นได้ โดยลดระยะเวลาที่พนักงานใช้กับงานซ้ำๆ เช่น ยื่นตั๋ว ขอให้ Amazon Q “สรุปความคิดเห็นของลูกค้าเกี่ยวกับข้อเสนอราคาใหม่ใน Slack” จากนั้นขอให้ Q นำข้อมูลนั้นไปเปิดตั๋วใน Jira เพื่ออัปเดตทีมการตลาด คุณสามารถขอให้ Q “สรุปบันทึกการโทรนี้” จากนั้น “เปิดกรณีใหม่สำหรับลูกค้า A ใน Salesforce” Amazon Q รองรับเครื่องมือการทำงานอัตโนมัติยอดนิยมอื่นๆ เช่น Zendesk และ Service Now

Amazon Q อยู่ใน Amazon QuickSight: กับ Amazon Q ใน QuickSightซึ่งเป็นบริการข่าวกรองธุรกิจของ AWS ผู้ใช้สามารถถามคำถามแดชบอร์ด เช่น “เหตุใดจำนวนคำสั่งซื้อจึงเพิ่มขึ้นในเดือนที่แล้ว” และรับการแสดงภาพและคำอธิบายของปัจจัยที่มีอิทธิพลต่อการเพิ่มขึ้น และนักวิเคราะห์สามารถใช้ Amazon Q เพื่อลดเวลาที่ใช้ในการสร้างแดชบอร์ดจากวันเหลือเป็นนาทีด้วยข้อความแจ้งง่ายๆ เช่น “แสดงยอดขายตามภูมิภาคต่อเดือนเป็นแผนภูมิแท่งแบบซ้อน” Q กลับมาพร้อมกับไดอะแกรมนั้น และคุณสามารถเพิ่มลงในแดชบอร์ดได้อย่างง่ายดายหรือสนทนาเพิ่มเติมกับ Q เพื่อปรับแต่งการแสดงภาพ (เช่น "เปลี่ยนแผนภูมิแท่งเป็นไดอะแกรม Sankey" หรือ "แสดงประเทศแทนภูมิภาค") Amazon Q ใน QuickSight ยังช่วยให้ใช้แดชบอร์ดที่มีอยู่ได้ง่ายขึ้นเพื่อแจ้งผู้มีส่วนได้ส่วนเสียทางธุรกิจ กลั่นกรองข้อมูลเชิงลึกที่สำคัญ และทำให้การตัดสินใจง่ายขึ้นโดยใช้เรื่องราวข้อมูล ตัวอย่างเช่น ผู้ใช้อาจแจ้งให้ Amazon Q “สร้างเรื่องราวเกี่ยวกับการเปลี่ยนแปลงของธุรกิจในช่วงเดือนที่ผ่านมาเพื่อการตรวจสอบธุรกิจโดยมีผู้นำระดับสูง” และในไม่กี่วินาที Amazon Q มอบเรื่องราวที่ขับเคลื่อนด้วยข้อมูลซึ่งมีรูปลักษณ์ที่น่าดึงดูดและเป็น ปรับแต่งได้อย่างสมบูรณ์ สามารถแชร์เรื่องราวเหล่านี้ได้อย่างปลอดภัยทั่วทั้งองค์กร เพื่อช่วยจัดระเบียบผู้มีส่วนได้ส่วนเสียและขับเคลื่อนการตัดสินใจได้ดีขึ้น

Amazon Q อยู่ใน Amazon Connect: ใน Amazon Connect ซึ่งเป็นบริการศูนย์ติดต่อของเรา Amazon Q ช่วยให้ตัวแทนฝ่ายบริการลูกค้าของคุณให้บริการลูกค้าได้ดียิ่งขึ้น Amazon Q ใช้ประโยชน์จากคลังความรู้ที่ตัวแทนของคุณมักใช้เพื่อรับข้อมูลสำหรับลูกค้า จากนั้นเจ้าหน้าที่สามารถแชทกับ Amazon Q ได้โดยตรงใน Connect เพื่อรับคำตอบที่ช่วยให้พวกเขาตอบสนองต่อคำขอของลูกค้าได้รวดเร็วยิ่งขึ้นโดยไม่จำเป็นต้องค้นหาผ่านเอกสารด้วยตนเอง และถึงแม้ว่าการแชทกับ Amazon Q เพื่อรับคำตอบที่รวดเร็วเป็นพิเศษนั้นยอดเยี่ยม แต่ในการบริการลูกค้าก็ไม่มีอะไรเร็วเกินไป นั่นเป็นเหตุผล Amazon Q ในการเชื่อมต่อ เปลี่ยนการสนทนาสดกับลูกค้ากับตัวแทนให้เป็นข้อความแจ้ง และให้คำตอบที่เป็นไปได้แก่ตัวแทน การดำเนินการที่แนะนำ และลิงก์ไปยังแหล่งข้อมูลโดยอัตโนมัติ ตัวอย่างเช่น Amazon Q สามารถตรวจจับได้ว่าลูกค้ากำลังติดต่อบริษัทรถเช่าเพื่อเปลี่ยนแปลงการจอง สร้างการตอบกลับสำหรับตัวแทนเพื่อสื่อสารอย่างรวดเร็วว่านโยบายค่าธรรมเนียมการเปลี่ยนแปลงของบริษัทนำไปใช้อย่างไร และแนะนำตัวแทนผ่านขั้นตอนที่จำเป็นในการอัปเดต การจอง.

Amazon Q อยู่ใน AWS Supply Chain (เร็วๆ นี้): ใน AWS Supply Chain ซึ่งเป็นบริการข้อมูลเชิงลึกด้านห่วงโซ่อุปทานของเรา Amazon Q ช่วยให้ผู้วางแผนด้านอุปสงค์และอุปทาน ผู้จัดการสินค้าคงคลัง และคู่ค้าเพิ่มประสิทธิภาพห่วงโซ่อุปทานของตนโดยการสรุปและเน้นย้ำถึงความเสี่ยงในการสต๊อกสินค้าหรือสินค้าล้นสต็อกที่อาจเกิดขึ้น และแสดงภาพสถานการณ์เพื่อแก้ไขปัญหา ผู้ใช้สามารถถามคำถาม Amazon Q ว่า "อะไร" "ทำไม" และ "จะเกิดอะไรขึ้นถ้า" เกี่ยวกับข้อมูลห่วงโซ่อุปทานของตน และสนทนาผ่านสถานการณ์ที่ซับซ้อนและการแลกเปลี่ยนระหว่างการตัดสินใจในห่วงโซ่อุปทานที่แตกต่างกัน ตัวอย่างเช่น ลูกค้าอาจถามว่า “อะไรทำให้เกิดความล่าช้าในการจัดส่งของฉัน และฉันจะเร่งความเร็วได้อย่างไร” ซึ่ง Amazon Q อาจตอบกลับว่า “90% ของคำสั่งซื้อของคุณอยู่บนชายฝั่งตะวันออก และพายุใหญ่ในภาคตะวันออกเฉียงใต้ทำให้เกิดความล่าช้า 24 ชั่วโมง หากคุณจัดส่งไปที่ท่าเรือนิวยอร์กแทนไมอามี คุณจะเร่งการจัดส่งและลดต้นทุนลง 50%”

ลูกค้าของเรานำ AI เชิงสร้างสรรค์ไปใช้อย่างรวดเร็ว พวกเขากำลังฝึกอบรมโมเดลที่ก้าวล้ำบน AWS พวกเขากำลังพัฒนาแอปพลิเคชัน AI เชิงสร้างสรรค์ด้วยความเร็วเป็นประวัติการณ์โดยใช้ Amazon Bedrock และพวกเขากำลังปรับใช้แอปพลิเคชันที่เปลี่ยนแปลงเกมในองค์กรของตน เช่น Amazon Q ด้วยการประกาศล่าสุดของเรา AWS กำลังนำประสิทธิภาพ ทางเลือก และนวัตกรรมมาสู่ลูกค้าทุกชั้นของสแต็ก ผลกระทบที่รวมกันของความสามารถทั้งหมดที่เรามอบให้ที่ re:Invent ถือเป็นก้าวสำคัญสู่การบรรลุเป้าหมายที่น่าตื่นเต้นและมีความหมาย: เรากำลังทำให้ generative AI เข้าถึงได้สำหรับลูกค้าทุกขนาดและความสามารถทางเทคนิค เพื่อให้พวกเขาสามารถคิดค้นสิ่งใหม่ ๆ และเปลี่ยนแปลงสิ่งที่ เป็นไปได้.

แหล่งข้อมูล


เกี่ยวกับผู้เขียน

สวามี ศิวะสุบรามาเนียน เป็นรองประธานฝ่ายข้อมูลและการเรียนรู้ของเครื่องที่ AWS ในบทบาทนี้ Swami จะดูแลบริการ AWS Database, Analytics และ AI & Machine Learning ทั้งหมด ภารกิจของทีมของเขาคือการช่วยให้องค์กรต่างๆ นำข้อมูลของตนไปใช้งานด้วยโซลูชันข้อมูลแบบครบวงจรที่สมบูรณ์เพื่อจัดเก็บ เข้าถึง วิเคราะห์ แสดงภาพ และคาดการณ์

จุด_img

ข่าวกรองล่าสุด

จุด_img

แชทกับเรา

สวัสดี! ฉันจะช่วยคุณได้อย่างไร?