این پست با آنتونی مدیروس، مدیر مهندسی راه حل ها و معماری برای هوش مصنوعی آمریکای شمالی، و بلیک سانتچی، مدیر هوش تجاری، از اشنایدر الکتریک نوشته شده است. از دیگر کارشناسان اشنایدر الکتریک می توان به جسی میلر، سومیک چاودری، شاسوات باهولگاونکار، دیوید واتکینز، مارک کارلسون و باربارا اسلکزکوفسکی اشاره کرد.
سیستم های برنامه ریزی منابع سازمانی (ERP) توسط شرکت ها برای مدیریت چندین عملکرد تجاری مانند حسابداری، فروش یا مدیریت سفارش در یک سیستم استفاده می شود. به ویژه، آنها به طور معمول برای ذخیره اطلاعات مربوط به حساب های مشتری استفاده می شوند. سازمانهای مختلف در یک شرکت ممکن است از سیستمهای ERP مختلف استفاده کنند و ادغام آنها یک چالش فنی پیچیده در مقیاس است که به دانش خاص دامنه نیاز دارد.
اشنایدر الکتریک پیشرو در تحول دیجیتال مدیریت انرژی و اتوماسیون صنعتی است. اشنایدر الکتریک برای برآورده کردن بهترین نیازهای مشتریان خود باید پیوندهای بین حساب های مشتریان مرتبط را در سیستم های ERP خود پیگیری کند. همانطور که پایگاه مشتریان آنها رشد می کند، مشتریان جدید روزانه اضافه می شوند و تیم های حساب آنها باید به صورت دستی این مشتریان جدید را مرتب کرده و آنها را به نهاد اصلی والدین مرتبط کنند.
تصمیم پیوند بر اساس جدیدترین اطلاعات موجود در اینترنت یا رسانه ها است و ممکن است تحت تأثیر خریدهای اخیر، اخبار بازار یا ساختار مجدد بخش قرار گیرد. یک مثال از پیوند دادن حساب، شناسایی رابطه بین آمازون و شرکت تابعه آن، Whole Foods Market [منبع].
اشنایدر الکتریک در حال استقرار مدلهای زبان بزرگ برای تواناییهایشان در پاسخگویی به سؤالات در حوزههای مختلف دانش است، تاریخی که این مدل آموزش داده شده، دانش آن را محدود میکند. آنها این چالش را با استفاده از یک مدل زبان بزرگ منبع باز Retriever-Augmented Generation که در دسترس است، حل کردند Amazon SageMaker JumpStart برای پردازش مقادیر زیادی از دانش بیرونی استخراج شده و نشان دادن روابط شرکتی یا عمومی در بین سوابق ERP.
در اوایل سال 2023، زمانی که اشنایدر الکتریک تصمیم گرفت بخشی از فرآیند پیوند حساب های خود را با استفاده از هوش مصنوعی (AI) خودکار کند، این شرکت با آزمایشگاه راه حل های یادگیری ماشین AWS (MLSL) همکاری کرد. با تخصص MLSL در مشاوره و اجرای ML، اشنایدر الکتریک توانست یک معماری هوش مصنوعی ایجاد کند که تلاش دستی در جریان کار پیوند آنها را کاهش دهد و دسترسی سریعتری به دادهها را به تیمهای تحلیلی پاییندستی خود ارائه دهد.
هوش مصنوعی مولد
هوش مصنوعی مولد و مدلهای زبان بزرگ (LLM) روشی را که سازمانهای تجاری قادر به حل چالشهای پیچیده سنتی مربوط به پردازش و درک زبان طبیعی هستند تغییر میدهند. برخی از مزایای ارائه شده توسط LLM عبارتند از توانایی درک بخش های بزرگ متن و پاسخ به سوالات مرتبط با تولید پاسخ های شبیه انسان. AWS با در دسترس قرار دادن گزینه های زیادی از طریق Amazon SageMaker JumpStart، آزمایش و تولید بارهای کاری LLM را برای مشتریان آسان می کند. بستر آمازونو آمازون تایتان.
کسب دانش خارجی
LLM ها به دلیل توانایی خود در فشرده سازی دانش بشری شناخته شده اند و توانایی های قابل توجهی در پاسخ به سؤالات در حوزه های مختلف دانش نشان داده اند، اما دانش آنها در تاریخ آموزش مدل محدود شده است. ما این بریدگی اطلاعات را با جفت کردن LLM با یک API جستجوی Google برای ارائه یک LLM تقویتشده بازیابی قدرتمند (RAG) که چالشهای اشنایدر الکتریک را برطرف میکند، برطرف میکنیم. RAG قادر است مقادیر زیادی از دانش خارجی استخراج شده از جستجوی Google را پردازش کند و روابط شرکتی یا عمومی را در بین سوابق ERP به نمایش بگذارد.
به مثال زیر مراجعه کنید:
سوال: شرکت مادر وان مدیکال کیست؟
پرس و جو گوگل: "یک شرکت مادر پزشکی" → اطلاعات → LLM
پاسخ: وان مدیکال، یکی از شرکت های تابعه آمازون…
مثال قبلی (برگرفته از پایگاه داده مشتریان اشنایدر الکتریک) مربوط به خریدی است که در فوریه 2023 اتفاق افتاد و بنابراین به دلیل قطع دانش به تنهایی توسط LLM دستگیر نمی شود. تقویت LLM با جستجوی Google به روزترین اطلاعات را تضمین می کند.
مدل Flan-T5
در آن پروژه از مدل Flan-T5-XXL استفاده کردیم Flan-T5 خانواده مدل
مدل های Flan-T5 به صورت دستورالعمل تنظیم شده اند و بنابراین قادر به انجام وظایف مختلف NLP صفر شات هستند. در کار پایین دستی ما، نیازی به گنجاندن حجم وسیعی از دانش جهانی نبود، بلکه در پاسخ به سؤال با توجه به متنی از متون ارائه شده از طریق نتایج جستجو، به خوبی عمل میکردیم، و بنابراین، مدل T11 با پارامترهای 5B عملکرد خوبی داشت.
JumpStart استقرار راحت این خانواده مدل را از طریق فراهم می کند Amazon SageMaker Studio و SageMaker SDK. این شامل Flan-T5 Small، Flan-T5 Base، Flan-T5 Large، Flan-T5 XL و Flan-T5 XXL است. علاوه بر این، JumpStart چند نسخه از Flan-T5 XXL را در سطوح مختلف کوانتیزاسیون ارائه می دهد. ما Flan-T5-XXL را برای استفاده از استنتاج به نقطه پایانی مستقر کردیم آمازون SageMaker Studio Jumpstart.
بازیابی Augmented LLM با LangChain
LangChain یک چارچوب محبوب و در حال رشد سریع است که امکان توسعه برنامه های کاربردی با LLM را فراهم می کند. بر اساس مفهوم است زنجیر، که ترکیبی از اجزای مختلف هستند که برای بهبود عملکرد LLM برای یک کار معین طراحی شده اند. به عنوان مثال، به ما امکان سفارشی سازی را می دهد پرسیدن و LLM ها را با ابزارهای مختلف مانند موتورهای جستجوی خارجی یا منابع داده ادغام کنید. در مورد استفاده ما، از گوگل استفاده کردیم سرپر کامپوننت برای جستجوی وب، و استقرار مدل Flan-T5-XXL در دسترس است آمازون SageMaker Studio Jumpstart. LangChain هماهنگی کلی را انجام می دهد و به صفحات نتیجه جستجو اجازه می دهد تا به نمونه Flan-T5-XXL وارد شوند.
Retrieval-Augmented Generation (RAG) شامل دو مرحله است:
- بازیابی تکه های متن مرتبط از منابع خارجی
- افزودنی از تکه های با زمینه در اعلان داده شده به LLM.
برای مورد استفاده اشنایدر الکتریک، RAG به شرح زیر است:
- نام شرکت داده شده با سوالی مانند "شرکت مادر X کیست" ترکیب می شود، که X شرکت داده شده است) و با استفاده از Serper AI به یک جستجوی گوگل ارسال می شود.
- اطلاعات استخراج شده با سؤال فوری و اصلی ترکیب شده و برای پاسخ به LLM ارسال می شود.
نمودار زیر این فرآیند را نشان می دهد.
برای ایجاد نقطه پایانی از کد زیر استفاده کنید:
ابزار جستجوی فوری:
در کد زیر، اجزای بازیابی و تقویت را با هم زنجیره می کنیم:
مهندسی سریع
ترکیبی از زمینه و سوال را اعلان می گویند. ما متوجه شدیم که دستوری که استفاده کردیم (تغییرات در مورد درخواست شرکت مادر) برای بیشتر بخشهای عمومی (دامنهها) عملکرد خوبی داشت، اما به خوبی به آموزش یا مراقبتهای بهداشتی تعمیم نمییابد زیرا مفهوم شرکت مادر در آنجا معنیدار نیست. برای آموزش، ما از "X" استفاده کردیم در حالی که برای مراقبت های بهداشتی از "Y" استفاده کردیم.
برای فعال کردن این انتخاب سریع خاص دامنه، ما همچنین باید دامنه ای را که یک حساب معین به آن تعلق دارد شناسایی می کردیم. برای این، ما همچنین از یک RAG استفاده کردیم که در آن یک سوال چند گزینه ای "دامنه {account} چیست؟" به عنوان گام اول و بر اساس پاسخی که از مادر حساب با استفاده از دستور مربوطه به عنوان مرحله دوم پرسیدیم. کد زیر را ببینید:
دستورالعمل های خاص بخش، عملکرد کلی را از 55٪ به 71٪ دقت افزایش داده است. به طور کلی، تلاش و زمان سرمایه گذاری شده برای توسعه موثر پرسیدن به نظر می رسد به طور قابل توجهی کیفیت پاسخ LLM را بهبود می بخشد.
RAG با داده های جدولی (SEC-10k)
پرونده های SEC 10K منبع قابل اعتماد دیگری از اطلاعات برای شرکت های تابعه و زیرمجموعه ها است که سالانه توسط یک شرکت سهامی عام ثبت می شود. این پرونده ها مستقیماً در SEC در دسترس هستند ادگار یا از طریق CorpWatch API
ما فرض می کنیم که اطلاعات در قالب جدول ارائه شده است. در زیر یک شبه است CSV مجموعه داده ای که قالب اصلی مجموعه داده SEC-10K را تقلید می کند. امکان ادغام چندگانه وجود دارد CSV منابع داده در یک دیتافریم ترکیبی پانداها:
# A pseudo dataset similar by schema to the CorpWatch API dataset
df.head()
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://aws.amazon.com/blogs/machine-learning/schneider-electric-leverages-retrieval-augmented-llms-on-sagemaker-to-ensure-real-time-updates-in-their-erp-systems/