Plato Data Intelligence។
ការស្វែងរកបញ្ឈរ & អាយ។

ក្រុមហ៊ុន Microsoft បញ្ចេញឧបករណ៍សុវត្ថិភាពទាំងនេះសម្រាប់ Azure AI

កាលបរិច្ឆេទ:

ក្រុមហ៊ុន Microsoft បានដាក់បង្ហាញនូវឧបករណ៍ដែលត្រូវបានចោទប្រកាន់ថា ដើម្បីជួយធ្វើឱ្យគំរូ AI កាន់តែមានសុវត្ថិភាពក្នុងការប្រើប្រាស់នៅក្នុង Azure ។

ចាប់តាំងពី cloud-and-code biz បានចាប់ផ្តើមដាក់មូលនិធិទៅក្នុង OpenAI និងបញ្ចូលអាណាចក្រផ្នែកទន់របស់ខ្លួនជាមួយនឹងសមត្ថភាព chatbot ដែលជារឿងមួយដែលត្រូវបានអនុម័តដោយភាពក្លៀវក្លាស្មើគ្នាដោយគូប្រជែងចំពេលមានការសន្យាដ៏អស្ចារ្យអំពីផលិតភាព - Microsoft ត្រូវទទួលស្គាល់ថា AI ជំនាន់ថ្មីមកជាមួយហានិភ័យ។

នេះ គ្រោះថ្នាក់ ត្រូវបានគេស្គាល់យ៉ាងទូលំទូលាយ ហើយជួនកាលត្រូវបានជក់ដោយឡែក មួយទសវត្សរ៍មុន Elon Musk បានព្រមានថា AI ប្រហែលជាគ្រាន់តែ បំផ្លាញមនុស្សជាតិ. ប៉ុន្តែក្តីបារម្ភនោះមិនបានបញ្ឈប់គាត់ពីការធ្វើឱ្យ AI មាននៅក្នុងនោះទេ។ រថយន្តនៅលើរបស់គាត់។ មេហ្គាហ្វូនប្រព័ន្ធផ្សព្វផ្សាយសង្គមហើយប្រហែលជាឆាប់ៗនេះ មនុស្សយន្ត.

ការលេចចេញនូវគំរូភាសាធំៗដែលធ្វើអោយមានការយល់ច្រលំ និងផ្តល់នូវការឆ្លើយតបមិនត្រឹមត្រូវ ឬបង្កគ្រោះថ្នាក់បាននាំឱ្យមានការវិលត្រឡប់ទៅកាន់ផ្ទាំងគំនូរវិញ ប៉ុន្តែទៅកាន់បន្ទប់ប្រជុំសម្រាប់ការផ្តល់មូលនិធិបន្ថែម។ ជាជាងផលិតផលិតផលប្រកបដោយសុវតិ្ថភាព និងប្រកបដោយក្រមសីលធម៌ ឧស្សាហកម្មបច្ចេកវិទ្យាកំពុងព្យាយាមទប់ទល់នឹងគំរូដ៏ព្រៃផ្សៃ ឬយ៉ាងហោចណាស់រក្សាវាឱ្យឆ្ងាយពីអតិថិជន ដែលអាចដំណើរការអាម៉ុកដោយមិនធ្វើឱ្យនរណាម្នាក់ឈឺចាប់។

ហើយប្រសិនបើវាមិនដំណើរការ វាតែងតែមាន សំណងសំណង ពីការទាមទារផ្លូវច្បាប់ ស្របតាមលក្ខខណ្ឌជាក់លាក់ ពីអ្នកផ្គត់ផ្គង់។

ការប្តេជ្ញាចិត្តក្នុងឧស្សាហកម្មចំពោះសុវត្ថិភាព AI ស្របគ្នានឹងការទាមទាររបស់រដ្ឋាភិបាលដែលត្រូវគ្នា។ នៅសហរដ្ឋអាមេរិកកាលពីថ្ងៃព្រហស្បតិ៍ ការិយាល័យគ្រប់គ្រង និងថវិការបស់សេតវិមាន (OMB) បញ្ហា គោលនយោបាយទូលំទូលាយរបស់រដ្ឋាភិបាលដំបូងគេដើម្បីដោះស្រាយហានិភ័យ AI ។

គោលនយោបាយនេះតម្រូវឱ្យភ្នាក់ងារសហព័ន្ធ "អនុវត្តការការពារជាក់ស្តែងនៅពេលប្រើប្រាស់ AI ក្នុងមធ្យោបាយដែលអាចប៉ះពាល់ដល់សិទ្ធិ ឬសុវត្ថិភាពរបស់ជនជាតិអាមេរិក" ត្រឹមថ្ងៃទី 1 ខែធ្នូ។ នោះមានន័យថា ការវាយតម្លៃហានិភ័យ ការធ្វើតេស្ត និងការត្រួតពិនិត្យ កិច្ចខិតខំប្រឹងប្រែងដើម្បីកំណត់ការរើសអើង និងភាពលំអៀង និងដើម្បីលើកកម្ពស់ តម្លាភាពសម្រាប់កម្មវិធី AI ប៉ះសុខភាព ការអប់រំ លំនៅដ្ឋាន និងការងារ។

ដូច្នេះហើយ Microsoft នាំមកនូវវិធានការសុវត្ថិភាព AI ចុងក្រោយបង្អស់របស់ខ្លួនតាមរយៈ Sarah Bird ដែលជាប្រធានផ្នែកផលិតផលនៃ AI ដែលមានទំនួលខុសត្រូវ ដែលជាចំណងជើងដែលបង្ហាញពីអត្ថិភាពនៃ AI ដែលមិនទទួលខុសត្រូវ ប្រសិនបើអ្នកអាចស្រមៃបាន។

Bird និយាយថា អ្នកដឹកនាំអាជីវកម្មកំពុងព្យាយាមធ្វើឱ្យមានតុល្យភាពរវាងការបង្កើតថ្មី និងការគ្រប់គ្រងហានិភ័យ ដើម្បីអនុញ្ញាតឱ្យពួកគេប្រើប្រាស់ AI ជំនាន់ថ្មីដោយមិនត្រូវបានខាំដោយវា។

Bird ពន្យល់ថា "ការវាយប្រហារដោយការចាក់បញ្ចូលភ្លាមៗបានលេចចេញជាបញ្ហាប្រឈមដ៏សំខាន់មួយ ដែលតួអង្គព្យាបាទព្យាយាមរៀបចំប្រព័ន្ធ AI ឱ្យធ្វើអ្វីមួយនៅខាងក្រៅគោលបំណងរបស់វា ដូចជាការផលិតមាតិកាដែលបង្កគ្រោះថ្នាក់ ឬទាញយកទិន្នន័យសម្ងាត់" ប្រកាសកំណត់ហេតុបណ្ដាញ.

“បន្ថែមពីលើការកាត់បន្ថយហានិភ័យសុវត្ថិភាពទាំងនេះ អង្គការក៏មានការព្រួយបារម្ភអំពីគុណភាព និងភាពជឿជាក់ផងដែរ។ ពួកគេចង់ធានាថាប្រព័ន្ធ AI របស់ពួកគេមិនបង្កើតកំហុស ឬបន្ថែមព័ត៌មានដែលមិនត្រូវបានបញ្ជាក់នៅក្នុងប្រភពទិន្នន័យរបស់កម្មវិធី ដែលអាចបំផ្លាញទំនុកចិត្តរបស់អ្នកប្រើប្រាស់។

ដោយសារសុវត្ថិភាព និងភាពត្រឹមត្រូវមិនត្រូវបានរាប់បញ្ចូលក្នុងថ្លៃជាវ AI នោះ Microsoft មើលឃើញឱកាសមួយ។ ដើម្បីលក់ពួកគេ។ ជាកម្មវិធីបន្ថែម។

អតិថិជនដែលប្រើ Azure AI Studio ដើម្បីជួយពួកគេបង្កើតកម្មវិធី AI ជំនាន់អាចទន្ទឹងរង់ចាំឧបករណ៍ថ្មីចំនួនបួន។

ទីមួយមាន Prompt Shieldsដែលសន្យាថានឹងជួយការពារប្រឆាំងនឹងការវាយប្រហារដោយការចាក់ភ្លាមៗ។ ពីមុនត្រូវបានគេស្គាល់ថាជា Jailbreak Risk Detection ហើយឥឡូវនេះនៅក្នុងការមើលជាមុនជាសាធារណៈ វាគឺជាវិធីមួយដើម្បីកាត់បន្ថយហានិភ័យនៃការជ្រៀតជ្រែកដោយផ្ទាល់ និងដោយប្រយោលនៅក្នុងគំរូគ្រឹះ។

ការវាយប្រហារដោយផ្ទាល់ពាក់ព័ន្ធនឹងការជម្រុញ (ធាតុចូល) ដែលត្រូវបានរចនាឡើងដើម្បីធ្វើឱ្យគំរូមិនអើពើការបណ្តុះបណ្តាលសុវត្ថិភាពរបស់វា។ ការវាយប្រហារដោយប្រយោលសំដៅទៅលើកិច្ចខិតខំប្រឹងប្រែងដើម្បីលួចបញ្ចូលទៅក្នុងគំរូមួយ។ មធ្យោបាយមួយដើម្បីធ្វើដូច្នេះអាចជាការរួមបញ្ចូលអត្ថបទដែលលាក់នៅក្នុងអ៊ីមែលជាមួយនឹងចំណេះដឹងដែលថាគំរូ AI ដើរតួក្នុងនាមអ្នកទទួលតាមរយៈនិយាយថា Copilot នៅក្នុង Outlook នឹងញែកសារ បកស្រាយអត្ថបទដែលលាក់ជាពាក្យបញ្ជា ហើយសង្ឃឹមថា ធ្វើសកម្មភាពតាមការណែនាំ ធ្វើអ្វីមួយដូចជាការឆ្លើយតបដោយស្ងៀមស្ងាត់ជាមួយនឹងទិន្នន័យរសើប។

ទីពីរគឺ ការរកឃើញដីប្រព័ន្ធ​សម្រាប់​ចាប់​យក​ពេល​ដែល​ម៉ូដែល AI បង្ហាញ​ការ​យល់​ឃើញ ឬ​បង្កើត​រឿង​ឡើង។ វាផ្តល់ឱ្យអតិថិជននូវជម្រើសជាច្រើននៅពេលដែលការទាមទារមិនពិតត្រូវបានរកឃើញ រួមទាំងការផ្ញើការឆ្លើយតបត្រឡប់ទៅវិញដើម្បីកែប្រែមុនពេលបង្ហាញ។ ក្រុមហ៊ុន Microsoft និយាយថា ខ្លួនបានសម្រេចវាដោយបង្កើតគំរូភាសាផ្ទាល់ខ្លួនដែលវាយតម្លៃការទាមទារដែលមិនបានបញ្ជាក់ដោយផ្អែកលើឯកសារប្រភព។ ដូច្នេះ​ចម្លើយ​ចំពោះ​សុវត្ថិភាព​គំរូ AI គឺ​អ្នក​ទាយ​វា​ជា​គំរូ​មួយ​ទៀត។

ទោះបីជានេះជាជំហានដ៏អស្ចារ្យមួយឆ្ពោះទៅរក AI ដែលអាចជឿទុកចិត្តបានក៏ដោយ ក៏បញ្ហានៅតែមិនទាន់ដោះស្រាយនៅឡើយ

ទីបីយើងមាន ការវាយតម្លៃសុវត្ថិភាពដែលជួយដោយ AI នៅក្នុងស្ទូឌីយោ AI ដែលផ្តល់នូវក្របខ័ណ្ឌសាកល្បងសម្រាប់បង្ហាញគំរូ និងប៉ារ៉ាម៉ែត្រភ្លាមៗដើម្បីធ្វើគំរូដែលសាកល្បងអន្តរកម្មផ្ទុយគ្នាជាច្រើនជាមួយកម្មវិធីរបស់អតិថិជន។ ជាថ្មីម្តងទៀត វាគឺជា AI ដើម្បីសាកល្បង AI ។

ហើយទីបំផុតមាន "ការត្រួតពិនិត្យហានិភ័យ និងសុវត្ថិភាព"ដែលជាលក្ខណៈពិសេសសម្រាប់សេវាកម្ម Azure OpenAI ដែលផ្តល់នូវរង្វាស់មាតិកាដែលបង្កគ្រោះថ្នាក់។

Vinu Sankar Sadasivan ជានិស្សិតបណ្ឌិតនៅសាកលវិទ្យាល័យ Maryland ដែលបានជួយអភិវឌ្ឍ ការវាយប្រហាររបស់ BEAST នៅលើ LLMs, បានប្រាប់ ចុះឈ្មោះ ខណៈពេលដែលវាគួរឱ្យរំភើបក្នុងការឃើញឧបករណ៍សាងសង់ Azure ដើម្បីធ្វើឱ្យ AI កាន់តែមានសុវត្ថិភាព ការបន្ថែមម៉ូដែលជាច្រើនទៀតទៅក្នុងល្បាយពង្រីកផ្ទៃវាយប្រហារដែលមានសក្តានុពល។

គាត់បាននិយាយថា "ការវាយតម្លៃសុវត្ថិភាព និងឧបករណ៍ត្រួតពិនិត្យហានិភ័យ និងសុវត្ថិភាពរបស់ Azure មានសារៈសំខាន់សម្រាប់ការស៊ើបអង្កេតលើភាពជឿជាក់នៃគំរូ AI" ។ “ទោះបីជានេះជាជំហានដ៏អស្ចារ្យមួយឆ្ពោះទៅរក AI ដែលអាចទុកចិត្តបានក៏ដោយ ក៏បញ្ហានៅតែមិនអាចដោះស្រាយបាន។ ឧទាហរណ៍ Prompt Shields ពួកគេបានណែនាំសន្មតថាប្រើគំរូ AI មួយផ្សេងទៀតដើម្បីស្វែងរក និងទប់ស្កាត់ការវាយប្រហារភ្លាមៗដោយប្រយោល។ គំរូ AI នេះអាចងាយរងការគំរាមកំហែង ដូចជាការវាយប្រហារពីសត្រូវ។

“សត្រូវអាចប្រើប្រាស់ភាពងាយរងគ្រោះទាំងនេះ ដើម្បីជៀសផុតពី Prompt Shields។ ទោះបីជាសារប្រព័ន្ធសុវត្ថិភាពបានបង្ហាញថាមានប្រសិទ្ធភាពក្នុងករណីខ្លះក៏ដោយ ការវាយប្រហារដែលមានស្រាប់ដូចជា BEAST អាចវាយប្រហារទៅលើម៉ូដែល AI ដើម្បីធ្វើការ Jailbreak ពួកវាបានភ្លាមៗ។ ខណៈពេលដែលវាមានប្រយោជន៍ក្នុងការអនុវត្តប្រព័ន្ធការពារសម្រាប់ប្រព័ន្ធ AI វាចាំបាច់ណាស់ក្នុងការរក្សាការយល់ដឹងអំពីគុណវិបត្តិសក្តានុពលរបស់ពួកគេ។ ®

spot_img

បញ្ញាចុងក្រោយ

spot_img

ជជែកជាមួយយើង

សួស្តី! តើខ្ញុំអាចជួយអ្នកដោយរបៀបណា?