هوش داده افلاطون
جستجوی عمودی و هوش مصنوعی

سه مشکل برتر حریم خصوصی داده‌ها که امروزه هوش مصنوعی با آن مواجه است – The Daily Hodl

تاریخ:

پست مهمان HodlX  پست خود را ارسال کنید

 

هوش مصنوعی (هوش مصنوعی) باعث ایجاد هیجان دیوانه کننده در بین مصرف کنندگان و کسب و کارها شده است - با این باور پرشور که LLM (مدل های زبان بزرگ) و ابزارهایی مانند ChatGPT روش مطالعه، کار و زندگی ما را متحول می کند.

اما درست مانند روزهای اولیه اینترنت، کاربران بدون توجه به نحوه استفاده از داده‌های شخصی‌شان وارد آن می‌شوند - یکو تأثیری که این می تواند بر حریم خصوصی آنها داشته باشد.

قبلاً نمونه های بی شماری از نقض داده ها در فضای هوش مصنوعی وجود داشته است. در مارس 2023، OpenAI به طور موقت ChatGPT را گرفت آنلاین نیست. پس از یک خطای "مهم" به این معنی بود که کاربران می‌توانند تاریخچه مکالمه افراد غریبه را ببینند.

همان باگ به معنای اطلاعات پرداخت مشترکین بود - از جمله نام، آدرس ایمیل و شماره کارت اعتباری جزئی - نیز در حوزه عمومی بودند.

در سپتامبر 2023، اطلاعات خیره کننده 38 ترابایتی مایکروسافت به طور غیرعمدی به دست آمد. نشت کرد توسط یک کارمند، با هشدار کارشناسان امنیت سایبری این می‌تواند به مهاجمان اجازه دهد تا با کدهای مخرب به مدل‌های هوش مصنوعی نفوذ کنند.

محققان نیز توانسته اند دستکاری سیستم های هوش مصنوعی برای افشای سوابق محرمانه

تنها در چند ساعت، گروهی به نام Rubust Intelligence توانستند اطلاعات قابل شناسایی شخصی را از نرم‌افزار انویدیا دریافت کنند و محافظ‌هایی را که برای جلوگیری از بحث در مورد موضوعات خاص طراحی شده‌اند دور بزنند.

در همه این سناریوها درس‌هایی آموخته شد، اما هر نقض، چالش‌هایی را که برای تبدیل شدن به یک نیروی قابل اعتماد و قابل اعتماد در زندگی‌مان، باید بر آن‌ها غلبه کنیم را نشان می‌دهد.

Gemini، ربات چت گوگل، حتی اعتراف می کند که تمام مکالمات توسط بازبین های انسانی پردازش می شود - تاکید بر عدم شفافیت در سیستم خود.

هشداری به کاربران هشدار می‌دهد: «هر چیزی را که نمی‌خواهید مورد بررسی یا استفاده قرار گیرد وارد نکنید».

هوش مصنوعی به سرعت فراتر از ابزاری است که دانش‌آموزان برای انجام تکالیف خود از آن استفاده می‌کنند یا گردشگران برای توصیه‌ها در سفر به رم به آن اعتماد می‌کنند.

برای بحث های حساس به طور فزاینده ای به آن وابسته می شود - و همه چیز از سوالات پزشکی گرفته تا برنامه کاری ما را تغذیه کرد.

به همین دلیل، مهم است که یک گام به عقب برداریم و در مورد سه مسئله مهم حریم خصوصی داده‌ها که امروزه هوش مصنوعی با آن مواجه است، فکر کنیم و چرا آنها برای همه ما اهمیت دارند.

1. درخواست ها خصوصی نیستند

ابزارهایی مانند ChatGPT مکالمات گذشته را حفظ می کنند تا بعداً به آنها مراجعه کنند. در حالی که این می تواند تجربه کاربر را بهبود بخشد و به آموزش LLMها کمک کند، اما با خطراتی همراه است.

اگر یک سیستم با موفقیت هک شود، خطر واقعی افشای درخواست ها در یک انجمن عمومی وجود دارد.

هنگامی که هوش مصنوعی برای مقاصد کاری به کار گرفته می شود، ممکن است جزئیات بالقوه شرم آور از تاریخچه کاربر و همچنین اطلاعات حساس تجاری به بیرون درز کند.

همانطور که از گوگل دیده‌ایم، تمام ارسال‌ها نیز می‌توانند توسط تیم توسعه‌دهنده آن بررسی شوند.

سامسونگ در ماه مه 2023 زمانی که کارمندان را از استفاده از ابزارهای مولد هوش مصنوعی منع کرد، در این زمینه اقدام کرد. که بعد از یک کارمند آمد آپلود شده کد منبع محرمانه ChatGPT.

این غول فناوری نگران بود که بازیابی و حذف این اطلاعات دشوار باشد، به این معنی که IP (مالکیت معنوی) ممکن است در نهایت به عموم مردم توزیع شود.

اپل، ورایزون و JPMorgan اقدامات مشابهی انجام داده‌اند و گزارش‌ها حاکی از آن است که آمازون پس از اینکه پاسخ‌های ChatGPT شباهت‌هایی به داده‌های داخلی خود داشت، سرکوبی را آغاز کرد.

همانطور که می بینید، نگرانی ها فراتر از آن چیزی است که در صورت نقض داده ها اتفاق می افتد، اما به این چشم انداز می رسد که اطلاعات وارد شده به سیستم های هوش مصنوعی می تواند تغییر کاربری داده و بین مخاطبان گسترده تری توزیع شود.

شرکت هایی مانند OpenAI در حال حاضر هستند نما شکایت های متعدد در میان ادعاهایی مبنی بر اینکه چت بات های آنها با استفاده از مطالب دارای حق چاپ آموزش داده شده اند.

2. مدل‌های هوش مصنوعی سفارشی که توسط سازمان‌ها آموزش داده شده‌اند، خصوصی نیستند

این ما را به طور منظم به نقطه بعدی می رساند - در حالی که افراد و شرکت ها می توانند مدل های LLM سفارشی خود را بر اساس منابع داده خود ایجاد کنند، اگر در محدوده پلتفرمی مانند ChatGPT وجود داشته باشند، کاملا خصوصی نخواهند بود.

در نهایت هیچ راهی برای دانستن اینکه آیا ورودی ها برای آموزش این سیستم های عظیم استفاده می شوند یا خیر وجود ندارد - یا اینکه آیا اطلاعات شخصی ممکن است در مدل‌های آینده مورد استفاده قرار گیرد.

مانند یک اره منبت کاری اره مویی، نقاط داده از چندین منبع را می توان گرد هم آورد تا بینشی جامع و نگران کننده از هویت و پیشینه یک فرد ایجاد کند.

پلتفرم‌های اصلی همچنین ممکن است در ارائه توضیحات دقیق درباره نحوه ذخیره و پردازش این داده‌ها، با عدم توانایی در انصراف از ویژگی‌هایی که کاربر از آن ناراحت است، ناکام باشد.

فراتر از پاسخگویی به درخواست‌های کاربر، سیستم‌های هوش مصنوعی به طور فزاینده‌ای توانایی خواندن بین خطوط و استنتاج همه چیز از موقعیت مکانی افراد گرفته تا شخصیت آنها را دارند.

در صورت نقض داده ها، عواقب بدی ممکن است. حملات فیشینگ فوق العاده پیچیده می توانند سازماندهی شوند - و کاربران با اطلاعاتی که به صورت محرمانه به سیستم هوش مصنوعی داده بودند، هدف قرار گرفتند.

سناریوهای بالقوه دیگر عبارتند از استفاده از این داده ها برای فرض هویت شخصی، خواه از طریق برنامه های کاربردی برای باز کردن حساب های بانکی یا ویدیوهای جعلی عمیق.

مصرف کنندگان باید مراقب باشند حتی اگر خودشان از هوش مصنوعی استفاده نمی کنند. هوش مصنوعی به طور فزاینده ای برای تقویت سیستم های نظارت و تقویت فناوری تشخیص چهره در مکان های عمومی استفاده می شود.

اگر چنین زیرساختی در یک محیط واقعاً خصوصی ایجاد نشود، آزادی‌های مدنی و حریم خصوصی شهروندان بی‌شماری می‌تواند بدون اطلاع آنها نقض شود.

3. داده های خصوصی برای آموزش سیستم های هوش مصنوعی استفاده می شود

نگرانی‌هایی وجود دارد که سیستم‌های اصلی هوش مصنوعی با بررسی صفحات وب بی‌شمار، هوش خود را به دست آورده‌اند.

برآوردها حاکی از استفاده از 300 میلیارد کلمه برای آموزش ChatGPT است - این 570 گیگابایت داده است - با کتاب ها و مدخل های ویکی پدیا در میان مجموعه داده ها.

همچنین مشخص شده است که الگوریتم ها به صفحات رسانه های اجتماعی و نظرات آنلاین وابسته هستند.

با برخی از این منابع، می توانید استدلال کنید که صاحبان این اطلاعات انتظار معقولی از حریم خصوصی داشتند.

اما موضوع اینجاست - بسیاری از ابزارها و برنامه‌هایی که ما هر روز با آنها در تعامل هستیم، به شدت تحت تأثیر هوش مصنوعی قرار دارند - و به رفتارهای ما واکنش نشان دهیم.

Face ID در آیفون شما از هوش مصنوعی برای ردیابی تغییرات ظریف در ظاهر شما استفاده می کند.

الگوریتم‌های مبتنی بر هوش مصنوعی TikTok و فیس‌بوک بر اساس کلیپ‌ها و پست‌هایی که در گذشته مشاهده کرده‌اید، توصیه‌های محتوا را ارائه می‌کنند.

دستیارهای صوتی مانند الکسا و سیری نیز به شدت به یادگیری ماشین وابسته هستند.

مجموعه ای گیج کننده از استارت آپ های هوش مصنوعی وجود دارد و هر کدام هدف خاصی دارند. با این حال، برخی از آنها در مورد نحوه جمع آوری، ذخیره و اعمال داده های کاربر نسبت به دیگران شفاف تر هستند.

این امر به ویژه مهم است زیرا هوش مصنوعی در زمینه مراقبت های بهداشتی تأثیر می گذارد - از تصویربرداری پزشکی و تشخیص تا ثبت سوابق و داروها.

باید از کسب و کارهای اینترنتی گرفتار رسوایی های حفظ حریم خصوصی در سال های اخیر درس گرفت.

فلو، یک اپلیکیشن سلامت زنان بود متهم در دهه 2010 توسط تنظیم کننده های به اشتراک گذاری جزئیات شخصی کاربرانش با افرادی مانند فیس بوک و گوگل.

از اینجا به کجا می رویم

هوش مصنوعی در سال‌های آینده تأثیری محو نشدنی بر زندگی همه ما خواهد گذاشت. LLM ها هر روز که می گذرد بهتر می شوند و موارد استفاده جدید همچنان ظاهر می شوند.

با این حال، این خطر واقعی وجود دارد که رگولاتورها با توجه به اینکه صنعت با سرعتی سرسام‌آور حرکت می‌کند، برای حفظ آن تلاش کنند.

و این بدان معناست که مصرف کنندگان باید شروع به ایمن سازی داده های خود و نظارت بر نحوه استفاده از آنها کنند.

تمرکززدایی می تواند نقشی حیاتی در اینجا ایفا کند و از افتادن حجم زیادی از داده ها به دست پلتفرم های بزرگ جلوگیری کند.

DePIN ها (شبکه های زیرساخت فیزیکی غیرمتمرکز) این پتانسیل را دارند که اطمینان حاصل کنند که کاربران روزمره از مزایای کامل هوش مصنوعی بدون به خطر افتادن حریم خصوصی آنها استفاده می کنند.

نه تنها درخواست های رمزگذاری شده می توانند نتایج بسیار شخصی تری را ارائه دهند، بلکه LLM های حفظ حریم خصوصی تضمین می کنند که کاربران همیشه کنترل کامل داده های خود را دارند. - و محافظت در برابر سوء استفاده از آن


کریس ویر مدیر عامل شرکت است وریدا، یک شبکه داده غیرمتمرکز و مستقل که افراد را قادر می سازد تا هویت دیجیتال و داده های شخصی خود را کنترل کنند. کریس یک کارآفرین فناوری مستقر در استرالیا است که بیش از 20 سال را صرف توسعه راه حل های نرم افزاری نوآورانه کرده است.

 

آخرین عناوین را در HodlX بررسی کنید

ما را دنبال در توییتر فیس بوک تلگرام

اتمام آخرین اطلاعیه های صنعت  

سلب مسئولیت: نظرات بیان شده در The Daily Hodl مشاوره سرمایه گذاری نیست. سرمایه گذاران باید قبل از انجام هرگونه سرمایه گذاری با ریسک بالا در بیت کوین ، cryptocurrency یا دارایی های دیجیتال ، احتیاط خود را انجام دهند. لطفاً به شما توصیه كنید كه نقل و انتقالات و معاملات شما در معرض خطر شماست و هرگونه ضرر و زیان ناشی از تحمل مسئولیت شماست. دیلی هودل خرید یا فروش هرگونه ارز رمزپایه یا دارایی های دیجیتال را توصیه نمی کند و همچنین روزنامه هودل مشاور سرمایه گذاری نیست. لطفاً توجه داشته باشید که دیلی هودل در بازاریابی وابسته شرکت می کند.

تصویر تولید شده: Midjourney

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟