پست مهمان HodlX پست خود را ارسال کنید
هوش مصنوعی (هوش مصنوعی) باعث ایجاد هیجان دیوانه کننده در بین مصرف کنندگان و کسب و کارها شده است
با این باور پرشور که LLM (مدل های زبان بزرگ) و ابزارهایی مانند ChatGPT روش مطالعه، کار و زندگی ما را متحول می کند.اما درست مانند روزهای اولیه اینترنت، کاربران بدون توجه به نحوه استفاده از دادههای شخصیشان وارد آن میشوند
و تأثیری که این می تواند بر حریم خصوصی آنها داشته باشد.قبلاً نمونه های بی شماری از نقض داده ها در فضای هوش مصنوعی وجود داشته است. در مارس 2023، OpenAI به طور موقت ChatGPT را گرفت آنلاین نیست. پس از یک خطای "مهم" به این معنی بود که کاربران میتوانند تاریخچه مکالمه افراد غریبه را ببینند.
همان باگ به معنای اطلاعات پرداخت مشترکین بود
از جمله نام، آدرس ایمیل و شماره کارت اعتباری جزئی نیز در حوزه عمومی بودند.در سپتامبر 2023، اطلاعات خیره کننده 38 ترابایتی مایکروسافت به طور غیرعمدی به دست آمد. نشت کرد توسط یک کارمند، با هشدار کارشناسان امنیت سایبری این میتواند به مهاجمان اجازه دهد تا با کدهای مخرب به مدلهای هوش مصنوعی نفوذ کنند.
محققان نیز توانسته اند دستکاری سیستم های هوش مصنوعی برای افشای سوابق محرمانه
تنها در چند ساعت، گروهی به نام Rubust Intelligence توانستند اطلاعات قابل شناسایی شخصی را از نرمافزار انویدیا دریافت کنند و محافظهایی را که برای جلوگیری از بحث در مورد موضوعات خاص طراحی شدهاند دور بزنند.
در همه این سناریوها درسهایی آموخته شد، اما هر نقض، چالشهایی را که برای تبدیل شدن به یک نیروی قابل اعتماد و قابل اعتماد در زندگیمان، باید بر آنها غلبه کنیم را نشان میدهد.
Gemini، ربات چت گوگل، حتی اعتراف می کند که تمام مکالمات توسط بازبین های انسانی پردازش می شود
تاکید بر عدم شفافیت در سیستم خود.هشداری به کاربران هشدار میدهد: «هر چیزی را که نمیخواهید مورد بررسی یا استفاده قرار گیرد وارد نکنید».
هوش مصنوعی به سرعت فراتر از ابزاری است که دانشآموزان برای انجام تکالیف خود از آن استفاده میکنند یا گردشگران برای توصیهها در سفر به رم به آن اعتماد میکنند.
برای بحث های حساس به طور فزاینده ای به آن وابسته می شود
و همه چیز از سوالات پزشکی گرفته تا برنامه کاری ما را تغذیه کرد.به همین دلیل، مهم است که یک گام به عقب برداریم و در مورد سه مسئله مهم حریم خصوصی دادهها که امروزه هوش مصنوعی با آن مواجه است، فکر کنیم و چرا آنها برای همه ما اهمیت دارند.
1. درخواست ها خصوصی نیستند
ابزارهایی مانند ChatGPT مکالمات گذشته را حفظ می کنند تا بعداً به آنها مراجعه کنند. در حالی که این می تواند تجربه کاربر را بهبود بخشد و به آموزش LLMها کمک کند، اما با خطراتی همراه است.
اگر یک سیستم با موفقیت هک شود، خطر واقعی افشای درخواست ها در یک انجمن عمومی وجود دارد.
هنگامی که هوش مصنوعی برای مقاصد کاری به کار گرفته می شود، ممکن است جزئیات بالقوه شرم آور از تاریخچه کاربر و همچنین اطلاعات حساس تجاری به بیرون درز کند.
همانطور که از گوگل دیدهایم، تمام ارسالها نیز میتوانند توسط تیم توسعهدهنده آن بررسی شوند.
سامسونگ در ماه مه 2023 زمانی که کارمندان را از استفاده از ابزارهای مولد هوش مصنوعی منع کرد، در این زمینه اقدام کرد. که بعد از یک کارمند آمد آپلود شده کد منبع محرمانه ChatGPT.
این غول فناوری نگران بود که بازیابی و حذف این اطلاعات دشوار باشد، به این معنی که IP (مالکیت معنوی) ممکن است در نهایت به عموم مردم توزیع شود.
اپل، ورایزون و JPMorgan اقدامات مشابهی انجام دادهاند و گزارشها حاکی از آن است که آمازون پس از اینکه پاسخهای ChatGPT شباهتهایی به دادههای داخلی خود داشت، سرکوبی را آغاز کرد.
همانطور که می بینید، نگرانی ها فراتر از آن چیزی است که در صورت نقض داده ها اتفاق می افتد، اما به این چشم انداز می رسد که اطلاعات وارد شده به سیستم های هوش مصنوعی می تواند تغییر کاربری داده و بین مخاطبان گسترده تری توزیع شود.
شرکت هایی مانند OpenAI در حال حاضر هستند نما شکایت های متعدد در میان ادعاهایی مبنی بر اینکه چت بات های آنها با استفاده از مطالب دارای حق چاپ آموزش داده شده اند.
2. مدلهای هوش مصنوعی سفارشی که توسط سازمانها آموزش داده شدهاند، خصوصی نیستند
این ما را به طور منظم به نقطه بعدی می رساند
در حالی که افراد و شرکت ها می توانند مدل های LLM سفارشی خود را بر اساس منابع داده خود ایجاد کنند، اگر در محدوده پلتفرمی مانند ChatGPT وجود داشته باشند، کاملا خصوصی نخواهند بود.در نهایت هیچ راهی برای دانستن اینکه آیا ورودی ها برای آموزش این سیستم های عظیم استفاده می شوند یا خیر وجود ندارد
یا اینکه آیا اطلاعات شخصی ممکن است در مدلهای آینده مورد استفاده قرار گیرد.مانند یک اره منبت کاری اره مویی، نقاط داده از چندین منبع را می توان گرد هم آورد تا بینشی جامع و نگران کننده از هویت و پیشینه یک فرد ایجاد کند.
پلتفرمهای اصلی همچنین ممکن است در ارائه توضیحات دقیق درباره نحوه ذخیره و پردازش این دادهها، با عدم توانایی در انصراف از ویژگیهایی که کاربر از آن ناراحت است، ناکام باشد.
فراتر از پاسخگویی به درخواستهای کاربر، سیستمهای هوش مصنوعی به طور فزایندهای توانایی خواندن بین خطوط و استنتاج همه چیز از موقعیت مکانی افراد گرفته تا شخصیت آنها را دارند.
در صورت نقض داده ها، عواقب بدی ممکن است. حملات فیشینگ فوق العاده پیچیده می توانند سازماندهی شوند
و کاربران با اطلاعاتی که به صورت محرمانه به سیستم هوش مصنوعی داده بودند، هدف قرار گرفتند.سناریوهای بالقوه دیگر عبارتند از استفاده از این داده ها برای فرض هویت شخصی، خواه از طریق برنامه های کاربردی برای باز کردن حساب های بانکی یا ویدیوهای جعلی عمیق.
مصرف کنندگان باید مراقب باشند حتی اگر خودشان از هوش مصنوعی استفاده نمی کنند. هوش مصنوعی به طور فزاینده ای برای تقویت سیستم های نظارت و تقویت فناوری تشخیص چهره در مکان های عمومی استفاده می شود.
اگر چنین زیرساختی در یک محیط واقعاً خصوصی ایجاد نشود، آزادیهای مدنی و حریم خصوصی شهروندان بیشماری میتواند بدون اطلاع آنها نقض شود.
3. داده های خصوصی برای آموزش سیستم های هوش مصنوعی استفاده می شود
نگرانیهایی وجود دارد که سیستمهای اصلی هوش مصنوعی با بررسی صفحات وب بیشمار، هوش خود را به دست آوردهاند.
برآوردها حاکی از استفاده از 300 میلیارد کلمه برای آموزش ChatGPT است
این 570 گیگابایت داده است با کتاب ها و مدخل های ویکی پدیا در میان مجموعه داده ها.همچنین مشخص شده است که الگوریتم ها به صفحات رسانه های اجتماعی و نظرات آنلاین وابسته هستند.
با برخی از این منابع، می توانید استدلال کنید که صاحبان این اطلاعات انتظار معقولی از حریم خصوصی داشتند.
اما موضوع اینجاست
بسیاری از ابزارها و برنامههایی که ما هر روز با آنها در تعامل هستیم، به شدت تحت تأثیر هوش مصنوعی قرار دارند و به رفتارهای ما واکنش نشان دهیم.Face ID در آیفون شما از هوش مصنوعی برای ردیابی تغییرات ظریف در ظاهر شما استفاده می کند.
الگوریتمهای مبتنی بر هوش مصنوعی TikTok و فیسبوک بر اساس کلیپها و پستهایی که در گذشته مشاهده کردهاید، توصیههای محتوا را ارائه میکنند.
دستیارهای صوتی مانند الکسا و سیری نیز به شدت به یادگیری ماشین وابسته هستند.
مجموعه ای گیج کننده از استارت آپ های هوش مصنوعی وجود دارد و هر کدام هدف خاصی دارند. با این حال، برخی از آنها در مورد نحوه جمع آوری، ذخیره و اعمال داده های کاربر نسبت به دیگران شفاف تر هستند.
این امر به ویژه مهم است زیرا هوش مصنوعی در زمینه مراقبت های بهداشتی تأثیر می گذارد
از تصویربرداری پزشکی و تشخیص تا ثبت سوابق و داروها.باید از کسب و کارهای اینترنتی گرفتار رسوایی های حفظ حریم خصوصی در سال های اخیر درس گرفت.
فلو، یک اپلیکیشن سلامت زنان بود متهم در دهه 2010 توسط تنظیم کننده های به اشتراک گذاری جزئیات شخصی کاربرانش با افرادی مانند فیس بوک و گوگل.
از اینجا به کجا می رویم
هوش مصنوعی در سالهای آینده تأثیری محو نشدنی بر زندگی همه ما خواهد گذاشت. LLM ها هر روز که می گذرد بهتر می شوند و موارد استفاده جدید همچنان ظاهر می شوند.
با این حال، این خطر واقعی وجود دارد که رگولاتورها با توجه به اینکه صنعت با سرعتی سرسامآور حرکت میکند، برای حفظ آن تلاش کنند.
و این بدان معناست که مصرف کنندگان باید شروع به ایمن سازی داده های خود و نظارت بر نحوه استفاده از آنها کنند.
تمرکززدایی می تواند نقشی حیاتی در اینجا ایفا کند و از افتادن حجم زیادی از داده ها به دست پلتفرم های بزرگ جلوگیری کند.
DePIN ها (شبکه های زیرساخت فیزیکی غیرمتمرکز) این پتانسیل را دارند که اطمینان حاصل کنند که کاربران روزمره از مزایای کامل هوش مصنوعی بدون به خطر افتادن حریم خصوصی آنها استفاده می کنند.
نه تنها درخواست های رمزگذاری شده می توانند نتایج بسیار شخصی تری را ارائه دهند، بلکه LLM های حفظ حریم خصوصی تضمین می کنند که کاربران همیشه کنترل کامل داده های خود را دارند.
و محافظت در برابر سوء استفاده از آنکریس ویر مدیر عامل شرکت است وریدا، یک شبکه داده غیرمتمرکز و مستقل که افراد را قادر می سازد تا هویت دیجیتال و داده های شخصی خود را کنترل کنند. کریس یک کارآفرین فناوری مستقر در استرالیا است که بیش از 20 سال را صرف توسعه راه حل های نرم افزاری نوآورانه کرده است.
ما را دنبال در توییتر فیس بوک تلگرام
اتمام آخرین اطلاعیه های صنعت
سلب مسئولیت: نظرات بیان شده در The Daily Hodl مشاوره سرمایه گذاری نیست. سرمایه گذاران باید قبل از انجام هرگونه سرمایه گذاری با ریسک بالا در بیت کوین ، cryptocurrency یا دارایی های دیجیتال ، احتیاط خود را انجام دهند. لطفاً به شما توصیه كنید كه نقل و انتقالات و معاملات شما در معرض خطر شماست و هرگونه ضرر و زیان ناشی از تحمل مسئولیت شماست. دیلی هودل خرید یا فروش هرگونه ارز رمزپایه یا دارایی های دیجیتال را توصیه نمی کند و همچنین روزنامه هودل مشاور سرمایه گذاری نیست. لطفاً توجه داشته باشید که دیلی هودل در بازاریابی وابسته شرکت می کند.
تصویر تولید شده: Midjourney
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://dailyhodl.com/2024/03/28/top-three-data-privacy-issues-facing-ai-today/