حریم خصوصی
با صدای خود تایپ می کنید؟ ناگفته نماند که باید اقدامات احتیاطی را انجام دهید و از افشای اسرار خود اجتناب کنید.
03 ژان 2024 • , 4 دقیقه خواندن
نرم افزاری که به سرعت و بدون زحمت کلمات گفتاری را به متن نوشتاری تبدیل می کند برای بسیاری از ما یک موهبت بوده است. قابلیت های آن در موقعیت های مختلف به کار می آید. برای مثال، آنها می توانند ما را از بار تایپ پیام هایمان در برنامه های چت نجات دهند، یادداشت برداری را در طول جلسات و مصاحبه ها تسهیل کنند و به افراد دارای معلولیت کمک کنند.
از سوی دیگر، گسترش نرمافزار رونویسی صوتی به متن مبتنی بر هوش مصنوعی همچنان نگرانیهای امنیتی و حفظ حریم خصوصی را افزایش میدهد - و دلیل خوبی هم دارد. در این مقاله، برخی از ملاحظات امنیتی کلیدی مرتبط با این برنامهها را بررسی میکنیم و اقدامات سادهای را برای کاهش خطرات احتمالی توصیه میکنیم.
خطرات مرتبط با برنامههای رونویسی صدا
حریم خصوصی
تعدادی برنامه و ربات اختصاصی وجود دارد که رونویسی خودکار صدا به متن را ارائه میدهند. در واقع، حداقل برخی از این نوع عملکردها در بسیاری از دستگاهها و سیستمعاملهای آنها، و همچنین در برنامههای چت و کنفرانس ویدیویی محبوب وجود دارد.
این ویژگیها که بر الگوریتمهای تشخیص گفتار و یادگیری ماشین تکیه دارند، میتوانند توسط شرکت پشت برنامه یا، بهویژه در مواردی که کارایی و سرعت ضروری است، توسط یک سرویس شخص ثالث ارائه شوند. با این حال، بهویژه دومی سؤالات زیادی در مورد حفظ حریم خصوصی دادهها ایجاد میکند.
آیا از صدا برای بهبود الگوریتم استفاده می شود؟ آیا در هنگام پردازش محتوا در سرورهای داخلی یا شخص ثالث ذخیره می شود؟ انتقال این اطلاعات به خصوص در مواردی که پردازش صوتی برون سپاری می شود چگونه تامین می شود؟
در همین حال، رونویسی دستی، که توسط انسان انجام می شود، به وضوح بدون خطرات حفظ حریم خصوصی نیست. این امر بهویژه زمانی اتفاق میافتد که افرادی که صدا را رونویسی میکنند از اطلاعات محرمانه افراد مطلع شوند و/یا اگر چنین اطلاعاتی بدون رضایت کاربران با پیمانکاران شخص ثالث به اشتراک گذاشته شود. به عنوان مثال، فیس بوک (اکنون متا) در سال 2019 با جنجال مواجه شد برای پرداخت پول به صدها پیمانکار برای رونویسی پیام های صوتی از چت های صوتی برخی از کاربران در مسنجر.
جمع آوری و ذخیره داده ها
بسیاری از برنامهها از همه نوع مجوز برای دسترسی به اطلاعات دستگاه یا کاربر مختلف، مانند مکان، مخاطبین، چتها در برنامههای پیامرسان - بدون توجه به اینکه برای عملکرد خود به چنین مجوزهایی نیاز دارند. جمع آوری این اطلاعات در صورت استفاده نادرست، به اشتراک گذاری آن با اشخاص ثالث بدون رضایت آگاهانه کاربر، یا اگر به درستی بر روی سرورهای شرکتی که آن را ذخیره می کند، ایمن نباشد، خطراتی را به همراه دارد.
برای مثال، برنامههای رونویسی صوتی، تمایل دارند فایلهای صوتی را جمعآوری کنند که اغلب کلمات گفتاری نه تنها یک شخص، بلکه احتمالاً اقوام، دوستان و همکارانشان را نیز ضبط میکنند. در پایان، آنها ممکن است آنها را در برابر حملات سایبری یا نقض حریم خصوصی آسیب پذیر کنند.
برنامه های مخرب
اگر در بازار نرم افزارهای گفتار به متن هستید، باید مراقب برنامه های تقلبی یا چت بات ها نیز باشید. مجرمان سایبری نیز آخرین روندها را دنبال میکنند و با توجه به محبوبیت این نرمافزار، میتوانند برنامههای جعلی را به عنوان یک فریب برای به خطر انداختن قربانیان با بدافزار راهاندازی کنند.
این برنامههای مخرب ممکن است کپیبرداری از برنامههای قانونی باشند، که جدا کردن گندم از کاه را برای کاربران دشوار میسازد. برنامه های جعلی می توانند در مأموریت بدخواهانه خود بسیار موفق باشند، شما مشروعیت برنامه یا چه کسی پشت آن را بررسی نمی کنید، چه رسد به بررسی سیاست حفظ حریم خصوصی آن.
مجرمان سایبری مشاهده شدهاند که برای برنامههای کاربردی محبوبی مانند مبدلها و خوانندههای فایل، ویرایشگرهای ویدیو و برنامههای صفحهکلید، جعلکنندههایی را منتشر میکنند. در واقع، ما برنامههای مخرب مختلفی را دیدهایم که ادعا میکردند قابلیتهای مختلفی را ارائه میکنند، از PDF و خوانندگان کد QR به مترجمان زبان و ویرایشگرهای تصویر.
سرقت اطلاعات
صدا و متن دزدیده شده را می توان برای حملات سایبری از جمله حملات سایبری استفاده کرد دیپ فیک های صوتی سپس می توان از آن برای حملات مهندسی اجتماعی یا توزیع اخبار جعلی استفاده کرد.
این فرآیند به طور کلی شامل دو مرحله است: آموزش مدل یادگیری ماشین و استفاده از خود مدل. در مرحله اول، این مدل از تکنیکهای پردازش سیگنال صوتی و پردازش زبان طبیعی برای یادگیری نحوه تلفظ کلمات و ساختار جملات استفاده میکند. هنگامی که مدل با داده های کافی آموزش داده شود، می تواند متنی را از یک فایل صوتی تولید کند.
مهاجم میتواند از این مدل برای دستکاری صداهای دزدیده شده استفاده کند و قربانیان را وادار کند چیزهایی را که هرگز نگفتهاند، از جمله باجگیری، اخاذی یا اخاذی بگویند. جعل هویت آنها به منظور فریب کارفرمایان یا بستگانشان. آنها همچنین می توانند به عنوان یک شخصیت عمومی برای تولید اخبار جعلی ظاهر شوند.
ایمن بودن
- از پلتفرم های قابل اعتماد استفاده کنید
از ارائه دهندگان خدمات تأیید شده استفاده کنید که به مقرراتی مانند GDPR و بهترین شیوه های صنعت پایبند هستند و برنامه های خود را از فروشگاه های رسمی برنامه تلفن همراه تهیه کنید. به عبارت دیگر، دوری از منابع ناشناخته یا تایید نشده ممکن است شما را در معرض کلاهبرداران مخرب قرار دهد.
- چاپ خوب را بخوانید
خطمشیهای حفظ حریم خصوصی ارائهدهندگان خدمات را بررسی کنید و به بخشهایی در مورد اینکه آیا دادههای گفتاری شما با اشخاص ثالث ذخیره و به اشتراک گذاشته میشود، چه کسی به آن دسترسی دارد و اینکه آیا در حین انتقال و در ذخیرهسازی رمزگذاری شده است، توجه کنید. درباره خطمشیهای نگهداری دادههای آنها و همچنین در مورد اینکه آیا هر یک از اطلاعات شما در صورت درخواست حذف میشود یا خیر پرس و جو کنید. در حالت ایدهآل، از سرویسهایی که چنین دادههایی را جمعآوری میکنند یا در جایی که دادهها ناشناس نیستند، استفاده نمیکنید.
- از اشتراک گذاری اطلاعات حساس خودداری کنید
از به اشتراک گذاری جزئیات محرمانه یا حساس، به ویژه مواردی مانند رمز عبور یا اطلاعات مالی، از طریق نرم افزار گفتار به متن خودداری کنید.
تمام نرم افزارهای خود را با آخرین به روز رسانی ها و وصله های امنیتی به روز نگه دارید. برای جلوگیری از قربانی شدن در حملاتی که از آسیب پذیری های نرم افزار سوء استفاده می کنند. برای تقویت بیشتر محافظت خود، از نرم افزارهای امنیتی چند لایه معتبر استفاده کنید.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://www.welivesecurity.com/en/privacy/favorite-speech-to-text-app-privacy-risk/