هوش داده افلاطون
جستجوی عمودی و هوش مصنوعی

آیا برنامه گفتار به متن مورد علاقه شما می تواند یک خطر حفظ حریم خصوصی باشد؟

تاریخ:

حریم خصوصی

با صدای خود تایپ می کنید؟ ناگفته نماند که باید اقدامات احتیاطی را انجام دهید و از افشای اسرار خود اجتناب کنید.

بگو چه میخواهی؟ برنامه گفتار به متن مورد علاقه شما ممکن است خطری برای حفظ حریم خصوصی باشد

نرم افزاری که به سرعت و بدون زحمت کلمات گفتاری را به متن نوشتاری تبدیل می کند برای بسیاری از ما یک موهبت بوده است. قابلیت های آن در موقعیت های مختلف به کار می آید. برای مثال، آنها می توانند ما را از بار تایپ پیام هایمان در برنامه های چت نجات دهند، یادداشت برداری را در طول جلسات و مصاحبه ها تسهیل کنند و به افراد دارای معلولیت کمک کنند.

از سوی دیگر، گسترش نرم‌افزار رونویسی صوتی به متن مبتنی بر هوش مصنوعی همچنان نگرانی‌های امنیتی و حفظ حریم خصوصی را افزایش می‌دهد - و دلیل خوبی هم دارد. در این مقاله، برخی از ملاحظات امنیتی کلیدی مرتبط با این برنامه‌ها را بررسی می‌کنیم و اقدامات ساده‌ای را برای کاهش خطرات احتمالی توصیه می‌کنیم.

خطرات مرتبط با برنامه‌های رونویسی صدا

حریم خصوصی

تعدادی برنامه و ربات اختصاصی وجود دارد که رونویسی خودکار صدا به متن را ارائه می‌دهند. در واقع، حداقل برخی از این نوع عملکردها در بسیاری از دستگاه‌ها و سیستم‌عامل‌های آن‌ها، و همچنین در برنامه‌های چت و کنفرانس ویدیویی محبوب وجود دارد.

این ویژگی‌ها که بر الگوریتم‌های تشخیص گفتار و یادگیری ماشین تکیه دارند، می‌توانند توسط شرکت پشت برنامه یا، به‌ویژه در مواردی که کارایی و سرعت ضروری است، توسط یک سرویس شخص ثالث ارائه شوند. با این حال، به‌ویژه دومی سؤالات زیادی در مورد حفظ حریم خصوصی داده‌ها ایجاد می‌کند.

آیا از صدا برای بهبود الگوریتم استفاده می شود؟ آیا در هنگام پردازش محتوا در سرورهای داخلی یا شخص ثالث ذخیره می شود؟ انتقال این اطلاعات به خصوص در مواردی که پردازش صوتی برون سپاری می شود چگونه تامین می شود؟

در همین حال، رونویسی دستی، که توسط انسان انجام می شود، به وضوح بدون خطرات حفظ حریم خصوصی نیست. این امر به‌ویژه زمانی اتفاق می‌افتد که افرادی که صدا را رونویسی می‌کنند از اطلاعات محرمانه افراد مطلع شوند و/یا اگر چنین اطلاعاتی بدون رضایت کاربران با پیمانکاران شخص ثالث به اشتراک گذاشته شود. به عنوان مثال، فیس بوک (اکنون متا) در سال 2019 با جنجال مواجه شد برای پرداخت پول به صدها پیمانکار برای رونویسی پیام های صوتی از چت های صوتی برخی از کاربران در مسنجر.

جمع آوری و ذخیره داده ها

بسیاری از برنامه‌ها از همه نوع مجوز برای دسترسی به اطلاعات دستگاه یا کاربر مختلف، مانند مکان، مخاطبین، چت‌ها در برنامه‌های پیام‌رسان - بدون توجه به اینکه برای عملکرد خود به چنین مجوزهایی نیاز دارند. جمع آوری این اطلاعات در صورت استفاده نادرست، به اشتراک گذاری آن با اشخاص ثالث بدون رضایت آگاهانه کاربر، یا اگر به درستی بر روی سرورهای شرکتی که آن را ذخیره می کند، ایمن نباشد، خطراتی را به همراه دارد.

برای مثال، برنامه‌های رونویسی صوتی، تمایل دارند فایل‌های صوتی را جمع‌آوری کنند که اغلب کلمات گفتاری نه تنها یک شخص، بلکه احتمالاً اقوام، دوستان و همکارانشان را نیز ضبط می‌کنند. در پایان، آنها ممکن است آنها را در برابر حملات سایبری یا نقض حریم خصوصی آسیب پذیر کنند.

برنامه های مخرب

اگر در بازار نرم افزارهای گفتار به متن هستید، باید مراقب برنامه های تقلبی یا چت بات ها نیز باشید. مجرمان سایبری نیز آخرین روندها را دنبال می‌کنند و با توجه به محبوبیت این نرم‌افزار، می‌توانند برنامه‌های جعلی را به عنوان یک فریب برای به خطر انداختن قربانیان با بدافزار راه‌اندازی کنند.

این برنامه‌های مخرب ممکن است کپی‌برداری از برنامه‌های قانونی باشند، که جدا کردن گندم از کاه را برای کاربران دشوار می‌سازد. برنامه های جعلی می توانند در مأموریت بدخواهانه خود بسیار موفق باشند، شما مشروعیت برنامه یا چه کسی پشت آن را بررسی نمی کنید، چه رسد به بررسی سیاست حفظ حریم خصوصی آن.

مجرمان سایبری مشاهده شده‌اند که برای برنامه‌های کاربردی محبوبی مانند مبدل‌ها و خواننده‌های فایل، ویرایشگرهای ویدیو و برنامه‌های صفحه‌کلید، جعل‌کننده‌هایی را منتشر می‌کنند. در واقع، ما برنامه‌های مخرب مختلفی را دیده‌ایم که ادعا می‌کردند قابلیت‌های مختلفی را ارائه می‌کنند، از PDF و خوانندگان کد QR به مترجمان زبان و ویرایشگرهای تصویر.

سرقت اطلاعات

صدا و متن دزدیده شده را می توان برای حملات سایبری از جمله حملات سایبری استفاده کرد دیپ فیک های صوتی سپس می توان از آن برای حملات مهندسی اجتماعی یا توزیع اخبار جعلی استفاده کرد.

این فرآیند به طور کلی شامل دو مرحله است: آموزش مدل یادگیری ماشین و استفاده از خود مدل. در مرحله اول، این مدل از تکنیک‌های پردازش سیگنال صوتی و پردازش زبان طبیعی برای یادگیری نحوه تلفظ کلمات و ساختار جملات استفاده می‌کند. هنگامی که مدل با داده های کافی آموزش داده شود، می تواند متنی را از یک فایل صوتی تولید کند.

مهاجم می‌تواند از این مدل برای دستکاری صداهای دزدیده شده استفاده کند و قربانیان را وادار کند چیزهایی را که هرگز نگفته‌اند، از جمله باج‌گیری، اخاذی یا اخاذی بگویند. جعل هویت آنها به منظور فریب کارفرمایان یا بستگانشان. آنها همچنین می توانند به عنوان یک شخصیت عمومی برای تولید اخبار جعلی ظاهر شوند.

ایمن بودن

  • از پلتفرم های قابل اعتماد استفاده کنید

از ارائه دهندگان خدمات تأیید شده استفاده کنید که به مقرراتی مانند GDPR و بهترین شیوه های صنعت پایبند هستند و برنامه های خود را از فروشگاه های رسمی برنامه تلفن همراه تهیه کنید. به عبارت دیگر، دوری از منابع ناشناخته یا تایید نشده ممکن است شما را در معرض کلاهبرداران مخرب قرار دهد.

  • چاپ خوب را بخوانید

خط‌مشی‌های حفظ حریم خصوصی ارائه‌دهندگان خدمات را بررسی کنید و به بخش‌هایی در مورد اینکه آیا داده‌های گفتاری شما با اشخاص ثالث ذخیره و به اشتراک گذاشته می‌شود، چه کسی به آن دسترسی دارد و اینکه آیا در حین انتقال و در ذخیره‌سازی رمزگذاری شده است، توجه کنید. درباره خط‌مشی‌های نگهداری داده‌های آن‌ها و همچنین در مورد اینکه آیا هر یک از اطلاعات شما در صورت درخواست حذف می‌شود یا خیر پرس و جو کنید. در حالت ایده‌آل، از سرویس‌هایی که چنین داده‌هایی را جمع‌آوری می‌کنند یا در جایی که داده‌ها ناشناس نیستند، استفاده نمی‌کنید.

  • از اشتراک گذاری اطلاعات حساس خودداری کنید

از به اشتراک گذاری جزئیات محرمانه یا حساس، به ویژه مواردی مانند رمز عبور یا اطلاعات مالی، از طریق نرم افزار گفتار به متن خودداری کنید.

تمام نرم افزارهای خود را با آخرین به روز رسانی ها و وصله های امنیتی به روز نگه دارید. برای جلوگیری از قربانی شدن در حملاتی که از آسیب پذیری های نرم افزار سوء استفاده می کنند. برای تقویت بیشتر محافظت خود، از نرم افزارهای امنیتی چند لایه معتبر استفاده کنید.

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟