ذكاء بيانات أفلاطون.
البحث العمودي و Ai.

مايكروسوفت تكشف عن تقنية التزييف العميق التي من الجيد جدًا إصدارها

التاريخ:

قامت مايكروسوفت هذا الأسبوع بعرض VASA–1، وهو إطار عمل لإنشاء مقاطع فيديو لأشخاص يتحدثون من صورة ثابتة، وعينة صوتية، ونص نصي، وتدعي – وهي محقة – أنه من الخطير جدًا أن يتم نشرها للعامة.

إن مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، والتي يمكن من خلالها تحريك الأشخاص بشكل مقنع للتحدث بكلمات مكتوبة بصوت مستنسخ، هي مجرد نوع من الأشياء التي تقدمها لجنة التجارة الفيدرالية الأمريكية حذر الشهر الماضي، بعد ما سبق اقتراح قاعدة لمنع استخدام تقنية الذكاء الاصطناعي في الاحتيال بانتحال الشخصية.

ويعترف فريق مايكروسوفت بنفس القدر في إعلانوهو ما يفسر عدم إصدار التكنولوجيا لاعتبارات أخلاقية. يصرون على أنهم يقدمون بحثًا لإنشاء شخصيات افتراضية تفاعلية وليس لانتحال شخصية أي شخص. على هذا النحو، لا يوجد منتج أو واجهة برمجة تطبيقات مخطط لها.

يقول ريدموند بوفينز: "يركز بحثنا على توليد مهارات بصرية عاطفية للصور الرمزية الافتراضية للذكاء الاصطناعي، بهدف تحقيق تطبيقات إيجابية". "ليس المقصود إنشاء محتوى يُستخدم للتضليل أو الخداع.

"ومع ذلك، مثل تقنيات إنشاء المحتوى الأخرى ذات الصلة، لا يزال من المحتمل إساءة استخدامها لانتحال شخصية البشر. نحن نعارض أي سلوك لإنشاء محتويات مضللة أو ضارة لأشخاص حقيقيين، ونحن مهتمون بتطبيق أسلوبنا لتعزيز اكتشاف التزوير.

قال كيفن سوراس، رئيس شركة Token، وهي شركة مصادقة بيومترية، ومتحدث متكرر عن الذكاء الاصطناعي التوليدي السجل في رسالة بريد إلكتروني تفيد بأنه على الرغم من وجود عروض تقنية سابقة للوجوه المتحركة من إطار ثابت وملف صوتي مستنسخ، إلا أن العرض التوضيحي الذي قدمته Microsoft يعكس أحدث ما توصلت إليه التكنولوجيا.

ورأى أن "الآثار المترتبة على تخصيص رسائل البريد الإلكتروني وغيرها من وسائل الاتصال الجماهيري للأعمال رائعة". "حتى تحريك الصور القديمة أيضًا. إلى حد ما، يعد هذا مجرد متعة، وإلى حد آخر، فهو يحتوي على تطبيقات أعمال قوية سنستخدمها جميعًا في الأشهر والسنوات القادمة.

"متعة" التزييف العميق كانت بنسبة 96 بالمائة عبارة عن إباحية غير رضائية، متى تقييم [PDF] في عام 2019 من قبل شركة الأمن السيبراني Deeptrace.

ومع ذلك، يشير باحثو مايكروسوفت إلى أن القدرة على خلق أشخاص بمظهر واقعي ووضع الكلمات في أفواههم لها استخدامات إيجابية.

"إن مثل هذه التكنولوجيا تحمل وعدًا بإثراء الاتصالات الرقمية، وزيادة إمكانية الوصول لأولئك الذين يعانون من إعاقات في التواصل، وتحويل التعليم، وأساليب التدريس التفاعلي للذكاء الاصطناعي، وتوفير الدعم العلاجي والتفاعل الاجتماعي في الرعاية الصحية"، يقترحون في بحثهم. ورقة بحثية التي لا تحتوي على عبارة "إباحية" أو "معلومات مضللة".

على الرغم من أنه يمكن القول إن الفيديو الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لا يشبه تمامًا الفيديو المزيف العميق، إلا أن الأخير تعريف من خلال التلاعب الرقمي بدلاً من الطريقة التوليدية، يصبح التمييز غير مادي عندما يمكن استحضار تزييف مقنع دون تطعيم القص واللصق.

وعندما سُئل عما يفهمه من حقيقة أن مايكروسوفت لا تطلق هذه التكنولوجيا للجمهور خوفًا من سوء الاستخدام، أعرب سوراس عن شكوكه حول جدوى القيود.

وقال: "لقد امتنعت مايكروسوفت وغيرها في الوقت الحالي عن حل مشكلات الخصوصية والاستخدام". "كيف يمكن لأي شخص تنظيم من يستخدم هذا للأسباب الصحيحة؟"

وأضاف سوراس أن هناك بالفعل نماذج مفتوحة المصدر متطورة بالمثل، مشيرًا إلى EMO. ولاحظ قائلاً: "يمكن للمرء سحب الكود المصدري من GitHub وبناء خدمة حوله يمكن القول إنها تنافس مخرجات Microsoft". "بسبب طبيعة المصدر المفتوح للفضاء، فإن تنظيمه سيكون مستحيلا على أي حال."

ومع ذلك، تحاول البلدان في جميع أنحاء العالم تنظيم الأشخاص الذين يصنعون الذكاء الاصطناعي. كندا, الصين، و UKوجميعها، من بين دول أخرى، لديها لوائح يمكن تطبيقها على التزييف العميق، وبعضها يحقق أهدافًا سياسية أوسع. بريطانيا هذا الأسبوع فقط جعلها غير قانونية لإنشاء صورة تزييف عميق صريحة جنسيًا دون موافقة. وكانت مشاركة مثل هذه الصور غير مسموح بها بالفعل بموجب قانون السلامة على الإنترنت في المملكة المتحدة لعام 2023.

في يناير، مجموعة من الحزبين الجمهوري والديمقراطي من المشرعين الأمريكيين أدخلت قانون تعطيل الصور المزورة الصريحة والتعديلات غير التوافقية لعام 2024 (قانون التحدي)، وهو مشروع قانون يخلق طريقة لضحايا الصور المزيفة غير التوافقية لتقديم دعوى مدنية في المحكمة.

وفي يوم الثلاثاء الموافق 16 أبريل، عقدت لجنة مجلس الشيوخ الأمريكي المعنية بالسلطة القضائية واللجنة الفرعية المعنية بالخصوصية والتكنولوجيا والقانون جلسة استماع بعنوان "الرقابة على الذكاء الاصطناعي: التزييف العميق للانتخابات".

وفي تصريحات معدة مسبقًا، قال ريجول جوبتا، الرئيس التنفيذي لشركة DeepMedia، وهي شركة متخصصة في الكشف عن التزييف العميق:

[T] الجانب الأكثر إثارة للقلق في Deepfakes هو قدرتها على تزويد الممثلين السيئين بإمكانية إنكار معقولة، مما يسمح لهم برفض المحتوى الحقيقي باعتباره مزيفًا. إن هذا التآكل في ثقة الجمهور يضرب جوهر نسيجنا الاجتماعي وأسس ديمقراطيتنا. إن العقل البشري، المجهز لتصديق ما يراه ويسمعه، معرض بشكل خاص لخداع التزييف العميق. ومع تزايد تطور هذه التقنيات، فإنها تهدد بتقويض الإحساس المشترك بالواقع الذي يقوم عليه مجتمعنا، مما يخلق مناخًا من عدم اليقين والشكوك حيث يُترك المواطنون يتساءلون عن صحة كل قطعة من المعلومات التي يواجهونها.

لكن فكر في تطبيقات التسويق. ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟