بعد ظهور مواقع تستخدم تقنية التزييف العميق لصناعة أفلام إباحية.. خطورة وضع السيدات والفتيات صورهن على مواقع التواصل الاجتماعي

(لطالما خشي الباحثين في مجال التزييف العميق Deepfake من قدوم هذا اليوم)، بهذه العبارة افتتحت منصة "إم آي تي تكنولوجي ريفيو"​ التابعة لجامعة (إم آي تي) في بوسطن بالولايات المتحدة الأمريكية تقريرها عن ظهور مواقع تستطيع بنقرة زر واحدة استخدام مجموعة عادية من الصور في صناعة فيلم اباحي لصاحبة الصور.

باستخدام الصور العادية التي تنشرها الضحية على حساباتها عبر مواقع التواصل الاجتماعي، يمكن صناعة فيلم اباحي مزيف بالكامل لصاحبتها، guvendemir/Getty. 


والحقيقة أن هذه العبارة قد أصابتنا نحن أيضا في (المعرفة للدراسات) بالخشية والخوف على الفتيات والسيدات اللواتي يضعن صورهن بكثافة على مختلف مواقع التواصل الاجتماعي بشكل شبه يومي، وحتى على هؤلاء الذين يضعون ولو صورة واحدة.

لقد أصبحن هؤلاء في خطر شديد، خطر قيام بعض ضعاف النفوس بجمع صورهن وإعداد تلك الأفلام، فتجد الفتاة أو السيدة نفسها في فيلم إباحي معد بدقة شديدة لا يمكن تمييزها عن الواقع.

إننا ندق ناقوس الخطر للجميع، من فضلكن قوموا فورا بحذف صوركم على مختلف تطبيقات وسائل التواصل الاجتماعي، ومن فضلكم يا معشر الرجال، يا من له ام أو أخت أو بنت، اطلعوهن على هذا التقرير، فإننا قد وصلنا حقا إلى عصر الرعب.


ظاهرة:


من المثير للخوف أكثر، أن استخدام البرامج والتطبيقات التقليدية في تزييف صور ومقاطع إباحية هي ظاهرة منتشرة بالفعل، وذهب ضحية لها الكثير من الفتيات، حتى أن بعضهن لم تمتلكن القدرة على مواجهة أمر لم يكن لها يد به، فقررت الانتحار، لتزيد الطين بله. (بحسب هيئة الإذاعة البريطانية بي بي سي فإن العالم يشهد تزييف الصور الجنسية منذ أكثر من قرن من الزمان).

لقد أعددنا منذ شهور تقرير نال إهتمام الكثير من متابعينا، ويتصدر إحصاءات القراءة على موقعنا منذ فترة طويلة بعنوان (الخدع المستخدمة في الأفلام الإباحية.. كيف يخدعك صناع أفلام البورنو).

في هذا التقرير كشفنا من ضمن ما كشفنا عن صناعة الإباحية أن هناك أفلام إباحية معروضة على المواقع الإباحية وهي مصنوعة بالكامل باستخدام تقنية التزييف العميق Deepfake، دون وجود الممثلين الظاهرين في الفيلم الذي تم تصويره، مجرد صور للمشاركين في الفيلم وتقوم تطبيقات التزييف العميق Deepfake بصناعة فيلم كامل.

هذه هي الحقيقة المرة، لقد أصبح الأمر سهلا بطريقة مرعبة، ولم يعد ترك صور السيدات والفتيات على مواقع التواصل الاجتماعي شيئا اختياريا، بل أصبح من الضروريات الملحة فورا التخلص منها وحذفها.

وكما فعلت "إم آي تي تكنولوجي ريفيو"​ ستقوم "المعرفة للدراسات" في تقريرها بالإشارة للموقع بالحرف Y، كما لن تستخدم أي لقطات للشاشة من الموقع، ولن تشير إليه بشكل مباشر، لتجنب أن يتجه إليه أي شخص من ضعاف النفوس ويبدأ في استغلاله لأذي الناس.


الموقع Y:


هذا الموقع الذي يقوم بإنشاء فيديوهات التزييف العميق Deepfake لإنشاء أفلام إباحية مزيفة باستخدام صور الضحايا، والذي سنشير إليه بالرمز Y، لا تزال قاعدة مستخدميه صغيرة نسبيا، وتتركز أساسا بين المهتمين بتكنولوجيا التزييف العميق.

برغم ذلك فهناك منتديات يتحدث فيها المستخدمين عن الموقع، ويقدمون ملاحظات هامة لتطوير الفيديوهات.

لكن الخوف الأساسي الآن أن يتم تطوير تطبيق يقوم بنفس هذه المهمة، منتهكًا خطًا أخلاقيًا لم تتجاوزه من قبل أي مواقع أو تطبيقات أخرى.

منذ بداية الموقع Y، يستخدم تقنية التزييف العميق لأنشاء أفلام إباحية بصور فتيات وسيدات، هذا الأمر مدمر لحياة الضحايا بشكل فعلي، والمخيف أنه قد بدأ الموقع في تخطي حاجز الاهتمام من المبرمجين فقط، ووصل الناس العاديين إليه، فاستطاع جلب ملايين الزيارات شهريا، إذ تقدر عدد الزيارات التي وصلت إليه في أغسطس الماضي ٢٠٢١ بأكثر من ٦،٧ مليون زائر.


التزييف العميق:

بينما تكفي صورة واحدة لصنع الفيلم الإباحي المزيف، فإن وجود مجموعة صور لنفس السيدة، يجعل الفيلم أكثر تزييفا، وأكثر من حيث صعوبة تمييزه عن الفيديوهات الحقيقية، Creative Commons Zero - CC0. 


يصف تقرير "إم آي تي تكنولوجي ريفيو" تصميم الموقع الذي يقوم بعملية التزييف العميق تلك بأنه ملفت النظر ببساطته، بخلفية بيضاء، وأيقونة عملاقة تدعو الناس لتحميل صورة الوجه.

اسفل تلك الأيقونة، هناك أربعه وجوه تم إنشاؤها بواسطة الذكاء الاصطناعي AI -أي ليست لأشخاص حقيقيين-، تسمح للمستخدم بتجربة الخدمة التي يقدمها ذلك الموقع، أي أن يجرب صنع الفيلم الإباحي المزيف بهذه الصور.

في الأعلى، نجد سطرا يعلن الهدف من الموقع بجرأة شديدة: ((حول أي شخص إلى نجم أفلام إباحية باستخدام تقنية التزييف العميق deepfake، لوضع وجه شخص في فيديو إباحي، كل ما يتطلبه منك الأمر هو صورة وكبسة زر)).

هكذا، بكل بساطة تلفق للناس طعنات غائرة في شرفهم، وهم في غفلة من أمرهم، لذا فما الداعي أصلا لإتاحة الفرصة لهؤلاء المرضي وضعاف النفوس؟ سارعوا فورا بإزالة كل صوركم.

هذا ويقدر تقرير نشرته Sensity AI المتخصصة في أبحاث الذكاء الاصطناعي أنه وحتى يومنا هذا، فإن مقاطع الفيديو التي استخدم فيها تقنيات التزييف العميق Deepfake ، كان منها ٩٠ : ٩٥٪ عبارة عن أفلام إباحية وضعت فيها صور أشخاص لا علاقة لهم بالفيديوهات أصلا، وأن ٩٠٪ : ٩٥٪ من هذه الفيديوهات زيفت فيها صور سيدات أو فتيات (معظمهن كن من نجمات السينما الأمريكية والبريطانية والكورية)، بينما ال٥٪ : ١٠٪ المتبقية استخدمت للتزييف ضد الرجال.

خطورة موقع Y الأساسية ، بجانب بالطبع ما يفعله من تزييف، أنه سهل الاستخدام بشكل لا يصدق، حتى أن أقل الأشخاص خبرة يمكنهم استخدامه، فبمجرد أن يقوم الشخص بتحميل صورة لوجه الضحية، سيقوم الموقع بفتح مكتبة من الأفلام الإباحية أمامه، الغالبية العظمي منها للنساء، ومع ذلك يمكن الإضرار بسمعة الرجال كذلك، إذ تتوفر تلك المكتبة كذلك على أعداد من أفلام الشذوذ الجنسي.

يمكن للشخص اختيار الفيديو الذي يريده، وسيظهر له في غضون ثوان (معاينة) يري من خلالها أجزاء من الفيديو الذي سيحصل عليه، فإذا ما أراد الحصول علي النسخة كاملة، يقوم بسداد الثمن ببطاقة الدفع الخاصة به، وستبدأ عملية إعداد للفيديو (بحسب هيئة الإذاعة البريطانية بي بي سي، تصل مدة إعداد فيديو إباحي بتقنية التزييف العميق Deepfake إلى ٤٠ ساعة).

هنا يكون ذلك الشخص المريض قد امتلك الفيديو الإباحي لسيدة أو فتاة أو حتى رجل لا علاقة لهم بتلك الأفعال أساسا، وبصورة عامة قد لا يصل الفيديو إلى درجة الكمال، وستظهر حقيقة أن العديد من الفيديوهات مزيفة، لأن الوجوه في الفيديوهات تتحرك في زوايا مختلفة كما نعلم، بينما الصور الخاصة بالضحية ثابتة (لذا فإن زيادة عدد صور الضحية يجعل الفيديو أكثر حبكة وأكثر إقناعا، والمشكلة أن بعض الناس تشعر وكأنهم يخوضون سباقا لنشر صورهم على مواقع التواصل الاجتماعي يوميا).

لكن في النهاية، فبالنسبة للمشاهد العادي، قد يخدعه الفيديو بشكل كامل ولا يلاحظ تلك الاختلافات، والحقيقة ان تقنية التزييف العميق Deepfake تتطور بسرعة شديدة، ووصلت بعض الفيديوهات لدرجة عدم إمكانية تمييزها عن الواقع.

يقوم الذكاء الاصطناعي بضبط الوجه الخاص بالضحية على الفيديو الاباحي المزيف، teguhjatipras، CC0 1.0 Universal Public Domain Dedication، via Wikimedia commons. 


كما أن واحدة من أكبر المشاكل التي كانت تواجه التزييف العميق Deepfake وهي (ضبط الصوت مع الصورة) تمت معالجتها حاليا، وظهرت برامج تقوم بعمل ضبط متقن للصوت مع الصورة يمكنها خداع أي مشاهد.

العديد من الخبراء -ونحن معهم في هذا الرأي- يقولون بأن مدى جودة التزييف العميق Deepfake لن تكون مهمة كثيرة، لأن الخسارة النفسية والفضيحة التي تحدث للضحية تكون واحدة في كلتا الحالتين، سواء كان الفيديو واقعي بنسبة ٧٠ ٪ أو حتى ٩٥٪.

كما لا ننسي أن الكثير من الناس، خصوصا من غير المهتمين بالتكنولوجيا، لا يزالون غير مدركين لوجود تلك التقنيات من الأصل، وبالتالي فحتى لو كان الفيديو منخفض الجودة من حيث درجة التزييف فإنه سيظل قادرا على خداع نسبة لا بأس بها من الناس.

بجانب هذا كله، فغالبية الضحايا لن تتمتلكن القدرة التقنية على كشف التزييف في الفيديوهات ، ولن تمتلكن القدرة المالية على دفع تكاليف جلب خبراء لتلك المهمة.


مواقع أخرى:


مع تقدم التكنولوجيا ، ظهرت العديد من الأدوات والمواقع سهلة الاستخدام، والتي لا تحتاج لمعرفة مستخدمها للأكواد البرمجية، ظهرت أيضا برامج ومواقع تسمح "بنزع" الملابس عن أجساد النساء، لتتحول صورهن العادية إلى صور عارية.

وبرغم أن العديد من هذه المواقع والبرامج تم إيقافها، فلا تزال الأكواد البرمجية التي يمكن استخدامها لصنعها مجددا موجودة ومتاحة في العديد من المواقع التي يستخدمها المبرمجين، لذا فليس في الأمر غرابة عندما نكتشف ظهور مواقع جديدة لنفس الأغراض بمرور الوقت.

لقد وصلنا لنعيش في الزمن الذي أصبح فيه أحد التطبيقات يمكن من خلع الملابس من صور النساء، مقابل ٥٠ دولار أمريكي ، فلا مرحبا بعصر النخاسة الإلكترونية حيث تباع أعراض الناس وكرامتهم وشرفهم على قارعة الطرق والازقة الإلكترونية، وتتحطم كرامة البشر ، تتحطم إلى الصميم.

وللتوضيح فإن ما تفعله تلك البرامج، أنها تختار اجساد عارية ملائمة ومتناسقة لتركيبها على صورة وجه السيدة أو الفتاة، لكنها لا تخلع ملابسهن فعليا، لكن درجة التزييف العالية هنا جعلت تعبير "خلع الملابس" تعبير دقيق، إذ لم يعد الأمر كما كان سابقا بوضع الوجه على أي جسد غير متناسق أو متشابه مع الوجه. 


أهداف متعددة:


الدوافع التي قد تدفع أحد الأشخاص لإنشاء فيديوهات من ذلك القبيل متعددة.

فهناك من تحركهم دوافع شخصية كالرغبة في الانتقام، أو الكراهية والرغبة في الإساءة لسمعة فتاة أو سيدة معينة.

لكن ربما تنشأ غالبية هذه الأفعال المتدنية من الراغبين في مقايضة ضحاياهم بالمال، فإما الدفع، وإما نشر تلك المواد الإباحية المزيفة، وبالطبع، فإن دقة تلك الفيديوهات ستجعل مهمة الضحية في نفي تلك التهمة عن نفسها مهمة صعبة المنال.

هذا، ويمكن ان تبقي تداعيات نشر مثل تلك الأفلام الإباحية المزيفة مصاحبة للضحايا مدى الحياة، إذ سيكون من الصعب حتى في حالة القبض على المتورط إزالة الصور ومقاطع الفيديو من الإنترنت، سيؤثر ذلك على الحياة الشخصية والاجتماعية للضحايا، سيؤثر عليهم حتى في فرص الحصول على عمل، ففي كل مقابلة عمل يذهبون إليها سيكونون عرضة للمضايقات.

في الوقت الحالي، تتصاعد الخشية من استخدام تقنيات التزييف العميق Deepfake في أغراض سياسية واقتصادية، بصناعة أفلام إباحية مزيفة للمشاهير، أو خطاب مفبرك لرئيس أو حاكم احدي الدول، ولنتخيل معا تأثير أمور كتلك ليس على الصعيد الشخصي، بل قد تمتد لتصل تأثيراتها على مجتمعات واقتصاديات دول كاملة.

ولا ننسي في النهاية، أن نذكر كل مريض أو مستغل، قد يحاول فعل مثل تلك الأشياء، بأن هناك إله قادر على الانتقام منه.

المعرفة للدراسات
بواسطة : المعرفة للدراسات
المعرفة للدراسات الإستراتيجية والسياسية، هي محاولة عربية جادة لتقديم أهم الأخبار العربية والعالمية مع التركيز علي تحليل مدلولاتها، لكي يقرأ العرب ويفهمون ويدركون. نمتلك في المعرفة للدراسات عددا من أفضل الكتاب العرب في عديد من التخصصات، لنقدم لكم محتوى حصري وفريد من نوعه. facebook twitter
تعليقات



حجم الخط
+
16
-
تباعد السطور
+
2
-