د. نرمين القماح تكتب: الأمن القومي الإسرائيلي في عصور ما بعد الحقيقة – عصر التلاعب الرقمي

د. نرمين القماح

مدرس الأدب الحديث والمعاصر- قسم اللغات السامية شعبة اللغة العبرية – كلية الألسن جامعة عين شمس

 

 

مصطلح ” Deepfake التزوير العميق”، المترجم إلى العبرية ״זיוף עמוק״، يصف تطبيقًا تكنولوجيًا قائمًا على الذكاء الاصطناعي، والذي يسمح بتغيير أو معالجة محتوى الصور أو مقاطع الفيديو بحيث يكون من الصعب وأحيانًا من المستحيل معرفة أنه مزيف. أصبح ” Deepfakeالتزوير العميق” مثل العديد من التطبيقات الأخرى في مجال الذكاء الاصطناعي رخيصًا وسهلاً في الاستخدام، وفي بعض الحالات يكون متاحًا لأي شخص لديه إمكانية الوصول إلى الإنترنت.

هناك العديد من الطرق لإنشاء تقنية التزييف العميق، الأكثر شيوعًا هو مجال الفيديو، والذي يعتمد على استخدام الشبكات العصبية العميقة التي تتضمن خوارزميات تستخدم تقنية مبادلة وجه شخص مع شخص آخر (تبادل الوجوه swapping-face). تم تطوير هذه التقنية وإتقانها من قبل المطورين بهدف الوصول إلى تطبيقات سهلة الاستخدام لمبادلة الوجه، مثل FakeApp وFaceSwap.

اعتبارًا من 2021، لا تزال هناك حاجة إلى حاسوب باهظ الثمن ومنتجين ذوي خبرة من أجل إنتاج فيديو موثوق به، وجعل من الصعب تحديد التزوير حتى من المحترفين، وليس فقط من قبل عامة الناس. ومع ذلك، فإن التكنولوجيا المتاحة الآن لأي شخص، من خلال مواقع الويب التجارية أو من خلال المتخصصين. تتراوح التكلفة المقدرة اليوم لمقطع الفيديو البسيط باستخدام تقنية “Deepfake” بين ثلاث دولارات وثلاثون دولارًا.

لإنشاء محتوى صوتي أو فيديو اصطناعي بمظهر واقعي هناك عدد من التطبيقات الإيجابية التي يمكن الاستفادة منها في مجالات الحياة، منها:

1- السينما والتليفزيون: حيث يساعد “Deepfake” على تحسين جودة الفيديو وجعل الأفلام أكثر احترافية. كما يسمح باستخدام الممثلين في الإعلانات التجارية والأفلام حتى بدون وجودهم، أو طمس الهوية واستبدالها بأخرى.

2- الطب وعلم النفس: المرضى الذين يفقدون القدرة على الكلام بسبب أمراض مثل مرض ضمور العضلات، سيتمكنون من استخدام جهاز يقرأ بأصواتهم نصًا يتم إدخاله في خوارزمية. هناك أيضًا علاجات نفسية، على سبيل المثال في مجال التعامل مع الصدمات.

3- التعليم والمحافظة على التاريخ: كإنشاء مقابلات أو مواد مرئية مع شخصيات تاريخية، بناءً على وثائق مكتوبة أو مصورة، بغرض جعلها في متناول الجميع.

4- ألعاب الحاسوب- تحسين تجربة اللعبة ومصداقيتها من خلال إنشاء شخصيات واقعية، مع تقليل الاستثمار أحيانًا في التصوير طويل المدى أو تعيين ممثلين محترفين.

على الرغم من التطبيقات الإيجابية في هذا المجال، إلا أنه يجلب معه أيضًا تطبيقات خطيرة ومزعجة تعتمد على نفس القدرات، بما في ذلك إنشاء مقاطع فيديو إباحية مزيفة، وإنشاء منتجات فيلمية بغرض الابتزاز والاحتيال، وكذلك التأثير على السياسة للتلاعب بالرأي العام والإضرار بالأمن القومي. يضاعف التزييف العميق من تحديات حقبة ما بعد الحقيقة، حيث يمكن إنتاج تمثيل خاطئ قد يضلل صفوف صناع القرار ويؤثر بالطبع على الرأي العام والجمهور وقد، وفقًا لمصالح المبدعين أو الموزعين للأعمال المزيفة.

تُعد الهجمات السيبرانية من أدوات الحرب الحديثة، التي تكبد الخصم خسائر باهظة معنوية ومادية، في حرب تختلف كليًا في تفاصيلها عن الحروب التقليدية، سواء في شكلها وتكتيكاها، أو مسرح العمليات الرئيس الذي تحوّل إلى فضاء الإنترنت مستغلاً التقنيات الحديثة، هي سلاح غير تقليدي يعتمد على الاحتيال والبرمجيات الخبيثة. الأمن السيبراني الآن أصبح جزءًا أساسيًا وعاملاً مهمًا لا يتجزأ من آليات الحرب بين الدول وخاصة بعد الأحداث التي شهدها العالم حديثًا- الحروب السيبرانية بين روسيا وأمريكا وأوكرانيا. في عام 2019، تم تصنيف هذه التقنية من قبل أجهزة المخابرات الأمريكية على أنها أكبر تهديد استراتيجي للأمن القومي. كما أن الجمهور العام منزعج من هذه الظاهرة.

في استطلاع للرأي العام في عام 2020 شمل 34,000 بالغ من جميع أنحاء العالم، زعم 66% ممن شملهم استطلاع الرأي أنهم منزعجون من حقيقة أن “التكنولوجيا تجعل من المستحيل معرفة ما إذا كان ما يراه الناس ويسمعونه حقيقيًا أم لا”. وبالتالي، فإن استخدام قدرات التزييف العميق يؤدي إلى تقويض الحقيقة والاشتباه في أن أي جزء من المحتوى زائف، حتى لو كان صحيحًا. هذا لأنه من الممكن الادعاء بأن التسجيل خاطئ وأنه تم إنتاجه باستخدام قدرات تقنية “Deepfake”، وهذا يفرض تحديات حقيقية على الحقيقة والديموقراطية. في السنوات الأخيرة تم توثيق العديد من حالات تأثير تقنية “Deepfake” على تصور الواقع، مما يوضح إمكانية الإضرار بالنظام العام والأمن القومي وحتى بالديموقراطية.

في ربيع عام 2018، عرضت شركة Belle Production فيديو للرئيس أوباما بعد تعديل حديثه السياسي إلى حوار عن فيلم Black Panther، واستعملت الشركة نظم ذكاء صناعي تقليدية لتعديل الفيديو. ويمكن أن ترى في الفيديو شفاه الرئيس تتحرك مع النص المزور، ويتطابق الصوت المزور مع بصمة صوت الرئيس. وفي ربيع عام 2019، ظهر فيديو مزيف لرئيسة مجلس النواب “نانسي بيلوسي Nancy Pelosi” تم تزويره من فيديو حقيقي.

كما رصدت شبكة “CNN سي إن إن” الأمريكية انتشار مقاطع فيديو زائفة بالغة الدقة مستخدمة تقنية “Deepfake”، اشعلت القلق بشأن حرب المعلومات بين روسيا من جهة، والغرب وأوكرانيا من جهة أخرى.

وتحدثت الشبكة في تقرير على موقعها الإلكتروني عن مقطع فيديو ظهر للرئيس الأوكراني “فولوديمير زيلينسكي”، والذي بدا يطالب فيه بوضع الأسلحة والعودة إلى العائلات، وقال فيه أيضًا: هذه الحرب لا تستحق الموت من أجلها، واقترح أن تواصلوا العيش وأنا سأفعل الأمر نفسه. وتبين بعد ذلك أن المقطع زائف، وتم تركيب صورة الشخص بشكل دقيق على كلمات، بحيث يبدو وكأنه هو قائلها.

وتقول “سي إن إن” إنه قبل خمس سنوات لم يكن أحد يسمع عن تقنية “Deepfake”، أو مقاطع فيديو وملفات صوت تبدو مقنعة لكنها زائفة، تم إعدادها بواسطة الذكاء الاصطناعي. ولكن يتم استخدامها الآن في مسار الحرب، فبالإضافة إلى مقطع الفيديو الخاص بـ “زيلينسكي”، انتشر في شهر مارس الماضي فيديو آخر تم تداوله على نطاق واسع يصور الرئيس الروسي “بوتين” وهو يعلن السلام في حرب أوكرانيا.

أصبح التضليل المعلوماتي أكثر ما يقلق في السنوات الأخيرة، لاحتمال انتشار الأكاذيب والفوضى عبر تقنية ” Deepfake-التزوير العميق”، لاسيما بعدما أصبحت أكثر واقعية واحترافية في مظهرها.

ومن هنا تأتي أهمية الدراسة التي أجراها فريق بحثي بمركز أبحاث الوسائط الرقمية في جامعة “كوينزلاند” الأسترالية ونشرتها دورية “جوريناليزم براكتيس Journalism Practice” تحت عنوان “التضليل البصري في الصحافة والاتصالات العامة.. ممارسات التحقق الحالية والتحديات والفرص المستقبلية – Visual Mis/disinformation in Journalism and Public Communications: Current Verification Practices, Challenges, and Future Opportunities ” مشددة على أن “التفريق بين المحتوى المصور الدقيق والزائف صار مهمة صعبة حتى على المتخصصين، وذلك بسبب برامج تحرير الصور سهلة الاستخدام التي باتت موجودة في كل مكان في الغالب”.

وحذرت الدراسة من أن “الصحفيون الذين تحكمهم مواعيد محددة لتقديم تقاريرهم يفتقرون إلى الأدوات اللازمة لمعرفة الفرق بين الصور الحقيقية والمزيفة، خاصة عندما تأتي الصور من وسائل التواصل الاجتماعي”، مضيفًة إلى أنه ” أصبح من السهل تغيير الصور السابقة والحالية، من خلال طرق مثل الاستنساخ والقص واللصق وإعادة التحرير، ما يجعلنا نواجه أخطار إعادة كتابة تاريخ مزيف، وليس تزييف الواقع فحسب”.

كذلك نقلت الدراسة عن “هيزل بيكر” -رئيس وحدة تقصى الحقائق في وكالة أنباء “رويترز”- الصحفية، والمعنية باستقصاء المصادر والتحقق من المواد الإعلامية التي يقدمها شهود العيان، قوله إنه أثناء إعصار “إيداي” الاستوائي الذي ضرب عددًا من الدول الأفريقية في مارس 2019، تداولت مواقع التواصل الاجتماعي مقطع فيديو زعمت أنه أحد التداعيات المرعبة لحدوث الإعصار، لكن غرفة الأخبار في “رويترز” اكتشفت أن تاريخه يعود إلى وقائع حدثت في ليبيا قبل 5 سنوات.

وبلغة الأرقام، تشير الدراسة إلى أن عدد المرئيات التي يتم إنشاؤها يوميًا يبلغ أكثر من 3.2 مليارات صورة، و720 ألف ساعة من مقاطع الفيديو، مشددة على أن “المعلومات المضللة لا تسعى إلى إقناع الجمهور بأنها تقدم محتوى صحيحًا، وأن الهدف منها ربما يكون الرغبة في التشويش على قضية يعتقد الناس أنها مهمة، أو تعكير المياه المعلوماتية من أجل إضعاف وجهات النظر المعرفية، أو توجيه الجمهور إلى خيارات محددة كما هو الحال في أثناء الانتخابات”.

حذرت وكالة الشرطة الأوروبية “يوروبول” الخميس من توسع استخدام تقنية “Deepfake-التزوير العميق” في عالم الجريمة، مشيرة إلى خطورة هذا الأمر وجعل مكافحته أولوية.

وقالت “يوروبول” إن القدرة على جعل أشخاص يظهرون على شبكة الأنترنت وهم يقولون أو يفعلون أشياء لم يسبق لهم أن قالوها أو فعلوها، أو حتى خلق شخصيات جديدة تمامًا، يمكن أن يكون له تأثير مدمر في حال وقعت هذه التقنية في الأيدي الخطأ.

وهو ما أدى إلى إصدار الوكالة تقريرًا من 23 صفحة يبحث في كيفية استخدام الذكاء الاصطناعي وتقنية التزييف العميق في عالم الجريمة، بما في ذلك لتقويض ثقة الناس بالسلطة والحقائق الرسمية، فالخبراء يخشون من أن يؤدي هذا إلى وضع لا يملك فيه المواطنون حقيقة مشتركة، أو إلى خلق إرباك في المجتمع حول وسائل الإعلام التي يمكن الوثوق بها وهو وضع يسمى “نهاية عصر المعلومات” أو “اللامبالاة تجاه الحقيقة”.

كما يمكن استخدام تقنية “Deepfake-التزوير العميق” لابتزاز الأشخاص عبر الإنترنت، وخاصة القُصر منهم واستغلالهم في أمور غير أخلاقية، أو إنتاج مواد إباحية مزيفة وتزوير أدلة إلكترونية متعلقة بتحقيقات قضائية والتلاعب بها. كما أن عالم الأعمال والأموال ليس بمنأى عن هذا الخطر. وأعطت الوكالة مثالاً على ذلك استخدام مجرمين لتقنية “التزييف العميق” في تقليد صوت رئيس تنفيذي لإحدى الشركات ليأمر موظفًا بتحويل 35 مليون دولار.

ويبقى السؤال: هل يمكن لتقنية Deepfake تقويض الأمن القومي بعد زيادة جودة التكنولوجيا وتوافرها؟ للإجابة على هذا السؤال لابد في البداية من معرفة ما هو الأمن القومي؟ من المسلم به أنه قدرة الأمة على حماية مواطنيها وقيمها الداخلية من التهديدات، بما في ذلك الدول المعادية والمنظمات الإرهابية، على الرغم من أن المراجع التاريخية والنظرية للقضية تركز في الغالب على جوانب الجيش والعلاقات الخارجية، الأمم المتحدة على سبيل المثال تُدرج في تعريف الأمن القومي سبع ركائز رئيسة: الاقتصاد، والغذاء، والصحة، وجودة البيئة، والأمن الشخصي، والمجتمع والأمن السياسي. وهذا التعريف يشمل الإشارة إلى قدرة الفرد على إدارة حياته اليومية بأمان وراحة.

في العصر الحالي، وخاصة في البلدان المتقدمة، لا يقتصر توقع المواطنين على الدولة حمايتهم فقط من التهديدات العسكرية، ولكن أيضًا القدرة على العيش الآمن اقتصاديًا وصحيًا وشخصيًا، فمع اختراق تقنية التزييف العميق العديد من مجالات الحياة، وفي ضوء الافتراض السائد منذ عام 2016 أننا نعيش في عصر ما بعد الحقيقة والأخبار المزيفة. حيث يُشير مصطلح ما بعد الحقيقة إلى الثقافة السياسية التي تؤثر الحقائق الموضوعية على تشكيل الرأي العام بشكل أقل من المشاعر والمعتقدات والآراء، ويشير مصطلح الأخبار المزيفة إلى السهولة التي يتم بها تقديم الأخبار لنشر الأكاذيب والتشويهات والخطاء ونظريات المؤامرة.

التحدي الحقيقي الذي تشكله ظاهرة ما بعد الحقيقة والأخبار الكاذبة للأمن القومي والديموقراطية هو في الواقع الخوف من عالم يصعب فيه، بل يكون من المستحيل التمييز بين الحقيقة والباطل، وفي نفس الوقت الخوف من عملية اتخاذ القرار التي يكون فيها للرأي المهني القائم على الحقائق تأثير أقل من المشاعر والمعتقدات والآراء والأكاذيب، كل هذا يمكن أن يكون له تأثير بعيد المدى على الأمن القومي بأوسع معانيه.

تنبع القوة الإقناعية والإمكانيات الفيروسية للتزييف العميق -على عكس الأخبار المزيفة- من حقيقة أن التزييف العميق يُنظر إليه على أنه “توثيق مباشر” لوقوع الأحداث في الواقع، بمعنى يميل الناس إلى تصديق الأشياء التي يرونها بطريقة ملموسة وحقيقية. ينظر البشر إلى التسجيلات الصوتية ومقاطع الفيديو على أنها الدليل الأكثر موثوقية، كما قال السيناتور “أنجوس كينج” في عام 2019 “أنت تكذب، أما مقاطع الفيديو لا تكذب”، لكن مع عالم Deepfake لم يعد المفهوم التقليدي القائل بأن “الرؤية أو السمع هو الإيمان” موجودًا.

يؤدي استخدام قدرات التزييف العميق، إلى تقويض الحقيقة ولإثارة الشك في أن كل جزء من المحتوى خاطئ، حتى لو كان حقيقيًا. على سبيل المثال، من الممكن الادعاء بأن تسجيلاً كاذبًا وأنه تم إنتاجه باستخدام إمكانات مزيفة تمامًا، وبالتالي إخلاء المسؤولية. في ضوء ذلك، فإن إمكانات التزوير العميق تكثف وتفاقم الأوضاع في عصر أخبار ما بعد الحقيقة والأخبار الزائفة التي نعيشها، والتحديات التي تطرحها على الحقيقة والديمقراطية.

مع تطور تقنية التزييف العميق، تتطور أيضًا أدوات الكشف عن التزوير العميق. ومع ذلك هناك أيضًا حاجة إلى تثقيف عام بالإضافة إلى أدوات تنظيمية وقانونية للتعامل مع هذه الظاهرة – وهي تدابير ليست كافيه في معظم دول العالم.

مقالات ذات صلة

اترك رد

%d مدونون معجبون بهذه: