الذكاء الاصطناعي يهدد تقنية أنظمة المراقبة والثقة الرقمية - تكنو بلس

nni 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
الذكاء الاصطناعي يهدد تقنية أنظمة المراقبة والثقة الرقمية - تكنو بلس, اليوم الاثنين 21 أبريل 2025 03:29 مساءً

ابوظبي - ياسر ابراهيم - الاثنين 21 أبريل 2025 04:05 مساءً - توقع ليو ليفيت-رئيس اللجنة التوجيهية لـ ONVIF، المبادرة العالمية المتخصصة في مجال توحيد معايير منتجات الأمن التقني، أن يؤدي تنامي انتشار وصعود الذكاء الاصطناعي التوليدي، إلى إحداث ثورة في كيفية استخدامنا لأنظمة الأمن، فضلاً عن المعلومات التي ستوفرها هذه الأنظمة. وباتت الوعود بتوفير مستويات جديدة من الكفاءة والدقة وعمق البيانات المولدة من الذكاء الاصطناعي، تستحوذ على معظم الاهتمام المتعلق بالذكاء الاصطناعي وتأثيراته في مجال الأمن.

وقال ليفيت إن تأثيرات الذكاء الاصطناعي التوليدي ليست جميعها إيجابية، إذ ينطوي بعضها على تهديدات خطيرة لسلامة ونزاهة مجموعة التقنيات الأساسية في مجال أنظمة المراقبة بالفيديو. وأكثر ما يثير القلق، هو الانتشار المتزايد لفيديوهات مُتلاعب بها، أو ما يسمى «التزييف العميق»، والتي أصبحت ممكنة، بفضل توافر أدوات تعديل الفيديو القائمة على تقنية الذكاء الاصطناعي التوليدي. وقد كان إنشاء هذه الفيديوهات المُزيفة، أو تعديل الفيديوهات الموجودة، يتطلب في السابق مهارات متخصصة، ومعدات باهظة الثمن، إلا أن ذلك أصبح الآن ممكناً باستخدام تطبيقات يومية سهلة وبسيطة، يتوفر العديد منها للتنزيل والاستخدام بشكل مجاني.

مشيراً إلى أنه في حين يمكن اكتشاف بعض حالات التزييف العميق أو الفيديوهات المُتلاعب بها بسهولة، مثل الفيديوهات التي تتضمن سيناريوهات خيالية، كوجود ديناصور يتجول في ردهة مكتب مثلاً، إلا أن هناك تعديلات أخرى على الفيديو، يمكن أن تكون سلسة ومقنعة للمشاهد، لأنها لا تتضمن تغييرات واضحة في لقطات الفيديو. فعلى سبيل المثال، قد يؤدي تغيير الطابع الزمني لمقطع فيديو إلى يوم أو وقت مختلف، إلى تقديم معلومات غير صحيحة حول وقت وقوع الحدث. وقد يؤدي حذف لقطات معينة من مقطع فيديو لحدث ما إلى إزالة الحدث أو الشخص المعني فيه، مما يعني أن المقطع لا يسجل الحدث بدقة. وتشمل الأمثلة الأكثر تطرفاً في هذا المجال استبدال وجه بوجه شخص آخر في المشهد، أو استخدام الذكاء الاصطناعي التوليدي لوضع سلاح ناري في يد شخص ما.

وقال ليفيت لقد تحول تزايد التزييف العميق من مجرد مسألة افتراضية، إلى تهديد حقيقي في السنوات الأخيرة. ففي منطقة الشرق الأوسط، تزايدت التقارير عن استخدام تقنية التزييف العميق في أنشطة احتيالية. إذ تعرض مسؤول حكومي هندي متقاعد للاحتيال في عام 2023، لدفعه لتحويل أموال، بعد تلقيه مكالمة فيديو مزيفة من صديق له في مطار دبي. وتشير التقارير الأخيرة إلى أن هذا التوجه لا يشهد تباطؤاً على الإطلاق، فقد أظهر استطلاع رأي في السعودية، أن 20 ٪ فقط من الموظفين استطاعوا تمييز التزييف العميق. أما في الإمارات العربية المتحدة، فقد أشار تقرير صادر عن شركة ريجيولا أن 56 % من الشركات تتعرض لمقاطع فيديو مُتلاعب بها بالتزييف العميق.

وقد دفع تزايد استخدام تقنية التزييف العميق، بعض الحكومات الإقليمية إلى اتخاذ خطوات جادة لمعالجة هذه المشكلة. فعلى سبيل المثال، سنّت السلطات المعنية في الإمارات العربية المتحدة، قوانين ولوائح صارمة، وأطلقت حملات توعية لتثقيف الجمهور حول مخاطر هذه التقنية. وبالإضافة إلى ذلك، تقوم الحكومة بتدريب وحدات إنفاذ القانون على التحليل الجنائي الرقمي، للكشف عن هذه الاحتيالات المعقدة ومكافحتها، لضمان أن يواجه المحتالون عواقب وخيمة على أفعالهم هذه.

ويمكن أن تُشكّل القدرة على تعديل الفيديو تحدياتٍ كبيرةً، تؤثر في نهاية المطاف في ثقة المؤسسات بأدلة الفيديو، وقدرة القطاع على الحفاظ على مصداقية لقطات المراقبة، ما قد يُسفر عن تبعات جدّية في مجالاتٍ عديدة. ويُعدّ الفيديو من أهم الأدلة المستخدمة في التحقيقات الجنائية، وإجراءات المحاكم، والتحقيقات الأمنية الداخلية للشركات.

وأضاف أن العديد من الدول تطبق إجراءات تسلسلية صارمة للغاية، لحجز الأفراد كجزء من تحقيقات إنفاذ القانون، ويُشترط قبول الفيديو كدليل في المحكمة. ويمكن أن يؤدي عدم ثقة الجمهور بالفيديو، إلى تنامي مخاوف بشأن وجود شك معقول في نظر هيئة المحلفين، أو في الأحكام القضائية في إجراءات المحاكم والتحقيقات المتعلقة بالشركات.

وإذا تمكنت تلاعبات الذكاء الاصطناعي من تقويض السوابق القانونية الحالية بشأن جواز قبول أدلة الفيديو، فقد تُضطر المحاكم إلى وضع معايير جديدة كلياً لهذا النوع من الأدلة. وقد يؤدي هذا إلى استبعاد أدلة الفيديو في الحالات التي يتعذر فيها إثبات المصادقة.

أما بالنسبة لأمن الشركات، فإن المخاطر كبيرة بنفس ذلك القدر، إذ تعتمد التحقيقات الداخلية بشكل كبير على تسجيلات المراقبة للتعامل مع حوادث تتراوح من انتهاكات السلامة في مكان العمل، إلى دعاوى السرقة والتحرش. وغالباً ما تستند إدارات الموارد البشرية والفرق القانونية في الشركات في قراراتها الحاسمة إلى أدلة الفيديو. وفي حال وجود شك في هذه الأدلة، ستواجه المؤسسات مخاطر متزايدة على صعيد المسؤولية القانونية، وتكاليف تسوية أعلى، وصعوبة أكبر في حل النزاعات في مكان العمل بشكل عادل. كما بدأت شركات التأمين تُعرب عن قلقها بشأن القدرة على التحقق من المطالبات في عصر الفيديوهات القابلة للتلاعب، حيث تهتم بعض سياساتها الآن بشكل أساسي بموثوقية الأدلة الرقمية.

ومن اللافت للانتباه أن تأثيرات هذه التقنية تتجاوز قاعات المحاكم والشركات، إذ تعتمد مؤسسات السلامة العامة، وأنظمة النقل، وحماية البنى التحتية الحيوية، وتطبيقات الأمن القومي، جميعها على الفيديو المُوثّق لاتخاذ القرارات في الوقت الفعلي، ومراجعة الإجراءات بعد تنفيذها.

ومع تزايد هذه التهديدات، لن تكون تقنيات الطب الشرعي التقليدية الخاصة بحماية لقطات الفيديو كافية للحماية من قدرة الذكاء الاصطناعي التوليدي على تعديل فيديوهات المراقبة سراً وعلانيةً. وتعكس الحاجة المتزايدة إلى حلول جديدة، أهمية التعاون بين القطاعات المختلفة، وإيجاد طريقة موحدة للحفاظ على سلامة الفيديو، وتعزيز ثقة المؤسسات في اللقطات كصورة دقيقة للموقف.

إيجاد حل بتوقيع وسائط

وقال ليفيت، ONVIF تعمل بصفتها منظمة معايير عالمية، على تطوير طريقة لمصادقة الفيديو تُسمى توقيع الوسائط، تُثبت عدم تعديل الفيديو منذ خروجه من مستشعر الكاميرا الذي التقطه. ويُعدّ تأمين الفيديو في أقرب وقت ممكن، عند التقاطه بواسطة مستشعر الكاميرا، أمراً أساسياً لضمان مصداقية وموثوقية لقطات الفيديو المُرسلة من الكاميرا إلى المحكمة.

أما على المستوى التقني، فإن هذه الطريقة تتضمن كاميرا مزودة بمفتاح توقيع فريد، يُستخدم لتوقيع مجموعة من إطارات الفيديو، حيث يُحتسب كل إطار. ثم يتم دمج التوقيع في الفيديو. وعند تشغيل الفيديو عبر مشغل وسائط (مثل مشغل فيديو مستقل أو برنامج إدارة فيديو)، يدعم توقيع الوسائط، ويتمتع بشهادة جذرية موثوقة من الشركة المصنعة للكاميرا، يمكن لمشغل الوسائط التحقق من أن بيانات الفيديو صادرة مباشرةً من تلك الكاميرا، ولم يتم التلاعب بها. وفي حال تم تعديل وحدات البكسل في إطار الفيديو، أو إزالة بعض الإطارات أو إعادة ترتيبها، ستفشل عملية التحقق من التوقيع، وسوف يشير مشغل الفيديو إلى أن الفيديو غير صالح.

تبسيط عملية المصادقة لإنفاذ القانون

ويوفر توحيد مصادقة الفيديو باستخدام نظام ONVIF، طريقةً عامة للتحقق من صحة الفيديو. ويُساعد هذا على تبسيط الإجراءات لمستخدمي الفيديو، مثل جهات إنفاذ القانون، وموظفي العدالة الجنائية، الذين يتعاملون مع لقطات فيديو مُولّدة من أنظمة تتبع لمُصنّعين مُختلفين، قد يستخدمون أساليب مُتنوعة لحماية الفيديو. وبالإضافة إلى ذلك، لن يكون هناك حاجة لإثبات سلسلة حيازة الفيديو، إذ تم الحصول عليه مباشرةً من الكاميرا التي التقطته. ويُمكن التحقق من صحة الفيديو في كل خطوة، بدءاً من الكاميرا، وصولاً إلى الشخص الذي يُشاهد التسجيل. ويمكن مع المصادقة المُقدّمة عند نقطة الالتقاط، تتبّع الفيديو إلى الجهاز الذي سجّله.

إصدار مفتوح المصدر

هذا، وتخطط ONVIF لإصدار تطبيق توقيع الوسائط كمشروع مفتوح المصدر. وسيُضفي توفير المواصفات لمجتمع المصادر المفتوحة، شفافيةً على طريقة ONVIF، كما أنه يُسهّل على مجموعة واسعة من المطورين استخدامها، ما يُساعد على انتشار هذا المعيار في قطاع الأمن. وسيُسهم توفير هذه المعايير عبر مصادر مفتوحة في تعزيز الشفافية في التنفيذ التقني، ما يُحافظ على الثقة في عملية المصادقة وسلامة الفيديو نفسه.

وسيضمن توحيد هذه العملية لقطاع الأمن وغيره من القطاعات التي تعتمد على لقطات الكاميرا لأغراض أخرى، اتساقاً وموثوقيةً في مصداقية الفيديو. وتؤمن ONVIF بأن مصادقة الفيديو من المصدر (أي من الكاميرا) عبر توقيع الوسائط، ستوفر الضمانات اللازمة للحفاظ على الثقة في فيديوهات المراقبة.

هبه الوهالي

أعمل كقائد فريق في الخليج 24، مع إدارة حسابات مواقع التواصل الاجتماعي. عملت من قبل مع حال الخليج كمديرة قسم أخبار الخليج وكاتبة ومحررة للمقالات والأخبار العالمية والعربية. أحمل شهادة البكالوريوس في الصحافة وعلم الاجتماع من جامعة بيرزيت - فلسطين. ولي خبرة طويلة في إعداد وتحرير المحتوى والمضامين وإنتاج المقالات والأخبار للعديد من المواقع الإلكترونية والإذاعات المحلية، كما لدي خبرة ومعرفة غنية في مجال العلاقات العامة والإعلام وتنسيق المشاريع وإدارتها.

قدمنا لكم زوارنا أهم وأحدث الأخبار فى هذا المقال : الذكاء الاصطناعي يهدد تقنية أنظمة المراقبة والثقة الرقمية - تكنو بلس, اليوم الاثنين 21 أبريل 2025 03:29 مساءً

إخترنا لك

أخبار ذات صلة

0 تعليق