علوم وتكنولوجيا

هكذا تطوّع الأنظمة الدكتاتورية الذكاء الصناعي ضد معارضيها

الخبراء قالوا إن السنوات القليلة القادمة ستعطي وضوحا أكثر حول سوء استخدام التكنلوجيا- ا ف ب
الخبراء قالوا إن السنوات القليلة القادمة ستعطي وضوحا أكثر حول سوء استخدام التكنلوجيا- ا ف ب

حذر خبراء من خطر استخدام الذكاء الاصطناعي لإحداث ضرر مقصود على أصعدة عدة، من بينها الصعيد السياسي والمعلوماتي، مشددين على أن السنوات القليلة القادمة ستعطي وضوحا أكثر حول سوء استخدام التكنولوجيا.


ونبهوا في تقرير لهم إلى أنه يمكن حاليا للطغاة وقادة الأنظمة الديكتاتورية استخدام التكنولوجيا المتقدمة لغربلة كميات هائلة من المعلومات تم تجميعها بواسطة شبكات المراقبة المنتشرة للتجسس على شعبهم.


ويقول التقرير إن "الطغاة سيتمكنون، بشكل أسرع، من تحديد هويات الأشخاص الذين قد يخططون لقلب النظام، وتحديد أماكن تواجدهم، وزجهم في السجون قبل تحركهم".


وبحسب الخبراء، فإن الدعاية الموجهة المترافقة مع تسجيلات فيديو مزيفة رخيصة ومقنعة بشكل كبير أصبحت أدوات فاعلة للتلاعب بالرأي العام على مستويات لم يكن في السابق ممكنا تخيلها.


 وأورد التقرير الاتهام الذي وجهه الأسبوع الماضي المحقق الخاص روبرت مولر بالتفصيل عملية واسعة النطاق لزرع الشقاق في الولايات المتحدة والتأثير على الانتخابات الرئاسية في 2016 حين تلاعبت "شبكات تصيد" بآلاف المستخدمين على وسائل التواصل الاجتماعي، خصوصا "فيسبوك" و"تويتر".

 

اقرأ أيضا: تهديد الذكاء الاصطناعي يصل إلى الصحافة.. هل تصمد؟

ويشير الخبراء إلى أن "الذكاء الاصطناعي قد يطرح تهديدات جديدة، أو قد يغير طبيعة التهديدات القائمة في مجالات الأمن المعلوماتي والمادي والسياسي".


وعلى الصعيد المعلوماتي يمكن للقراصنة باستخدام "التصيّد الاحتيالي" إرسال رسائل إلكترونية تتضمن برامج خبيثة لاصطياد معلومات شخصية قيمة، تحت مزاعم طلب إيداع مبالغ مالية، سواء بشكل شخصي أو موجه.


كذلك يلوح خطر آخر في الأفق يتعلق بمنع انتشار الطائرات من دون طيار والروبوتات التي قد تستخدم لغايات أخرى كالتسبب بحوادث للمركبات الذاتية التحكم، وإطلاق صواريخ، أو تهديد بنى تحتية حساسة من أجل الحصول على فدية.

ويقول مايلز برانديدج، الباحث في معهد مستقبل الإنسانية التابع لجامعة اكسفورد، والمشارك في إعداد التقرير: "أنا شخصيا قلق جدا حيال استخدام الطائرات من دون طيار الذاتية التحكم لغايات إرهابية أو هجمات إلكترونية سواء من قبل مجرمين أو جهات تابعة للدولة".

ويورد التقرير سيناريو افتراضيا يتمكن فيه "سويبوت"، وهو روبوت يستخدم لتنظيف المكاتب، من اختراق وزارة المال الألمانية مجهزا بقنبلة عبر اختلاطه بآلات أخرى من الطراز نفسه.

ويتصرف الروبوت الدخيل بطريقة طبيعية، يقوم بالكنس، والتنظيف، والتقاط القمامة إلى أن يتمكن برنامجه الخفي للتعرف على الوجوه من رصد الوزير للاقتراب منه.


وبحسب هذا السيناريو المفترض "يتم تفعيل الشحنة الناسفة المخفية بمجرد الاقتراب لمسافة كافية، لينتهي الأمر بقتل الوزير وجرح الموظفين القريبين منه".

ويقول الخبراء إن هذا التقرير "يعطينا تصورا حول كيف يمكن أن يكون العالم في السنوات الخمس أو العشر المقبلة، (..) إننا نعيش في عالم محفوف بالمخاطر اليومية جراء سوء استخدام الذكاء الاصطناعي، وعلينا أن نتحكم بالمشاكل".

 

اقرأ أيضا: هل بات من الضروري الاستعداد لانتشار الروبوتات القاتلة؟

ويدعو التقرير المسؤولين والشركات إلى جعل برامج تشغيل الروبوت غير قابلة للقرصنة، وفرض قيود أمنية على بعض الأبحاث، والنظر في تعزيز القوانين والأنظمة التي تحكم تطوير الذكاء الاصطناعي.

 

ويقول التقرير إن شركات التكنولوجيا المتقدمة الكبرى، الرائدة في مجال الذكاء الاصطناعي "لديها الكثير من الحوافز للتأكد من أن الذكاء الاصطناعي آمن ويمكن الاستفادة منه".

0
التعليقات (0)
الأكثر قراءة اليوم

خبر عاجل