سياسة دولية

مخاوف أمريكية من صعود الذكاء الاصطناعي في الشرق الأوسط.. ما علاقة الإمارات؟

تسعى الإمارات لمنافسة وادي السليكون بإنتاج الرقائق الإلكترونية- جيتي
تسعى الإمارات لمنافسة وادي السليكون بإنتاج الرقائق الإلكترونية- جيتي
قالت صحيفة التليغراف البريطانية، إن هناك مخاوف خاصة لدى البيت الأبيض من صعود وتطور الذكاء الاصطناعي في الشرق الأوسط.

وذكرت الصحيفة، أن الروابط الوثيقة مع الصين تضع البراعة التكنولوجية للإمارات على رادار واشنطن، حيث برزت دبي وأبو ظبي كقادة مفاجئين في السباق الجديد لقوة الذكاء الاصطناعي.

وتابعت، أن الإمارات تستخدم ثروتها النفطية الهائلة للتنافس مع وادي السيليكون من خلال إطلاق بعض نماذج لغة الذكاء الاصطناعي الأكثر تقدما.

وأوضحت، أن طموحات الإمارات في قطاع الذكاء الاصطناعي أثارت مخاوف خاصة بين مسؤولي الأمن القومي في واشنطن.

اظهار أخبار متعلقة



وأشارت إلى أن المخاوف الأمريكية تنبع من الروابط الوثيقة المزعومة بين الصين وشركة الذكاء الاصطناعي G42 الذي يترأسها مستشار الأمن القومي الإماراتي الشيخ طحنون بن زايد.

وأكدت أن الولايات المتحدة تضغط على شركة G42 لقطع علاقاتها مع شركات التكنولوجيا الصينية.

وأثارت وكالة المخابرات المركزية مخاوف بشأن عمل G42 السابق مع شركة هواوي، كما أثارت جينا ريموندو وزيرة التجارة الأمريكية الشكوك حول علاقة الشركة بالصين في اجتماعات خاصة مع المسؤولين الإماراتيين.

ونقلت التليغراف عن أندرياس كريج أحد كبار المحاضرين وخبير الدفاع في جامعة كينغز كوليدج في لندن قوله، إن الإمارات تمكنت حتى الآن من الوصول إلى التكنولوجيا من كلا الجانبين من الولايات المتحدة والصين.

اظهار أخبار متعلقة



ويثير الذكاء الاصطناعي مخاوف بشأن تطوره وسرعة انتشاره دون ضوابط.

وتوصل الاتحاد الأوروبي إلى تشريع غير مسبوق على المستوى العالمي لتنظيم الذكاء الاصطناعي، ما يمهد الطريق للرقابة القانونية على تكنولوجيا الذكاء الاصطناعي التي أحدثت تغييرات على حياة الناس، وخلقت مخاوف كثيرة.

وتغلب مفاوضون من البرلمان الأوروبي والاتحاد، المكون من 27 دولة، على خلافات كبيرة بشأن نقاط مثيرة للجدل؛ من بينها الذكاء الاصطناعي التوليدي، والاستعانة بالشرطة في تقنيات التعرف على الوجوه، ووقعوا على اتفاق سياسي مبدئي لما يعرف بـ"قانون الذكاء الاصطناعي".

وكشف الاتحاد أن قانون الذكاء الاصطناعي الجديد، مبادرة تشريعية رائدة تهدف إلى تعزيز تطوير واعتماد الذكاء الاصطناعي "الآمن والموثوق" في السوق الموحدة للاتحاد الأوروبي من قبل الجهات الفاعلة الخاصة والعامة.

وباعتباره أول اقتراح تشريعي من نوعه في العالم، يقول الاتحاد الأوروبي، إنه يسعى إلى أن يسهم القانون الجديد في وضع معيار عالمي لتنظيم الذكاء الاصطناعي في ولايات قضائية أخرى.

وركز المشرعون الأوروبيون على الاستخدامات الأكثر خطورة للذكاء الاصطناعي من قبل الشركات والحكومات، بما في ذلك تلك المستخدمة في إنفاذ القانون وتشغيل الخدمات الحيوية مثل المياه والطاقة. 

وستواجه أنظمة الذكاء الاصطناعي التوليدي، مثل تلك التي تشغل روبوت الدردشة "تشات جي بي تي"، متطلبات شفافية جديدة، كما أن على روبوتات الدردشة والبرامج التي تنشئ صورا متلاعبا بها مثل "التزييف العميق" أن توضح أن ما يراه الناس قد تم إنشاؤه بواسطة الذكاء الاصطناعي، وفقا لما نقلته نيويورك تايمز عن مسؤولين أوروبيين والمسودات السابقة للقانون.

ويتمحور هذا التشريع المستقبلي حول عدة تدابير، أبرزها تلك المتعلقة بمجال الذكاء الاصطناعي التوليدي، إذ نص على مراقبة جودة البيانات المستخدمة لتطوير الخوارزميات، وضمان عدم انتهاكها لقانون حقوق التأليف والنشر.

ويفرض القانون الجديد، على المطورين الذين يستعملون تقنيات الذكاء الاصطناعي، أن يظهروا بوضوح على ابتكاراتهم أنها أنشئت بشكل اصطناعي، إذ يجب مثلا أن يتم الإشارة بوضوح إلى أن الصور المولدة اصطناعيا، تم تطويرها بواسطة الذكاء الاصطناعي.

ومن شأن، هذه الخطوة، أن تساعد على وجه الخصوص في مكافحة الاستخدام الضار لتقنيات "التزييف العميق"، التي تستخدم صور ومقاطع فيديو لأشخاص، بهدف إنشاء صور أو مقاطع "خيالية" بالصوت والصورة، وفقا لموقع "راديو فرانس".

اظهار أخبار متعلقة



اتفق الاتحاد الأوروبي الجمعة على تشريع غير مسبوق على المستوى العالمي لتنظيم الذكاء الاصطناعي، بعد ثلاثة أيام من المفاوضات المكثفة بين الدول الأعضاء والبرلمان الأوروبي، حسبما أعلن المفوض تييري بريتون.

ووضع المشرعون الأوروبيون، مجموعة من الضمانات والاستثناءات الضيقة لاعتماد تقنيات المراقبة البيومترية، من ضمنها بعض الحالات المتعلقة بتحديد هوية شخص يشتبه في ارتكابه إحدى الجرائم المحددة المذكورة في اللائحة (مثل الإرهاب، والاتجار، والاستغلال الجنسي، والقتل، والاختطاف، والاغتصاب، والسطو المسلح، والمشاركة في منظمة إجرامية، والجرائم البيئية).
التعليقات (0)

خبر عاجل