الاتحاد الأوروبي يتوصل لاتفاق حول قواعد استخدام الذكاء الاصطناعي
- مقالات ذات صلة
- ليفربول يتوصل لاتفاق مع محمد صلاح لتمديد عقده حتى 2026
- الذكاء الاصطناعي في الرياضة.. آفاق جديدة تُغير قواعد اللعبة
- كل ما يجب معرفته عن أول قانون لتنظيم استخدام الذكاء الاصطناعي
اتفق مفاوضون من البرلمان الأوروبي والدول الأعضاء في الاتحاد الأوروبي على قانون لتنظيم الذكاء الاصطناعي في بروكسل مساء الجمعة (الثامن من ديسمبر/كانون الأول 2023) بعد مفاوضات طويلة، فيما وصفه البرلمان بأنه أول قانون من نوعه في العالم.
وتشمل هذه القواعد تنظيم استخدام الذكاء الاصطناعي من قبل الحكومات في المراقبة البيومترية من قبل وكالات إنفاذ القانون - والتي كانت أكبر نقطة شائكة في المحادثات - وتنظيم استخدام أنظمة ذكاء اصطناعي مثل ChatGPT. وينظم مشروع القانون أيضاً تطبيقات الذكاء الاصطناعي مثل التعرف الآلي على الوجه. وكلما زاد الخطر المحتمل من أي تطبيق، كلما زادت المتطلبات.
فيديو ذات صلة
This browser does not support the video element.
وينص الاتفاق أيضاً على حظر التلاعب بنقاط ضعف المستخدم أو استغلالها من قبل الذكاء الاصطناعي. وأرادت دول الاتحاد الأوروبي منح استثناءات للأمن القومي والدفاع وأغراض عسكرية أخرى.
وقال مفوض الشؤون الرقمية للاتحاد الأوروبي، الفرنسي تييري بريتون على موقع اكس: "هذا أمر تاريخي .. سيكون الاتحاد الأوروبي أول قارة تضع قواعد واضحة لاستخدام الذكاء الاصطناعي".
وأضاف أن "قانون الذكاء الاصطناعي هو أكثر بكثير من مجرد مجموعة من القواعد .. إنه منصة انطلاق للشركات الناشئة والباحثين في الاتحاد الأوروبي لقيادة سباق الذكاء الاصطناعي العالمي."
وقالت رئيسة المفوضية الأوروبية أورسولا فون دير لاين إن القواعد الذكاء الاصطناعي ستوفر إطاراً قانونياً فريداً لتطوير تقنيات جديرة بالثقة لا تعرض الأمن والحقوق الأساسية للأشخاص والشركات للخطر.
ويحتاج القانون للمرور بعدة خطوات إضافية لإقراره بشكل نهائي، لكن الاتفاق السياسي عليه يعني أن الخطوط العريضة تم تحديدها.
وكانت المفوضية الأوروبية قد اقترحت القانون في نيسان/أبريل عام 2021 . وبموجب القانون، سيتم تصنيف أنظمة الذكاء الاصطناعي في مجموعات خطر مختلفة. ومن المتوقع أن تتراوح غرامات الانتهاكات لهذا القانون بين 7.5 مليون يورو و35 مليون يورو.
ويأمل الاتحاد في أن يتم نسخ هذه القواعد وتطبيقها في جميع أنحاء العالم.
ع.ح./ع.ج.م. (د ب أ ، رويترز)