كل ما يجب معرفته عن أول قانون لتنظيم استخدام الذكاء الاصطناعي
توصل المشرعون وصناع السياسات في الاتحاد الأوروبي إلى اتفاق بشأن أول مجموعة شاملة من القواعد في العالم لتنظيم استخدام الذكاء الاصطناعي. ومن المتوقع أن يدخل حيز التنفيذ في أوائل العام المقبل ويتم تطبيقه في عام 2026.
وحتى ذلك الحين، يتم تشجيع الشركات على التوقيع على ميثاق الذكاء الاصطناعي الطوعي لتنفيذ الالتزامات الرئيسية للقواعد. وفيما يلي النقاط الرئيسية التي تم الاتفاق عليها:
فيديو ذات صلة
This browser does not support the video element.
أنظمة عالية المخاطر
سيتعين على ما يسمى بأنظمة الذكاء الاصطناعي عالية المخاطر، تلك التي يُعتقد أن لديها إمكانات كبيرة لإلحاق الضرر بالصحة والسلامة والحقوق الأساسية والبيئة والديمقراطية والانتخابات وسيادة القانون، أن تمتثل لمجموعة من المتطلبات، مثل الخضوع لعملية اختبار. بينما ستخضع أنظمة الذكاء الاصطناعي التي تعتبر أنها تشكل مخاطر محدودة لالتزامات شفافية خفيفة للغاية، مثل ملصقات الإفصاح التي تعلن أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي للسماح للمستخدمين باتخاذ قرار بشأن كيفية استخدامه.
استخدام الذكاء الاصطناعي في إنفاذ القانون
لن يُسمح باستخدام أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن العامة من قبل جهات إنفاذ القانون إلا للمساعدة في تحديد ضحايا الاختطاف والاتجار بالبشر والاستغلال الجنسي، ولمنع تهديد إرهابي محدد وقائم. وسيُسمح لهم أيضًا بتعقب الأشخاص المشتبه في ارتكابهم جرائم إرهابية والاستغلال الجنسي والقتل، والاختطاف والاغتصاب والسطو المسلح، والمشاركة في منظمة إجرامية وجريمة بيئية.
أنظمة الذكاء الاصطناعي للأغراض العامة
ستخضع نماذج الذكاء الاصطناعي للأغراض العامة والنماذج الأساسية لمتطلبات الشفافية مثل إعداد الوثائق الفنية والامتثال لقانون حقوق الطبع والنشر في الاتحاد الأوروبي ونشر ملخصات مفصلة حول المحتوى المستخدم للتدريب على الخوارزميات.
وسيتعين على نماذج المؤسسة المصنفة على أنها تشكل مخاطر نظامية عالية التأثير إجراء تقييمات نموذجية، وتقييم المخاطر وتخفيفها وتقديم تقارير إلى المفوضية الأوروبية بشأن الحوادث الخطيرة، وضمان الأمن السيبراني والإبلاغ عن كفاءتها في استخدام الطاقة.
ما تمنعه اللوائح؟
- أنظمة التصنيف البيومترية التي تستخدم خصائص حساسة مثل المعتقدات السياسية والدينية والفلسفية والتوجه الجنسي والعرق.
- الاستخلاص غير المستهدف لصور الوجه من الإنترنت أو لقطات كاميرات المراقبة لإنشاء قواعد بيانات للتعرف على الوجه.
- التعرف على الانفعالات في أماكن العمل والمؤسسات التعليمية.
- أنظمة الذكاء الاصطناعي التي تتلاعب بالسلوك البشري للتحايل على إرادته الحرة.
- استخدام الذكاء الاصطناعي لاستغلال نقاط ضعف الأشخاص بسبب أعمارهم أو إعاقتهم أو وضعهم الاجتماعي أو الاقتصادي.
العقوبات على الانتهاكات
واعتمادًا على الانتهاك وحجم الشركة المعنية، ستبدأ الغرامات من 7.5 مليون يورو (8 ملايين دولار) أو 1.5% من مبيعاتها السنوية العالمية، وترتفع إلى ما يصل إلى 35 مليون يورو أو 7% من مبيعاتها العالمية.