في كلمات قليلة
اعتمد الاتحاد الأوروبي قانونًا رائدًا للذكاء الاصطناعي، يصنف الأنظمة حسب مستوى المخاطر، ويحظر التطبيقات غير المقبولة، ويفرض متطلبات صارمة على الأنظمة عالية المخاطر، ويضع قواعد للذكاء الاصطناعي التوليدي.
اعتمد الاتحاد الأوروبي قانونًا شاملاً للذكاء الاصطناعي (AI) يحدد قواعد استخدام الذكاء الاصطناعي بما يتماشى مع قيم الاتحاد الأوروبي وحقوقه الأساسية. يهدف القانون إلى ضمان سلامة وشفافية وقابلية التتبع وعدم التمييز والاستدامة البيئية لأنظمة الذكاء الاصطناعي. يصنف القانون أنظمة الذكاء الاصطناعي إلى أربعة مستويات من المخاطر: مخاطر غير مقبولة، مخاطر عالية، مخاطر محدودة، ومخاطر ضئيلة. سيتم حظر الأنظمة التي تشكل مخاطر غير مقبولة، مثل التسجيل الاجتماعي. ستخضع الأنظمة عالية المخاطر، بما في ذلك تلك المستخدمة في البنية التحتية الحيوية والتعليم وإنفاذ القانون، لمتطلبات صارمة. يضع القانون أيضًا قواعد لنماذج الذكاء الاصطناعي التوليدية، مثل ChatGPT، مطالبًا بالكشف عن أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي والامتثال لقانون حقوق النشر.