كانت جميع قصص الذكاء الاصطناعي الكبيرة تقريبًا هذا العام تدور حول مدى سرعة تقدم التكنولوجيا، والضرر الذي تسببه، والتكهنات حول ما سيكون عليه الحال في المستقبل القريب عندما يتمكن الناس من السيطرة عليه. لكن عام 2024 سيشهد أيضًا قيام الحكومات بخطوات كبيرة في تنظيم الأنظمة الخوارزمية. فيما يلي تفاصيل لأهم تشريعات ومبادرات الذكاء الاصطناعي من العام الماضي على مستوى الولاية والمستوى الفيدرالي والدولي.
حكومة
أخذ المشرعون الأمريكيون زمام المبادرة في تشريع الذكاء الاصطناعي في عام 2024، حيث قدموا مئات من مشاريع القوانين – بعضها ذو أهداف محدودة مثل إنشاء لجان دراسية، في حين كان البعض الآخر يفرض مسؤولية ثقيلة على مطوري الذكاء الاصطناعي إذا كانت إبداعاتهم يمكن أن تسبب ضررا جسيما للمجتمع. فشلت العديد من مشاريع القوانين، لكن العديد من الولايات أقرت قوانين معقولة يمكن أن تكون بمثابة نماذج للولايات الأخرى أو للكونغرس (على افتراض عودة الكونجرس إلى العمل).
ومع اجتياح تداعيات الذكاء الاصطناعي للحملة السابقة للانتخابات، اتبع السياسيون من كلا الحزبين قوانين مكافحة التزوير. تفرض أكثر من 20 ولاية الآن حظرًا على الإعلانات الاصطناعية التي ينتجها الذكاء الاصطناعي في الأسابيع التي تسبق الانتخابات. كما حظيت مشاريع القوانين التي تهدف إلى قمع المواد الإباحية التي ينتجها الذكاء الاصطناعي، وخاصة صور الأطفال، بدعم قوي من الحزبين الجمهوري والديمقراطي في ولايات من بينها ألاباما، وكاليفورنيا، وإنديانا، وكارولينا الشمالية، وداكوتا الجنوبية.
ليس من المستغرب، نظرًا لتخلفها عن صناعة التكنولوجيا، أن بعض أفكار الذكاء الاصطناعي الأكثر طموحًا جاءت من كاليفورنيا. كان من شأن أحد مشاريع القوانين الشائعة أن يجبر مطوري الذكاء الاصطناعي على حماية أنفسهم وتحميل الشركات المسؤولية عن الأضرار الكارثية التي تسببها أنظمتهم. تمت الموافقة على مشروع القانون بمجلسي المجلس التشريعي وسط ضغوط ضغط ولكن الحاكم جافين نيوسوم عارضه.
ومع ذلك، وقع نيوسوم على أكثر من اثني عشر مشروع قانون آخر يركز على الآثار الأخيرة المروعة والضارة للذكاء الاصطناعي. يتطلب أحد القوانين الجديدة في كاليفورنيا من شركات التأمين الصحي التأكد من أن أساليب الذكاء الاصطناعي التي تستخدمها لضمان التغطية عادلة ومنصفة. آخر يتطلب من مطوري الذكاء الاصطناعي إنشاء أجهزة تصنف نفسها على أنها تعمل بالذكاء الاصطناعي. ومن شأن مشروعي قانونين أن يحظرا التوزيع غير المصرح به لأشكال الذكاء الاصطناعي لشخص ميت، وينصان على أن العقود الخاصة بأشكال الذكاء الاصطناعي للأشخاص الأحياء تنص بوضوح على كيفية استخدام المحتوى.
أصدرت ولاية كولورادو أول قانون في القانون الأمريكي يلزم الشركات التي تطور وتستخدم أنظمة الذكاء الاصطناعي باتخاذ خطوات لضمان أن الأدوات غير تمييزية. ووصف المدافعون عن المستهلك القانون بأنه أساس ضروري. ومن المرجح أن تتم مناقشة مشاريع قوانين مماثلة في ولايات أخرى في عام 2025.
وفي إشارة إلى حكامنا المستقبليين والعالم، أصدرت ولاية يوتا قانونًا يحظر على أي ولاية منح الذكاء الاصطناعي، والأشياء غير الحية، والمسطحات المائية، والهواء، والطقس، والنباتات، وما إلى ذلك. – الموارد البشرية.
الفيدرالية
تحدث الكونجرس كثيرًا عن الذكاء الاصطناعي في عام 2024، وأنهى مجلس النواب العام بإصدار تقرير من 273 صفحة يعرض بالتفصيل السياسات والتوصيات الرئيسية للتنظيم المستقبلي. ولكن عندما يتعلق الأمر بإنفاذ القانون، لم يفعل المشرعون الفيدراليون سوى القليل جدًا.
من ناحية أخرى، كانت الوكالات الحكومية مشغولة طوال العام بمحاولة تحقيق الأهداف المنصوص عليها في خطة الرئيس جو بايدن لعام 2023 بشأن الذكاء الاصطناعي. كما قامت العديد من الهيئات التنظيمية، وأبرزها لجنة التجارة الفيدرالية ووزارة العدل، باتخاذ إجراءات صارمة ضد ممارسات الذكاء الاصطناعي المضللة والضارة.
ولم تكن النقابات العمالية التي تحركت لتطبيق قانون الذكاء الاصطناعي مقنعة أو موضوعية، بل وضعت الأساس لإدارة النظام. على سبيل المثال، أطلقت الوكالات الحكومية عملية توظيف مواهب الذكاء الاصطناعي ووضعت معايير للتطوير المسؤول والحد من الضرر.
وفي خطوة رئيسية نحو زيادة الفهم العام لكيفية استخدام الحكومة للذكاء الاصطناعي، تحدى مكتب الإدارة والميزانية (العديد) من الوكالات الأخرى للكشف عن معلومات مهمة حول أنظمة الذكاء الاصطناعي التي تستخدمها والتي يمكن أن تؤثر على الحريات المدنية والسلامة.
ومن ناحية التنفيذ، تستهدف عملية AI Comply التابعة للجنة التجارة الفيدرالية الشركات التي تستخدم الذكاء الاصطناعي بطرق احتيالية، مثل كتابة مراجعات كاذبة أو تقديم المشورة القانونية، وفرضت عقوبات على شركة الكشف عن الأسلحة التي تعمل بالذكاء الاصطناعي Evolv لتقديمها ادعاءات كاذبة حول ما يمكن أن تفعله منتجاتها. وأنهت الوكالة أيضًا تحقيقًا أجرته شركة التعرف على الوجه IntelliVision، التي اتهمتها باستخدام تكنولوجيتها للتحيز والعنصرية، ومنعت Rite Aid من استخدام التعرف على الوجه لمدة خمس سنوات بعد أن وجد التحقيق أن الشركة كانت تستخدمها. أدوات خصم المستهلك.
وفي الوقت نفسه، انضمت وزارة العدل إلى المدعين العامين الفيدراليين في دعوى قضائية تتهم تطبيق RealPage العقاري ومخطط ضخم لتحديد الأسعار أدى إلى رفع الإيجارات في جميع أنحاء البلاد. كما فازت أيضًا بعدد من قضايا مكافحة الاحتكار ضد Google، بما في ذلك قضية تتعلق بتركيز الشركة على البحث عبر الإنترنت والتي يمكن أن تغير قوة عمليات بحث الذكاء الاصطناعي.
في جميع أنحاء العالم
وفي أغسطس/آب، دخل قانون الذكاء الاصطناعي للاتحاد الأوروبي حيز التنفيذ. ويتطلب القانون، الذي يعمل بالفعل كنموذج للسلطات الأخرى، أن تعمل أنظمة الذكاء الاصطناعي التي تؤدي مهام عالية المخاطر، مثل الدعم في التوظيف أو القرارات الطبية، على تقليل المخاطر وتلبية معايير معينة تتعلق بالبيانات عالية الجودة والإشراف البشري. . كما يحظر استخدام بعض أنظمة الذكاء الاصطناعي، مثل الخوارزميات التي يمكن استخدامها لتعيين درجات المواطنين المستخدمة لحرمان الحقوق والامتيازات.
في سبتمبر/أيلول، اقترحت الصين مبادرة كبرى لتنظيم أمن الذكاء الاصطناعي. مثل المعايير التي نشرها المعهد الوطني الأمريكي للمعايير والتكنولوجيا، فهي ليست ملزمة ولكنها تنشئ معايير مشتركة لمطوري الذكاء الاصطناعي ليتبعوها في تحديد وتخفيف مخاطر أنظمتهم.
واحدة من أكثر التطورات إثارة في قانون الذكاء الاصطناعي تأتي من البرازيل. وفي أواخر عام 2024، أقر مجلس الشيوخ في البلاد مشروع قانون للدفاع عن الذكاء الاصطناعي. إنه يواجه طريقًا صعبًا، ولكن إذا تم إقراره، فإنه سيخلق حماية غير مسبوقة لأنواع المواد المحمية بحقوق الطبع والنشر المستخدمة لتدريب أنظمة الذكاء الاصطناعي. يجب على المطورين الكشف عن المواد المحمية بحقوق الطبع والنشر التي تم تضمينها في تدريبهم، وقد يكون لدى المطورين القدرة على تقييد استخدام عملهم في تدريب أنظمة الذكاء الاصطناعي أو التفاوض على اتفاقيات الدفع الموضوعة، من بين أمور أخرى، لتطوير الذكاء الاصطناعي. الشركة المصنعة وكيفية استخدام المنتج.
وكما هو الحال مع قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي، فإن التشريع البرازيلي المقترح سيلزم أيضًا أنظمة الذكاء الاصطناعي عالية المخاطر باتباع ضمانات معينة.