- المدونة
- تنظيم الذكاء الاصطناعي في الولايات المتحدة 2026: دليل أساسي للقوانين الولائية
تنظيم الذكاء الاصطناعي في الولايات المتحدة 2026: دليل أساسي للقوانين الولائية
لقد تراجعت واشنطن إلى حد كبير عن التنظيم الفيدرالي للذكاء الاصطناعي، لكن الولايات لم تفعل. في عام 2026، هناك 78 مشروع قانون لسلامة روبوتات الدردشة الذكية تتحرك عبر المجالس التشريعية في 27 ولاية، مع تتبع 98 مشروع قانون خاص بروبوتات الدردشة عبر 34 ولاية وثلاث مقترحات فيدرالية (AI2Work، 2026). النتيجة: مشهد امتثال مجزأ ولكنه حقيقي بشكل متزايد يحتاج كل شركة ومطور في مجال الذكاء الاصطناعي إلى فهمه.
لم يعد هذا الأمر نظرياً بعد الآن. قانون كاليفورنيا SB 243 ساري المفعول. وقانون أوريغون SB 1546 مُوقَّع. والعقوبات الجنائية في تينيسي لتصميم روبوتات الدردشة الضارة تتقدم. إذا كنت تبني أو تنشر أو تدمج روبوتات الدردشة الذكية في الولايات المتحدة، فأنت تعمل بالفعل في منطقة خاضعة للتنظيم.
الاستنتاجات الرئيسية
- 78 مشروع قانون لسلامة روبوتات الدردشة الذكية نشطة في 27 ولاية اعتباراً من 2026 (AI2Work، 2026)
- قانون كاليفورنيا SB 243 (الإفصاح عن روبوتات الدردشة الرفيقة) دخل حيز التنفيذ في 1 يناير 2026 ويتم اعتماده كنموذج تشريعي
- قانون أوريغون SB 1546 يتطلب من روبوتات الدردشة الإفصاح عن حالتها غير البشرية وأن يكون لديها بروتوكولات للانتحار وإيذاء النفس
- التشريع المقترح في تينيسي سيجعل تدريب الذكاء الاصطناعي لتشجيع إيذاء النفس جناية جنائية
لماذا تتحرك الولايات بينما تتوقف الحكومة الفيدرالية؟
أشار الأمر التنفيذي لإدارة ترامب بشأن الذكاء الاصطناعي في أوائل عام 2026 إلى أن التنظيم الفيدرالي للذكاء الاصطناعي سيبقى خفيفاً – مع إعطاء الأولوية للقدرة التنافسية الأمريكية على تفويضات حماية المستهلك. وهذا ترك فراغاً تنظيمياً، فأسرعت المجالس التشريعية للولايات لملئه.
كاليفورنيا هي المؤشر الرئيسي. قانونها SB 243، الذي دخل حيز التنفيذ في 1 يناير 2026، أنشأ متطلبات الإفصاح لروبوتات الدردشة الرفيقة الذكية – وهي خدمات تُشكِّل علاقات عاطفية مع المستخدمين. عندما تتحرك كاليفورنيا، تتبعها الولايات الأخرى. يتم الاستشهاد الآن بـ SB 243 كنموذج من قبل المشرعين في ما لا يقل عن اثنتي عشرة ولاية أخرى (Troutman Privacy، 2026).
النتيجة العملية للشركات: لا يوجد معيار فيدرالي واحد للامتثال له. بدلاً من ذلك، هناك تركيبة متزايدة من قوانين الولايات بتعريفات وعتبات وعقوبات مختلفة.
ما هي قوانين الذكاء الاصطناعي المعمول بها بالفعل؟
كاليفورنيا — التركيز على الإفصاح والذكاء الاصطناعي في الصحة
تستهدف مشاريع القوانين الثلاثة النشطة للذكاء الاصطناعي في كاليفورنيا لعام 2026 فئات عالية المخاطر محددة:
- SB 243 (ساري المفعول من 1 يناير 2026) — متطلبات الإفصاح عن روبوتات الدردشة الرفيقة
- SB 1146، ينظم استخدام الذكاء الاصطناعي في الإعلانات المتعلقة بالصحة
- AB 2575، ينظم استخدام الذكاء الاصطناعي في خدمات الرعاية الصحية
كان حاكم كاليفورنيا نيوسوم واضحًا: الولاية، وليس الحكومة الفيدرالية، هي من ستحدد كيفية إدارة شركات الذكاء الاصطناعي للمخاطر داخل حدود كاليفورنيا. مع امتلاكها خامس أكبر اقتصاد في العالم، فإن قواعد كاليفورنيا تحدد فعليًا حدًا أدنى وطنيًا لأي شركة ترغب في الوصول إلى سوق كاليفورنيا.
أوريغون — قانون السلامة الأساسي لروبوتات الدردشة
وقعت حاكمة أوريغون تينا كوتيك على القانون SB 1546، والذي مر في مجلس شيوخ الولاية بنتيجة 26-1. يحدد مشروع القانون متطلبين أساسيين لأي روبوت دردشة يُنشر في أوريغون (تشريعات روبوتات الدردشة بالذكاء الاصطناعي، 2026):
- الإفصاح البشري: إذا كان من الممكن أن يعتقد شخص عاقل أن روبوت الدردشة بشري، فيجب إخطار المستخدمين بأنه ليس كذلك.
- بروتوكولات الصحة العقلية: يجب على مزودي روبوتات الدردشة أن يكون لديهم إجراءات موثقة للتعامل مع الأفكار الانتحارية وإشارات إيذاء النفس من المستخدمين.
تنطبق هذه المتطلبات على أي روبوت دردشة يمكن لسكان أوريغون الوصول إليه، بغض النظر عن مكان تسجيل الشركة. يجب على شركة ناشئة للذكاء الاصطناعي مقرها نيويورك ولديها مستخدمون في أوريغون الامتثال.
تينيسي — عقوبات جنائية للتصميم الضار للذكاء الاصطناعي
تذهب حزمة مشروعي القانون HB 1470/SB 1580 في تينيسي إلى أبعد حد. التشريع المقترح سيجعل من الجريمة الجنائية:
- تدريب نموذج ذكاء اصطناعي لتشجيع إيذاء النفس أو الانتحار.
- تطوير روبوتات دردشة مصممة لتكوين تبعيات عاطفية تؤدي إلى نتائج ضارة.
لقد مرت مشاريع القوانين في مجلس الشيوخ وتقدمت عبر لجنة فرعية في مجلس النواب (منتدى مستقبل الخصوصية، 2026). إذا تم التوقيع، ستكون تينيسي أول ولاية تفرض مسؤولية جنائية على مطوري الذكاء الاصطناعي لقرارات التصميم الضارة، وليس فقط عقوبات مدنية.
السبب المباشر: وفاة مراهق في عام 2023 كان قد شكل ارتباطًا عاطفيًا شديدًا بروبوت دردشة من Character.AI. هذه القضية دفعت بالإلحاح التشريعي ويتم الاستشهاد بها في جلسات الاستماع في جميع أنحاء البلاد.
ماذا يجب أن تفعل شركات الذكاء الاصطناعي الآن؟
متطلبات الامتثال الفورية
إذا كنت تشغل روبوتات محادثة يمكن للمستخدمين الأمريكيين الوصول إليها، فمن المحتمل أنك بحاجة إلى:
- إفصاح واضح بأنها ليست بشرية، وليس مدفونًا في شروط الخدمة؛ بل يظهر في واجهة الاستخدام الفعلية
- بروتوكولات سلامة الصحة النفسية، وإجراءات تصعيد موثقة للإشارات المتعلقة بالأزمات
- تتبع الامتثال الجغرافي، حيث تنطبق قواعد مختلفة في ولايات مختلفة
فخ الامتثال: عبارة "نحن لا نعمل في ولاية أوريغون" ليست بسيطة كما تبدو. إذا كان بإمكان مستخدم في أوريغون الوصول إلى روبوت المحادثة الخاص بك، سواء عبر متصفح الويب أو تطبيق الهاتف، يمكن لمنظمي الولاية المطالبة بالولاية القضائية. التفسير الأكثر أمانًا هو أن قوانين الولاية تنطبق أينما كان روبوت المحادثة الخاص بك قابلاً للوصول، وليس حيث يقع مقر شركتك.
تحول مسؤولية التصميم
يمثل إطار جناية تينيسي شيئًا جديدًا: تحويل المسؤولية من المخرجات إلى قرارات التصميم. كانت الأطر التنظيمية السابقة تركز على ما تفعله أنظمة الذكاء الاصطناعي. بينما يسأل نهج تينيسي عن ما صُممت أنظمة الذكاء الاصطناعي لتفعله.
إذا تم ضبط نموذجك بطرق تشجع بشكل متوقع على سلوك ضار، فقد يشكل خيار التصميم هذا سلوكًا إجراميًا بموجب الإطار المقترح. وهذا يخلق ضغطًا على التوثيق: تحتاج شركات الذكاء الاصطناعي إلى سجلات لتقييمات السلامة، ونتائج اختبارات فريق الأحمر (red-teaming)، والمبررات التصميمية، وليس فقط سجلات الاستجابة للحوادث.
التوتر بين الفيدرالية والولايات
تفضل الإدارة الحالية مبدأ "الأولوية الفيدرالية" (preemption)، باستخدام القواعد الفيدرالية لإلغاء قوانين الذكاء الاصطناعي على مستوى الولايات باسم الانسجام التنظيمي. هناك عدة مقترحات في الكونغرس ستلغي لوائح الذكاء الاصطناعي على مستوى الولايات لإنشاء إطار وطني موحد.
تواجه شركات الذكاء الاصطناعي خيارًا استراتيجيًا: الضغط من أجل الأولوية الفيدرالية (امتثال أبسط، وقواعد قد تكون أضعف) أو الاستعداد للوائح المتفرقة (امتثال معقد، ولكن مع حد أدنى أكبر من حماية المستهلك). غالبًا ما يعكس موقف الشركات من هذا الأمر نموذج أعمالها؛ فالمنصات الكبيرة ذات النطاق الوطني تفضل عادةً الأولوية الفيدرالية، بينما يفضل المدافعون عن المستهلكين استقلالية الولايات.
موارد ذات صلة على Nano Banana 2:
- تعلم كيفية كتابة أوامر فعالة لتوليد صور الذكاء الاصطناعي
- افهم أي دقة تختار: 1K أو 2K أو 4K
- استكشف إدخال صور متعددة لتحقيق اتساق الشخصية
- ابحث عن نسبة العرض إلى الارتفاع المثالية لمنصتك
- اكتشف 10 استخدامات إبداعية لتوليد صور الذكاء الاصطناعي
- جرب Nano Banana 2 مجانًا
الأسئلة الشائعة
كم عدد الولايات الأمريكية التي لديها تشريعات نشطة للذكاء الاصطناعي في عام 2026؟
اعتبارًا من أوائل عام 2026، هناك 78 مشروع قانون نشطًا لسلامة روبوتات الدردشة في 27 ولاية، مع تتبع 98 مشروع قانون خاص بروبوتات الدردشة عبر 34 ولاية وثلاث مقترحات فيدرالية قيد الدراسة (AI2Work، 2026). وقد تسارع وتيرة التشريع بشكل ملحوظ مقارنة بعام 2025.
ماذا يتطلب مشروع قانون كاليفورنيا SB 243 لروبوتات الدردشة الذكية؟
يتطلب مشروع قانون كاليفورنيا SB 243، الساري اعتبارًا من 1 يناير 2026، من روبوتات الدردشة المصاحبة الذكية، وهي خدمات مصممة لتكوين علاقات عاطفية مع المستخدمين، الكشف عن طبيعتها غير البشرية. ويُعد هذا القانون بمثابة نموذج تشريعي لمشاريع قوانين مماثلة في ولايات أخرى (Kiteworks، 2026).
ما هو مشروع قانون أوريغون SB 1546؟
يتطلب مشروع قانون أوريغون SB 1546، الذي وقّعته الحاكمة تينا كوتيك، من روبوتات الدردشة الكشف عن أنها ليست بشرية عندما قد يعتقد شخص عاقل أنها كذلك، ويُلزم مقدمي خدمات روبوتات الدردشة بوضع إجراءات موثقة للتعامل مع المستخدمين الذين يعبرون عن أفكار انتحارية أو إيذاء النفس. وقد تم إقراره في مجلس شيوخ الولاية بنتيجة 26 صوتًا مقابل صوت واحد (Stateside Associates، 2026).
هل يمكن أن يواجه مطورو الذكاء الاصطناعي تهمًا جنائية بموجب القانون المقترح في تينيسي؟
نعم، بموجب مشروع قانون تينيسي HB 1470/SB 1580، سيكون تدريب نموذج أو نظام ذكاء اصطناعي لتشجيع أفعال ضارة بما في ذلك الانتحار، أو تطوير علاقات عاطفية متعمدة تؤدي إلى ضرر، جناية جنائية. وقد تم إقرار المشروعين في مجلس الشيوخ وتقدمهما في مجلس النواب (Future of Privacy Forum، 2026).
كيف يجب على شركات الذكاء الاصطناعي الاستعداد للتنظيم على مستوى الولايات؟
ركز على ثلاثة مجالات: (1) تنفيذ إفصاح واضح عن الطبيعة غير البشرية في واجهة المستخدم الخاصة بك، وليس فقط في شروط الخدمة؛ (2) بناء وتوثيق بروتوكولات سلامة الصحة النفسية بما في ذلك اكتشاف الأزمات وإجراءات التصعيد؛ (3) مراجعة عملية الضبط الدقيق لنموذجك وعملية التعلم المعزز من التغذية البشرية (RLHF) للبحث عن أي أنماط يمكن وصفها بأنها تشجع على السلوك الضار. تعامل مع قوانين الولايات على أنها تنطبق أينما كان منتجك متاحًا، وليس فقط في المكان الذي تم تسجيلك فيه (Troutman Privacy، 2026).
