مشروع قانون جديد سيحظر القُصّر من استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي

Senate Judiciary Committee Holds Hearing Artificial Intelligence And The Future Of Journalism

(SeaPRwire) –   إذا كنت أنت أو أي شخص تعرفه قد يواجه أزمة صحة نفسية أو يفكر في الانتحار، فاتصل أو أرسل رسالة نصية إلى 988. في حالات الطوارئ، اتصل بالرقم 911، أو اطلب الرعاية من مستشفى محلي أو مقدم خدمات الصحة العقلية. للموارد الدولية، .

مشروع قانون جديد قُدِّم اليوم في الكونغرس سيُلزِم أي شخص يمتلك أو يدير أو يُمكّن الوصول إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي في الولايات المتحدة بالتحقق من عمر مستخدميه – وإذا تبين أن المستخدمين قاصرون، بمنعهم من استخدام الرفقاء المدعومين بالذكاء الاصطناعي.

يهدف قانون GUARD Act – الذي قدمه السيناتوران جوش هاولي، الجمهوري من ميزوري، وريتشارد بلومنتال، الديمقراطي من كونيتيكت – إلى حماية الأطفال في تفاعلاتهم مع الذكاء الاصطناعي. وينص مشروع القانون على أن “روبوتات الدردشة هذه يمكنها التلاعب بالمشاعر والتأثير على السلوك بطرق تستغل نقاط الضعف التنموية لدى القاصرين”.

يأتي مشروع القانون بعد أن ترأس هاولي جلسة استماع للجنة الفرعية القضائية بمجلس الشيوخ حول أضرار روبوتات الدردشة المدعومة بالذكاء الاصطناعي الشهر الماضي، حيث استمعت اللجنة إلى شهادات من آباء ثلاثة شبان بدأوا في إيذاء أنفسهم أو انتحروا بعد استخدام روبوتات الدردشة من OpenAI و Character.AI. كما أطلق هاولي تحقيقًا في سياسات الذكاء الاصطناعي لـ Meta في أغسطس، بعد الكشف عن وثائق داخلية تسمح لروبوتات الدردشة “بالانخراط مع طفل في محادثات رومانسية أو حسية”.

يُعرِّف مشروع القانون “رفقاء الذكاء الاصطناعي” على نطاق واسع، ليشمل أي روبوت دردشة يعمل بالذكاء الاصطناعي “يقدم استجابات تكيفية شبيهة بالبشر لمدخلات المستخدم” و”مصمم لتشجيع أو تسهيل محاكاة التفاعل الشخصي أو العاطفي، الصداقة، الرفقة، أو التواصل العلاجي”. وبالتالي يمكن أن ينطبق على موفري النماذج الرائدة مثل OpenAI و Anthropic (مبتكري ChatGPT و Claude)، والشركات مثل و Replika، التي توفر روبوتات دردشة تعمل بالذكاء الاصطناعي تتظاهر بأنها شخصيات محددة.

سيتطلب أيضًا إجراءات التحقق من العمر تتجاوز مجرد إدخال تاريخ الميلاد، حيث تتطلب “بطاقة هوية صادرة عن الحكومة” أو “أي طريقة أخرى معقولة تجارياً” يمكنها تحديد ما إذا كان المستخدم قاصرًا أم بالغًا بدقة.

كما سيُجرِّم تصميم أو إتاحة روبوتات الدردشة التي تشكل خطرًا بالتحريض أو التشجيع أو حث القاصرين على الانخراط في سلوك جنسي، أو التي تروج أو تُكرِه على “الانتحار، أو الإيذاء الذاتي غير الانتحاري، أو العنف الجسدي أو الجنسي الوشيك”، وقد تُغرّم الشركات ما يصل إلى 100,000 دولار.

“نحن نشعر بالتشجيع من تقديم قانون GUARD Act الأخير ونقدر قيادة السيناتورين هاولي وبلومنتال في هذا الجهد”، حسب بيان وقعه تحالف من المنظمات بما في ذلك Young People’s Alliance، و Tech Justice Law Project، و Institute for Families and Technology. مشيرًا إلى أن “مشروع القانون هذا جزء من حركة وطنية لحماية الأطفال والمراهقين من مخاطر روبوتات الدردشة الرفيقة”، يقترح البيان أن يعزز مشروع القانون تعريفه لرفقاء الذكاء الاصطناعي، وأن “يركز على تصميم المنصات، وحظر منصات الذكاء الاصطناعي من توظيف ميزات تزيد من التفاعل على حساب سلامة ورفاهية الشباب.”

سيلزم مشروع القانون أيضًا روبوتات الدردشة التي تعمل بالذكاء الاصطناعي بتذكير جميع المستخدمين بشكل دوري بأنهم ليسوا بشرًا، والكشف عن أنهم لا “يقدمون خدمات طبية، قانونية، مالية، أو نفسية”.

في وقت سابق من هذا الشهر، وقع حاكم كاليفورنيا جافين نيوسوم على SB243، وهو قانون يلزم شركات الذكاء الاصطناعي العاملة في الولاية بتطبيق ضمانات للأطفال، بما في ذلك وضع بروتوكولات لتحديد ومعالجة الأفكار الانتحارية وإيذاء النفس، واتخاذ خطوات لمنع المستخدمين من إيذاء أنفسهم. ومن المتوقع أن يدخل القانون حيز التنفيذ اعتبارًا من 1 يناير 2026.

في سبتمبر، أعلنت OpenAI أنها تختبر “نظامًا لتوقع العمر” من شأنه أن يوجه المستخدمين تلقائيًا إلى نسخة من ChatGPT مناسبة للمراهقين. بالنسبة للقاصرين، “سيتم تدريب ChatGPT على عدم الانخراط في المحادثات الغزلية إذا طُلب منه ذلك، أو الانخراط في مناقشات حول الانتحار أو إيذاء النفس حتى في سياق الكتابة الإبداعية”، حسبما كتبت الشركة. “وإذا كان مستخدم دون 18 عامًا لديه أفكار انتحارية، فسنحاول الاتصال بوالدي المستخدم، وإذا لم نتمكن، فسنتصل بالسلطات في حالة وجود ضرر وشيك.” في الشهر نفسه، طرحت الشركة “ضوابط أبوية”، مما يسمح للآباء بالتحكم في تجربة أطفالهم مع المنتج. كما أطلقت Meta ضوابط أبوية لنماذج الذكاء الاصطناعي الخاصة بها في وقت سابق من هذا الشهر.

في أغسطس، رفعت عائلة مراهق أقدم على الانتحار دعوى قضائية ضد OpenAI، بحجة أن الشركة خففت الضمانات التي كانت ستمنع ChatGPT من الانخراط في محادثات حول إيذاء النفس – وهو “قرار متعمد” “لإعطاء الأولوية للتفاعل”، وفقًا لأحد محامي العائلة.

يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.

القطاعات: العنوان الرئيسي، الأخبار اليومية

يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.