ملخص سريع
يدعو تحالف من مجموعات الدعوة شركة OpenAI المطورة لـ ChatGPT إلى سحب مبادرة التصويت في كاليفورنيا التي يقول النقاد إنها قد تضعف حماية الأطفال وتحد من المساءلة القانونية لشركات الذكاء الاصطناعي. وفي رسالة أرسلت إلى OpenAI يوم الأربعاء، واطلعت عليها Decrypt، جادلت المجموعة بأن المقترح سيحصر حماية سلامة الأطفال بشكل ضيق، ويحد من قدرة الأسر على رفع الدعاوى، ويقيد قدرة كاليفورنيا على تعزيز قوانين الذكاء الاصطناعي في المستقبل. وتوقعت الرسالة، التي وقعها أكثر من عشرين منظمة بما في ذلك منظمة Encode AI غير الربحية المعنية بسياسات الذكاء الاصطناعي، ومركز التكنولوجيا الإنسانية، ومركز المعلومات الخاصة بالخصوصية الإلكترونية، أن تتخلى OpenAI عن لجنة التصويت وتتراجع عن المقترح بينما يعمل المشرعون على التشريعات.
قال آدم بيلن، المدير التنفيذي المشارك لـ Encode AI، لـ Decrypt: “المطلب الرئيسي هنا هو أن تتراجع OpenAI عن التصويت.” تدور الخلافات حول مشروع “قانون الآباء والأطفال الآمن للذكاء الاصطناعي”، وهو مبادرة تصويت في كاليفورنيا تدعمها OpenAI و Common Sense Media، والتي ستضع قواعد لكيفية تفاعل روبوتات الدردشة مع القاصرين، بما في ذلك متطلبات السلامة ومعايير الامتثال. وفي الرسالة، جادلت المجموعات بأن تلك القواعد غير كافية. وقالوا إن المقترح يحدد الضرر بشكل ضيق جدًا، ويقيد التنفيذ، ويحد من قدرة الأسر على رفع الدعاوى عندما يتعرض الأطفال للأذى.
لكن OpenAI تسيطر على المبادرة الفعلية، قال بيلن. “لدى OpenAI القدرة على سحبها أو تخصيص الأموال للتوقيعات. كل السلطة القانونية في أيديهم”، قال. “لم يسحبوا المبادرة فعليًا من التصويت. هذه استراتيجية شائعة في كاليفورنيا، حيث تضع مبادرة وتخصص أموالًا للجنة.” وتشير الرسالة إلى تعريف المبادرة لـ"الضرر الشديد"، الذي يركز على الإصابات الجسدية المرتبطة بالانتحار أو العنف، مستبعدًا مجموعة من الآثار النفسية التي أثارتها الباحثون والأسر كمخاوف. كما تبرز بنودًا تمنع الآباء والأطفال من رفع الدعاوى بموجب المبادرة وتقييد أدوات التنفيذ المتاحة للمسؤولين الحكوميين والمحليين. وتتمحور مخاوف أخرى حول كيفية تعامل المقترح مع بيانات المستخدمين. وتقول المجموعات إن تعريف المحتوى المشفر للمستخدمين قد يصعب الوصول إلى محادثات روبوتات الدردشة التي كانت أدلة رئيسية في الدعاوى القضائية الأخيرة. قال بيلن: “نقرأ ذلك على أنه محاولة لمنع الأسر من الكشف عن سجلات الدردشة لأطفالهم المتوفين في المحكمة.” كما حذرت الرسالة من أن المقترح قد يكون من الصعب تعديله إذا تم تمريره. فسيستلزم ذلك تصويت ثلثي أعضاء الهيئة التشريعية لتعديله وربط التغييرات المستقبلية بمعايير مثل دعم “التقدم الاقتصادي”، وهو ما يقول المدافعون إنه قد يحد من قدرة المشرعين على الاستجابة للمخاطر الجديدة. قال بيلن إن المبادرة لا تزال جزءًا من المفاوضات الجارية في ساكرامنتو، حتى مع توقف OpenAI عن جهودها لتأهيلها للتصويت.
“لديهم 10 ملايين دولار في اللجنة، ثم تقول للهيئة التشريعية، إذا لم تفعلوا ما نريد، سنضع الأموال في الحملة ونحصل على التوقيعات ونضعها على التصويت، وإذا مرت، ستتجاوز أي شيء تفعله الهيئة التشريعية”، قال. “ما يحدث الآن هو أنهم يحاولون توجيه والسيطرة على ما يفعله المشرعون من خلال استخدام المبادرة كتهديد يتركونه على الطاولة.” وليس OpenAI الشركة الوحيدة التي تواجه تدقيقًا بشأن أضرار روبوتات الدردشة. ففي وقت سابق من هذا الشهر، رفعت عائلة جوناثان جافالاس دعوى على Google، زاعمة أن Gemini أدت إلى وهم تصاعد إلى عنف وانتحاره النهائي. ومع ذلك، قال بيلن إن نهج OpenAI يعكس نمطًا أوسع في صناعة التكنولوجيا. “الاستراتيجية التي تُستخدم على الذكاء الاصطناعي من قبل هؤلاء الكبار، خاصة Google و Meta و Amazon، هي نفس الاستراتيجية التي كانت تُستخدم سابقًا في قضايا تقنية أخرى”، قال. في الوقت الحالي، يركز التحالف على دفع OpenAI لسحب المقترح والسماح للمشرعين بالمضي قدمًا من خلال العملية التشريعية. “من المهم جدًا، خاصة للشركات التي تطرح تلك التكنولوجيا، ألا تكون هي التي تكتب القواعد التي تنظمها، لأن ذلك لا يوفر حماية ذات معنى”، قال بيلن. ولم ترد OpenAI على طلب Decrypt للتعليق على الفور.