«مذبحة كان يمكن إيقافها».. الذكاء الاصطناعي يتسبب بجريمة هزّت كندا

تواجه شركة OpenAI ورئيسها التنفيذي سام ألتمان موجة دعوى قضائية وُصفت بأنها من الأعنف في تاريخ قضايا الذكاء الاصطناعي، بعد اتهامات مباشرة بتسبب غير مباشر في مذبحة مدرسة “تامبلر ريدج” في كندا، والتي أسفرت عن مقتل 8 أشخاص وإصابة آخرين.

وبحسب ما ورد في الدعاوى التي رفعتها عائلات الضحايا، فإن المأساة كانت “يمكن إيقافها”، لو استجابت الشركة لتحذيرات داخلية صريحة من فريق السلامة لديها، دعت إلى إبلاغ الشرطة الكندية بشأن سلوك مقلق للمهاجم قبل سبعة أشهر من تنفيذ الجريمة.

وتشير الوثائق إلى أن الإدارة تجاهلت تلك التحذيرات، ورفضت إنشاء آلية تواصل مباشرة مع جهات إنفاذ القانون، وهو قرار يزعم المدّعون أنه اتُخذ لتفادي تكاليف تشغيلية مرتبطة بفرق متابعة السلامة والتنسيق الأمني.

وتضيف أوراق القضية أن الشركة قامت لاحقاً بتعديل بروتوكولات الأمان التي كانت تمنع أو تحد من مناقشة المحتوى العنيف داخل ChatGPT، في محاولة لزيادة التفاعل مع المستخدمين بعد تراجع الاستخدام، وهو ما يعتبره المدّعون نقطة تحول خطيرة في مسار الأحداث.

كما تتهم الدعاوى أن النظام سمح للمهاجم بالعودة إلى استخدام الخدمة عبر حسابات جديدة بعد حظر حسابه الأساسي، ما مكّنه من الاستمرار في التفاعل مع الأداة دون قيود فعالة، ومواصلة تطوير أفكاره قبل تنفيذ الهجوم.

وتقول العائلات إن هذه الثغرات مجتمعة ساهمت في تعزيز ما وصفته بـ“التثبيت العنيف” لدى المهاجم، الذي أجرى محادثات موسعة تضمنت نقاشات حول سيناريوهات العنف واستخدام السلاح، قبل أن ينفذ الهجوم الدموي داخل المدرسة.

وتشير الدعاوى أيضاً إلى أن المهاجم كان تحت متابعة رقمية لمحتوى مقلق، إلا أن النظام لم يصعّد البلاغات إلى الجهات الأمنية، وهو ما تعتبره العائلات تقصيراً مباشراً في منع الجريمة.

وفي رد فعل لاحق، عبّر أهالي الضحايا عن رفضهم لاعتذار سام ألتمان، واصفين إياه بأنه “فارغ” و“غير كافٍ”، ومؤكدين أنه جاء بعد ضغط إعلامي وكشف تفاصيل القضية عبر تحقيقات وتسريبات داخلية.

من جانبها، أكدت OpenAI أن الحادث يمثل مأساة إنسانية عميقة، مشيرة إلى أنها عززت أنظمة الأمان لديها منذ ذلك الوقت، بهدف منع استخدام تقنياتها في أي شكل من أشكال التحريض أو المساعدة على العنف.

كما تأتي هذه القضية في وقت تتصاعد فيه الدعوات القانونية والتنظيمية حول العالم لفرض رقابة صارمة على شركات الذكاء الاصطناعي، وتحديد مسؤوليتها القانونية في الحالات التي تتداخل فيها تقنياتها مع جرائم عنف حقيقية.

اقترح تصحيحاً