أعلنت النسخة الإنجليزية من ويكيبيديا عن قيود جديدة تحكم استخدام الذكاء الاصطناعي التوليدي، في خطوة تهدف إلى حماية جودة المحتوى وضمان موثوقية المعلومات التي يساهم بها مجتمع المحررين.
ووفق السياسة الجديدة، يحظر على المحررين الاعتماد على نماذج اللغة الكبيرة لإنشاء المقالات أو إعادة صياغتها بشكل جوهري، وسط تصاعد المخاوف من تأثير هذه الأدوات على دقة المعرفة المنشورة.
ويأتي هذا القرار في وقت يشهد انتشارًا واسعًا لأدوات الذكاء الاصطناعي في مجالات متعددة، ما يجعل التمييز بين النصوص البشرية وتلك المولدة آليًا تحديًا حقيقيًا. وتشكل هذه الظاهرة ضغطًا خاصًا على ويكيبيديا، التي تعتمد على المعلومات القابلة للتحقق والمصادر الموثوقة.
وتسمح السياسة الجديدة باستخدام الذكاء الاصطناعي في حالتين محددتين فقط: الأولى لتحسين الأسلوب واللغة، على غرار أدوات التدقيق اللغوي، شريطة مراجعة التعديلات بدقة قبل النشر. أما الحالة الثانية فتتعلق بالترجمة، حيث يمكن للذكاء الاصطناعي إعداد مسودة أولية على أن يتولى المحرر الملم باللغتين مراجعتها وتصحيحها.
وتحذر ويكيبيديا من مخاطر الاعتماد على هذه الأدوات في الترجمة، إذ قد تنتج تغييرات دقيقة في المعنى لا تدعمها المصادر الرسمية، حتى مع اتباع تعليمات واضحة.
ويعكس القرار حذر المجتمعات الرقمية تجاه التوسع السريع لتقنيات الذكاء الاصطناعي، ويرتبط برد فعل على الترويج المكثف لهذه التكنولوجيا من قبل الشركات خلال السنوات الأخيرة، مع اتفاق عام على ضرورة وضع ضوابط رغم غياب التوافق حول آليات التطبيق.
ورغم القيود، يظل رصد المحتوى المولّد آليًا تحديًا كبيرًا، إذ أن أدوات الكشف الحالية لا توفر دقة كاملة، وقد يبدو بعض المحتوى البشري مشابهًا للنصوص الآلية، ما يزيد من احتمالات الخطأ في التقييم.
وأصدرت ويكيبيديا إرشادات لمساعدة المشرفين على اكتشاف الانتهاكات، لكنها تعترف بإمكانية مرور بعض المحتوى غير الملتزم، خاصة في الصفحات الأقل نشاطًا.
ولا تُطبق هذه السياسة عالميًا؛ فالنسخ الأخرى مثل ويكيبيديا الإسبانية تعتمد قواعد أشد، تحظر استخدام الذكاء الاصطناعي بالكامل حتى في مهام التنقيح والترجمة، مما يعكس توجّهًا حذرًا من المنصة لتحقيق التوازن بين الاستفادة من التكنولوجيا والحفاظ على مصداقية الموسوعة.





