< "هلوسة رقمية".. جنوب أفريقيا تسحب سياسة الذكاء الاصطناعي بعد اكتشاف مراجع "وهمية"
الرئيس نيوز
رئيس التحرير
شيماء جلال

"هلوسة رقمية".. جنوب أفريقيا تسحب سياسة الذكاء الاصطناعي بعد اكتشاف مراجع "وهمية"

الرئيس نيوز

اضطرت حكومة جنوب أفريقيا إلى سحب مسودة سياستها الوطنية للذكاء الاصطناعي، بعدما تبين أن الوثيقة احتوت على مراجع أكاديمية مختلقة بالكامل، في واقعة تعكس بوضوح ظاهرة هلوسات الذكاء الاصطناعي حين تستخدم أدواته دون تدقيق بشري كاف. 

وفقا لتقرير شبكة سي إن بي سي نيوز، تكمن المفارقة في أن الوثيقة التي كان يفترض أن تنظم استخدام هذه التقنية، سقطت ضحية مباشرة لأحد أبرز عيوبها، ما فتح الباب أمام تساؤلات حادة حول قدرة المؤسسات الحكومية على التعامل مع أدوات لا تزال تتطور بوتيرة أسرع من آليات الرقابة عليها. 

سياسة عامة تستند إلى مصادر لا وجود لها

وكشفت مراجعات مستقلة أن الوثيقة، التي تضمنت عشرات المراجع الأكاديمية، اشتملت على عدد من الدراسات التي لا وجود لها في أي قاعدة بيانات علمية، كما نسبت إلى باحثين لم يكتبوا في تلك الموضوعات أصلًا. هذا الخلل لم يكن تفصيلًا هامشيا، بل مس جوهر الوثيقة التي بنيت على أساس معرفي غير حقيقي، ما يشير إلى اعتماد مباشر على مخرجات مولدات النصوص الذكية دون التحقق من صحتها.

الأمر الأكثر إثارة للقلق أن هذه الوثيقة لم تكن مجرد مسودة داخلية أولية، بل مرت عبر قنوات رسمية رفيعة المستوى، حيث حازت موافقات حكومية متتالية قبل نشرها رسميًا لإتاحة التعليقات العامة. ومع ذلك، لم تكتشف هذه الأخطاء الجوهرية إلا بعد التدقيق الخارجي، وهو ما يسلّط الضوء على فجوة واضحة في منظومة المراجعة المؤسسية.

اعتراف رسمي ومسؤولية سياسية

في أعقاب تصاعد الجدل، أقر وزير الاتصالات والتقنيات الرقمية بأن ما حدث لا يمكن اعتباره مجرد خطأ تقني عابر، بل يمثل إخفاقا حقيقيًا أثر على مصداقية الوثيقة وسلامة محتواها. وأكد أن مستوى التدقيق لم يكن على قدر المسؤولية الملقاة على عاتق مؤسسة يفترض بها قيادة المشهد الرقمي في البلاد.

هذا الاعتراف لم يضع نهاية لموجة الجدل السياسي، إذ شددت أصوات داخل البرلمان على أن المسؤولية لا يمكن تحميلها لمستويات تنفيذية منخفضة، بل تقع في صميمها على القيادة التي أجازت الوثيقة دون مراجعة دقيقة، في إشارة إلى خلل هيكلي في آليات اتخاذ القرار.

رؤية طموحة أفسدتها الهلوسات

رغم الأزمة، حملت الوثيقة في مضمونها تصورًا واسعًا لتنظيم الذكاء الاصطناعي داخل البلاد. فقد تضمنت مقترحات لإنشاء منظومة رقابية متكاملة تشمل هيئات متخصصة للإشراف والأخلاقيات وتسوية النزاعات، إلى جانب آليات لتعويض المتضررين من تطبيقات الذكاء الاصطناعي في الحالات التي يصعب فيها تحديد المسؤولية القانونية.

كما دعت إلى إدماج الذكاء الاصطناعي في التعليم بمختلف مراحله، وتوسيع نطاق الوصول الرقمي في المناطق الأقل حظا، فضلًا عن وضع سياسات لإدارة التحولات في سوق العمل الناتجة عن الأتمتة. ولم تغفل الوثيقة جانب السيادة الرقمية، إذ تناولت حماية البيانات وتنظيم تدفقها عبر الحدود ضمن إطار يحفظ المصالح الوطنية. لكن هذه الرؤية، رغم اتساعها، فقدت قيمتها العملية بمجرد التشكيك في أساسها المعرفي، ما جعل الطموح السياسي يصطدم بواقع تقني غير منضبط.

إنذار يتجاوز الحدود الوطنية

تأتي هذه الواقعة في توقيت حساس عالميًا، حيث تتسابق الحكومات لوضع أطر تنظيمية للذكاء الاصطناعي، وغالبًا ما تلجأ إلى الأدوات نفسها التي تسعى إلى ضبطها. ما حدث في جنوب أفريقيا لا يبدو حادثة معزولة، بل مؤشر على نمط متكرر يعكس اعتمادًا متزايدًا على تقنيات لم تستوعب مخاطرها بالكامل بعد.

وقد أدى ذلك إلى إعادة النقاش حول مدى جاهزية المؤسسات العامة لاعتماد هذه الأدوات في صياغة سياسات عالية الحساسية، خصوصًا عندما يتعلق الأمر بمحتوى يتطلب دقة علمية صارمة.

عندما تكتب الآلة قواعدها بنفسها

لا يمكن النظر إلى هذه الأزمة باعتبارها مجرد خطأ إداري يمكن تصحيحه بإجراءات تقليدية، بل هي إشارة أعمق إلى تحدٍ بنيوي يتعلق بكيفية استخدام الذكاء الاصطناعي داخل دوائر صنع القرار. فحين تُستخدم هذه الأدوات في إنتاج المعرفة التي تستند إليها السياسات، يصبح السؤال الأساسي ليس عن كفاءة التقنية، بل عن حدود الثقة فيها، ومن يملك سلطة التحقق من مخرجاتها.

وبينما تعهدت الحكومة بإعادة صياغة الوثيقة وفق معايير أكثر صرامة، يبقى الدرس الأبرز أن الاعتماد غير المنضبط على الذكاء الاصطناعي قد لا يؤدي فقط إلى أخطاء، بل إلى تقويض الثقة في السياسات نفسها، خاصة عندما تتحول هلوسات الآلة من ظاهرة تقنية إلى أزمة سياسية كاملة الأبعاد.