
الرئيس التنفيذي لشركة بالميرا لحلول التكنولوجيا
هل تتذكر «ديب سيك» DeepSeek الصيني الذي هزّ عرش الذكاء الاصطناعي قبل عام؟ يومها ظنّ كثيرون أن أقصى ما يمكن أن نراه هو نماذج أسرع وأرخص وأذكى في توليد النصوص وتحليل البيانات، لكن ما يحدث اليوم يتجاوز تلك اللحظة بأضعاف من حيث التطور التقني والتأثير المحتمل.
تطبيق OpenClaw، الذي بدأ في نوفمبر 2025، حصد خلال أقل من شهرين أكثر من 200 ألف نجمة على GitHub، ويُستخدم في تطوير ما يقارب 35 ألف تطبيق رقمي، أرقام تعكس تحوّلاً نوعياً لا كمياً فحسب، لم نعد في سباق «النموذج الأقوى»، بل دخلنا مرحلة «الوكيل الأقدر»، لقد انتقلنا من تطوير النماذج إلى تطوير الكيانات التنفيذية حتى ظهرت تطبيقات تتيح للوكلاء توزيع المهام على البشر وتقييم مخرجاتهم، في انعكاس لمرحلة قد يصبح فيها الإنسان جزءاً من منظومة تقودها الخوارزميات ومن هذه المنصات renthuman.ai.
لم يعد الذكاء الاصطناعي ذلك المساعد الذي يجيب على سؤال أو يقترح صياغة أفضل لبريد إلكتروني، نحن أمام جيل جديد من الأنظمة، وكلاء ذاتيين قادرين على استقبال هدف عام، تفكيكه إلى مهام، التخطيط للتنفيذ، استخدام أدوات خارجية، اتخاذ قرارات متتابعة، ثم مراجعة أنفسهم وتصحيح المسار، ما كان قبل سنوات مادة خصبة لأفلام الخيال العلمي أصبح اليوم واقعاً تشغيلياً داخل شركات وأسواق ومؤسسات مالية.
فاليوم يتواصل الوكلاء فيما بينهم في فضاء رقمي موازٍ، يتبادلون المهام، يُنسقون القرارات، ويطوّرون نماذج اقتصادية داخل بيئاتهم الخاصة كما يُناقش في منصات مثل moltbook.com، ويتمتعون بقدرات هائلة في جمع البيانات وتنظيفها وتحليلها ثم رفع توصيات أو حتى اتخاذ القرار دون الرجوع للبشر، في الظاهر يبدو ذلك تقدماً طبيعياً في مسار الأتمتة، لكن حين يكون الوكيل هو من جمع البيانات واختار زاوية التحليل وهو من صاغ الاستنتاج، يصبح هامش الرقابة البشرية ضيقًا للغاية، الخطر يكمن في الثقة الزائدة بمنظومة لم نختبر حدودها بالكامل، ولم نضع لها الأطر لحوكمتها.
التحول هنا ليس تقنياً فحسب، بل فلسفي أيضاً، لم نعد نتحدث عن «ذكاء مساعد»، بل عن «ذكاء مفوَّض»، الفارق بينهما هو الفارق بين من يقترح القرار ومن ينفذه، وعندما يبدأ التنفيذ الآلي في الاقتراب من مجالات حساسة مثل المال والطاقة والتوظيف والأمن، يصبح السؤال أكبر من مجرد سؤال كفاءة تقنية.
خذ على سبيل المثال الوكلاء الماليين الذين باتوا قادرين على وقراءة البيانات والتحليل وتنفيذ الصفقات خلال ثوانٍ، ما يعمق من تقلبات الأسواق المالية كما شهدناه في اضطرابات الأسواق المالية في إبريل 2025، لكن ماذا لو كانت البيانات ناقصة؟ ماذا لو كان النموذج مدرَّباً على أنماط تاريخية لم تعد صالحة؟ ومن يتحمل المسؤولية إذا تسببت خوارزمية في خسائر بمليارات؟
أما في مجال الموارد البشرية، فقد بدأت بعض المؤسسات باستخدام تلك النماذج في عمليات التوظيف وتقترح قرارات ترقية أو إنهاء خدمة، هنا لا نتحدث عن خطأ رقمي بسيط، بل عن مصير إنسان، أي انحياز خفي في البيانات، أو خلل في التصميم، قد يتحول إلى ظلم ممنهج يصعب اكتشافه لأن القرار خرج من “آلة محايدة” ظاهرياً، وقد أشارت إلى ذلك مراكز أبحاث متعددة ناقشت إشكاليات العدالة في التوظيف.
في خضم هذا السباق، تبدو الدول أحياناً مترددة أو لم تأخذ الأمر بجدية، فهي من جهة تريد جذب الاستثمار والوظائف، ومن جهة أخرى تدرك أن ترك الحبل على الغارب قد يؤدي إلى اختلالات مالية وبيئية واجتماعية عميقة، المشكلة أن الشركات تتحرك بسرعة رأس المال، بينما تتحرك الحكومات بسرعة التشريع، وفي الفجوة بين السرعتين تتوسع مساحة المخاطر، ومع كل هذا التطور بالخوارزميات لم نجد حكماً في الملعب يضبط إيقاع اللعب، ويضمن سلامة اللاعبين وأمان اللعبة، والجمهور هنا ليس متفرجاً فحسب، بل طرفاً متأثراً، تُسحب منه خياراته وبياناته وأحياناً مستقبله دون أن يدرك، حيث لم تتبلور بعد أطر تنظيمية تضبط هذا التحول المتسارع.
الأخطر أن جزءاً من الطفرة الحالية يعتمد على بيانات اصطناعية لتعويض نقص البيانات الحقيقية، وعندما تتخذ الأنظمة قرارات استناداً إلى بيانات مولدة ذاتياً، فإننا نضيف طبقة جديدة من عدم اليقين، قد لا تظهر آثارها إلا بعد فوات الأوان، وقد شهدنا بالفعل حالات تسرب بيانات مالية من بطاقات ائتمانية أو غيرها تكبد أصحابها خسائر جسيمة، لتكون إنذاراً مبكراً لما قد يحدث عندما تتشابك الخوارزميات مع الواقع دون ضوابط صارمة، هذه التحولات تتزامن مع سباق عالمي لبناء مراكز بيانات عملاقة تستهلك طاقة تعادل استهلاك دول بأكملها، ما يضع الابتكار في مواجهة مباشرة مع معادلات الاستدامة.
ناقوس الخطر هنا لا يعني الدعوة إلى إيقاف التطور، الذكاء الاصطناعي يحمل فرصاً هائلة لتحسين الإنتاجية، تطوير الخدمات، وتعزيز القدرة التنافسية للدول والمؤسسات، لكن التاريخ يعلمنا أن كل ثورة صناعية سبقتها مرحلة من الفوضى التنظيمية، من عمالة الأطفال في القرن التاسع عشر إلى الأزمات المالية في القرن الحادي والعشرين، كان غياب الأطر الواضحة مكلفاً دائماً.
اليوم نحن أمام ثورة القرار الآلي، إذا لم تُصمم أطر واضحة للمساءلة، وإذا لم يُحدد بوضوح من يتحمل المسؤولية عند الخطأ، وإذا لم تُفرض معايير شفافية وقابلية تفسير على الأنظمة الوكيلة، فقد نجد أنفسنا في عالم تتخذ فيه الخوارزميات قرارات تمس حياة البشر دون أن يكون هناك من يُسأل، كما أن نشر الوعي أصبح ضرورة ملحّة، لتعليم الأفراد والمؤسسات كيفية تصنيف بياناتهم، وما الذي يمكن مشاركته مع هذه النماذج والوكلاء وما الذي يجب أن يبقى محمياً.
السؤال لم يعد: هل الوكلاء قادرون؟
بل: هل نحن مستعدون لتفويضهم؟
الذكاء الاصطناعي الوكيل ليس تهديدًا في ذاته، لكنه اختبار حقيقي لنضج مؤسساتنا وقدرتنا على وضع حدود واضحة، بين الطموح التقني والواجب الأخلاقي، يجب أن تميل الكفة إلى حماية الإنسان أولاً، فقبل أن نسأل متى سيقرر الذكاء الاصطناعي عنا، علينا أن نسأل: ما هي القرارات التي لا يجوز أن تخرج من يد البشر أصلاً؟
في هذا المفترق، لا يكفي أن نحتفي بالقدرات، علينا أن نصغي جيدًا لصوت ناقوس الخطر، وأن نضع الحكم في الملعب قبل أن تتحول الخوارزمية من أداة تمكين… قبل أن تصبح سرعة التقنية أسرع من قدرتنا على حوكمتها، بحيث يتم تبني أطر تنظيمية واضحة تضبط هذا التحول المتسارع وتضمن الأمن والسلامة للمستخدمين، في عصر الوكلاء لا تقل أهمية الوعي المجتمعي عن أهمية التشريع، فالمساءلة تبدأ من السياسات، لكنها تترسخ عبر فهم الأفراد لبياناتهم وحدود تفويضهم للآلة، ففي عالم تتسارع فيه الخوارزميات لا يكفي أن نطوّر الذكاء… بل يجب أن نطوّر القواعد التي تحكمه.
تم إعداد هذه المقالة لصالح CNN الاقتصادية، والآراء الواردة فيها تمثّل آراء الكاتب فقط ولا تعكس أو تمثّل بأي شكل من الأشكال آراء أو وجهات نظر أو مواقف شبكة CNN الاقتصادية.
مجلة 24 ساعة