من التجارب إلى التشغيل: IBM تكشف عن المرحلة التالية للذكاء الاصطناعي المؤسسي

في ختام مؤتمر “IBM Think 2026” في بوسطن، اتضحت معالم المرحلة الجديدة للذكاء الاصطناعي المؤسسي، والتي لن تعتمد على من يملك أكبر عدد من النماذج، بل على من يستطيع تشغيل الذكاء الاصطناعي بفعالية داخل الأعمال. يؤكد مسؤولو IBM أن الانتقال من مرحلة التجارب إلى الإنتاج الفعلي يتطلب إعادة تصميم شاملة لسير العمل، وتنظيم البيانات والسياق، وإدارة القوى العاملة الرقمية، وبناء أطر حوكمة وأمن قوية. هذه التحولات ضرورية لضمان السيطرة على الذكاء الاصطناعي عند تأثيره على العمليات التشغيلية.

ما وراء التجارب: تحديات الانتقال إلى الإنتاج

محمد علي، نائب الرئيس الأول ورئيس IBM Consulting، يرى أن المؤسسات لم تعد تواجه صعوبة في نقص الأدوات، بل في مقاومة تغيير طرق تنظيم العمل الداخلية. وأوضح في حديث لـ”الشرق الأوسط” أن التحدي الأكبر يكمن في “كيفية إعادة هندسة العمليات لتحقيق قيمة أعمال أفضل”. تميز علي بين المرحلة الأولى من الذكاء الاصطناعي، التي اقتصرت على وكلاء يؤدون مهام بسيطة، والمرحلة التالية التي تتطلب “تجميع” هؤلاء الوكلاء بطرق آمنة ومحكمة لتحويلهم إلى قيمة أعمال حقيقية ضمن سير عمل جديد.

ويرجح علي أن هذا التحول هو سبب عدم تجاوز العديد من الجهود المؤسسية للذكاء الاصطناعي لمرحلة التجارب. أشار إلى أن الطموحات الأولية غالباً ما تكون أوسع من اللازم. بدلاً من ذلك، تنصح المؤسسات الناجحة بالبدء بحالات استخدام أضيق وترتبط بقيمة واضحة، ثم ربطها تدريجياً ضمن سير عمل أوسع. كما أبرز مشكلتين أخريين: عدم التفكير المنهجي في الحوكمة عند نقل الذكاء الاصطناعي للإنتاج، وظاهرة “الذكاء الاصطناعي الظلّي” حيث تتبنى أجزاء من المؤسسة أدوات منفصلة دون رؤية شاملة، مما يؤدي غالباً إلى “تدمير القيمة” بدلاً من خلقها.

نموذج تشغيل جديد للذكاء الاصطناعي

تطرح IBM فكرة “نموذج تشغيل الذكاء الاصطناعي” كرسالة أساسية هذا العام. الفكرة ليست في الحصول على المزيد من الذكاء الاصطناعي، بل في التوقف عن اعتباره مجموعة من التجارب المنفصلة ودمجه في صميم كيفية عمل المؤسسة. يذكر علي أن نضج الذكاء الاصطناعي سمح بربط “حالات الاستخدام الفردية” بطريقة عاملية، مما يمكّن المؤسسات من “إعادة هندسة طريقة إنجاز العمل على مستوى تأسيسي”. هذا هو الخط الفاصل بين الشركات التي لا تزال تختبر الأدوات وتلك التي حولت الذكاء الاصطناعي إلى قدرة تشغيلية.

ضرب علي مثالاً داخلياً من IBM، حيث بدأت الشركة قبل ثلاث سنوات بنشر الذكاء الاصطناعي على نطاق واسع. من خلال تفكيك الأعمال إلى 490 سير عمل واختيار أهم 70 منها، وبناء 220 عاملاً رقمياً، نجحت IBM في إعادة تصميم مجالات مثل الموارد البشرية والمالية وسلسلة الإمداد لتصبح “بشرية + رقمية”. أسفر ذلك عن خفض الإنفاق من حوالي 25 مليار دولار في 2022 إلى ما يقرب من 20 مليار دولار بحلول 2025، مما وفر حوالي 4.5 مليار دولار. وأكد أن هذا الإنجاز “لا يحدث إلا عندما تجعل الذكاء الاصطناعي جزءاً من نموذج التشغيل”.

“طيران الرياض” كمثال للذكاء الاصطناعي المؤسسي

أشار محمد علي أيضاً إلى “طيران الرياض” كمثال لشركة بنت الذكاء الاصطناعي ضمن نموذج التشغيل منذ اليوم الأول. وصفها بأنها “شركة طيران أولاً بالذكاء الاصطناعي تقريباً”، مؤكداً أن أهمية هذا المثال لا تكمن فقط في حداثة الشركة، بل في بنائها بدون ثقل الأنظمة القديمة التي تقيد الشركات القائمة. بدأ عمل IBM مع “طيران الرياض” من العمليات المالية والداخلية، بهدف إعادة تصميم المسارات المؤسسية لتحقيق كفاءة أعلى. الفكرة هي توجيه المزيد من الموارد نحو الخدمة وتجربة العميل، مما يمكّن الناقلة من استخدام وكلاء الذكاء الاصطناعي عبر رحلة العميل كاملة.

قارن علي ذلك بأنظمة الطيران التقليدية التي تعود إلى عقود مضت، معتبراً أن “طيران الرياض” لديها فرصة للبناء على نموذج رقمي مختلف. ولخص رؤيته للمشروع بالقول: “إنه يبني تجربة تجارة إلكترونية لديها 200 طائرة”.

التغيير في الأولويات: العنصر البشري قبل التقنية

كرر علي أن القضية ليست في نشر الذكاء الاصطناعي، بل في تغيير طريقة عمل الشركات. وأشار إلى أن أصعب المحادثات مع العملاء لم تعد تدور حول ما يستطيع الذكاء الاصطناعي فعله، بل حول “كيف أغير نموذج التشغيل لدي؟ وكيف يمكنكم أن تدعموني في إدارة هذا التغيير؟”. ولخص أحد العملاء الأمر قائلاً: “30 في المائة منها تقنية، و70 في المائة منها تتعلق بتحقيق التبني، وتغيير سير العمل، وتغيير كيفية إنجاز الناس للعمل”.

هذا يضع البشر في قلب القصة، حيث أكد علي أن الذكاء الاصطناعي سيغير سوق العمل بدلاً من إلغائها. وأضاف: “أعتقد حقاً أن هناك مجموعة كاملة من الوظائف التي ستنشأ بسبب وجود الذكاء الاصطناعي”. فيما يتعلق بالمقاومة الثقافية، اعتبر أن وجود راعٍ رفيع المستوى داخل المؤسسة شرط ضروري لنجاح التغيير واسع النطاق. وأضاف: “من المهم للغاية أن يكون هناك شخص كبير جداً في المؤسسة يرعى هذا، وإلا فلن يحدث”.

السيطرة على الوكلاء الرقميين: الحوكمة والأمن

إذا كان محمد علي قد ركز على تحديات انتقال الذكاء الاصطناعي إلى التشغيل الفعلي، فإن مارك هيوز، الشريك الإداري العالمي لخدمات الأمن السيبراني في IBM Consulting، قد شرح ما يحدث عند توسع هذه الجهود. وأكد أن الذكاء الاصطناعي المؤسسي يصبح أكثر صعوبة وحساسية مع انتقاله من استخدامات محدودة إلى عدد كبير من الوكلاء المزروعين في سير العمل والتطبيقات وعمليات اتخاذ القرار. القضية هنا لم تعد فقط ما إذا كانت أداة الذكاء الاصطناعي تعمل، بل ما إذا كان نشرها محكوماً.

وشدد هيوز على ضرورة وجود “حوكمة” تشمل ضوابط تتعلق بالتشفير، الهوية، الوصول، الصلاحيات، البيانات، والمراقبة وقت التشغيل. بدون هذا الغلاف، فإن “خطر عدم القيام بذلك كبير”. الفرق بين جهود التوسع الناجحة والفاشلة، حسب هيوز، لا يكمن في النموذج نفسه، بل في “انضباط النشر”. وتوافق هذا مع طرح علي بأن العديد من مشروعات الذكاء الاصطناعي تفشل لأن النطاق الأولي واسع جداً، لكن ضعف الحوكمة قد يكون بنفس القدر من الضرر.

وأشار إلى أن بعض المؤسسات لا تفهم جيداً “ما الذي يفعله الوكلاء، وكيف يؤدون”، مما قد “يضغط على فرامل تنفيذ الذكاء الاصطناعي لديها”. وقد تضعفها ظاهرة “الذكاء الاصطناعي الظلّي” والنشر المتشظي. المؤسسات الناجحة هي تلك التي “تفكر بشكل أكثر منهجية في كيفية إدخال الذكاء الاصطناعي إلى الإنتاج وتبني الحوكمة حوله”. فالذكاء الاصطناعي غير المحكوم هو الذي يخلق الخطر.

البيانات والضوابط: أساس تشغيل الذكاء الاصطناعي

تعتبر البيانات أساسية في طرح الرجلين. أكد محمد علي أن “البيانات أساسية جداً جداً”، وأن “النماذج نفسها جيدة جداً”، لكن ما يصنع النتيجة هو “خط أنابيب البيانات والسياق والعملية الذي يستفيد من النماذج”. وأوضح كيف تحاول IBM تحسين ذلك بأدوات مثل “Context Studio”، التي لا تكتفي بمعالجة كميات كبيرة من بيانات الشركة، بل تبني طبقة من الأنطولوجيا والعلاقات يمكن للوكلاء استهلاكها كسياق. الهدف ليس امتلاك البيانات فحسب، بل معالجتها للسماح للوكلاء بالعمل جيداً حتى مع بيانات مؤسسية خام غير مكتملة أو غير مرتبة.

من جانبه، تناول هيوز المسألة من زاوية أخرى، حيث لا يمكن فصل الحوكمة حول البيانات عن الحوكمة حول الوكلاء. وفي القطاعات الأكثر تنظيماً، فإن البيانات نفسها وسلوك الوكيل حولها مهمان معاً. أكد أن التحكم في مكان البيانات والتحكم في النماذج والوكلاء يمثلان سؤالاً مهماً في الوقت الحالي. وأشار إلى طبقة السياق التي بنتها IBM والجهود الأوسع في إدارة البيانات كجزء من الحل. لكن تركيزه ظل على ضرورة وجود ضوابط ما قبل الإنتاج ووقت التشغيل لمراقبة سلوك الوكلاء بعد دخولهم الخدمة.

الأمن والمساءلة: مستقبل الذكاء الاصطناعي المؤسسي

في رؤية هيوز، لم يعد الأمن مجرد طبقة تضاف بعد نشر الذكاء الاصطناعي، بل أصبح جزءاً من نموذج التشغيل نفسه. يجب ألا تنظر المؤسسات إلى الذكاء الاصطناعي على أنه يجعل الأمن “أصعب” فقط، بل يجعلها مختلفة. فمن جهة، يوسع الذكاء الاصطناعي سطح الهجوم بسبب زيادة عدد الأنظمة والوكلاء والعمليات الذاتية، مع توقع نشر 1.5 مليار وكيل داخل البيئات المؤسسية بحلول 2028. ومن جهة أخرى، يمنح الذكاء الاصطناعي المؤسسات فرصة لإدارة الأمن “بصورة أسرع وأكثر ذاتية بكثير مما فعلناه في الماضي”.

لهذا السبب، عاد هيوز مراراً إلى مسألة المساءلة. إذا ولّدت قرارات الذكاء الاصطناعي خطراً، فإن المسؤولية يجب أن تبقى في مكان واضح. وأضاف: “لا يزال هناك الكثير مما يمكن أن نستفيد منه من الخبرات التي اكتسبناها في مجال عمليات تقنية المعلومات المؤسسية”. وكما أن للتطبيقات مالكين محددين، ينبغي أن يكون للوكلاء أيضاً مالكون واضحون، مع وجود خطة تحدد الجهة التي وفرتهم والجهة التي تظل مسؤولة عنهم. وبينما تتوسع الأتمتة، لا يمكن للمسؤولية أن تختفي.

في هذا السياق، لم تعد قيمة الذكاء الاصطناعي في المؤسسات تُقاس بعدد المبادرات المعلنة أو سرعة إطلاق التجارب، بل بقدرته على الدخول إلى العمليات الفعلية، والعمل داخلها بصورة منضبطة، وتحقيق أثر يمكن قياسه. هنا تحديداً يبدو أن المرحلة التالية بدأت.

شاركها.