95% مبادرات الذكاء الاصطناعي لا تدر عائدات بينما ترتفع الرواتب 323% لسادة التكنولوجيا - لماذا يحدد هذا التوتر لحظة النضج التنظيمي
ديسمبر 20, 2025 | 2025 بواسطة ماتوس AI

لقد أظهرت الساعات الأربع والعشرون الماضية صورة متناقضة ولكنها كاشفة: فبينما 95% من مبادرات الذكاء الاصطناعي في الشركات ليس لها تأثير مباشر على الإيرادات, وفقًا لمعهد ماساتشوستس للتكنولوجيا، فإن نما الطلب على المهنيين ذوي مهارات الذكاء الاصطناعي بمقدار 3231 تيرابايت في الفترة بين عامي 2018 و2024, وفقًا لما ذكرته Microsoft وLinkedIn. في الوقت نفسه, صفقات مراكز البيانات العالمية تصل إلى رقم قياسي بلغ $ 61 مليار دولار أمريكي, و البرازيل تتأرجح بين الفرصة السانحة وعدم اليقين التنظيمي.
هذه المفارقة ليست مصادفة. فهو يكشف عن اللحظة التي نحن فيها بالضبط: لقد غادر الذكاء الاصطناعي المرحلة التجريبية، ودخل مرحلة البنية التحتية الحيوية، ولكنه لا يزال يفشل في توليد قيمة حقيقية لأن العديد من المؤسسات تخلط بين الأداة والاستراتيجية.
سوف أشرح سبب أهمية هذا التوتر، وما تكشفه البيانات حول مستقبل العمل والبنية التحتية الرقمية، وما عليك القيام به لتجنب الوقوع في الجانب الخطأ من نقطة التحول هذه.
انضم إلى مجموعات WhatsApp الخاصة بي! تحديثات يومية بأهم أخبار الذكاء الاصطناعي و المجتمع النشط والمتنوع. *المجموعات باللغة الإنجليزية.*
- الذكاء الاصطناعي للأعمال: التركيز على الجانب التجاري والإستراتيجي.
- بناة الذكاء الاصطناعي: تركيز تقني وعملي.
المفارقة المركزية: استثمار قياسي وعائد ضعيف
دعونا نبدأ مع الفيل في الغرفة. تقرير معهد ماساتشوستس للتكنولوجيا الذي استشهد به تقرير تيرا بالطبع 95% من مبادرات الذكاء الاصطناعي في الشركات ليس لها تأثير مباشر على الإيرادات. وتضيف دراسة مجموعة بوسطن كونسلتينج جروب: 5% فقط من المؤسسات تحقق قيمة كبيرة باستخدام الذكاء الاصطناعي.
لماذا؟ الإجابة بسيطة ولكنها مؤلمة: معظم الشركات تتعامل مع الذكاء الاصطناعي كما لو كان جهازًا منزليًا. فهم يشترون الأداة ويوصلونها ويتوقعون أن تحل المشاكل من تلقاء نفسها. الأمر لا يعمل بهذه الطريقة.
العائق الأكبر ليس تكنولوجياً. إنه بشري. هناك نقص في المعرفة للتطبيق المتسق. تركز المنظمات على الأداة وتهمل إعداد الأشخاص. وهذا يأتي بتكلفة باهظة: الأموال المهدرة، والوقت الضائع، وفقدان المصداقية الداخلية والإحباط العام.
أرى ذلك عن قرب في عملي مع شركات من مختلف الأحجام والقطاعات. إن الإغراء كبير: توظيف شركة استشارية، وتنفيذ حل جاهز، وإجراء تجربة لمدة شهرين وإعلان النصر. ولكن بعد ذلك لا يتسع نطاق الحل، ولا تعرف الفرق كيفية استخدامه، وتكون البيانات فوضوية، ولا يتم إغلاق الحساب.
من على الجانب الأيمن من نقطة التحول: الرواتب والمهارات
والآن بالنسبة للجانب الآخر من العملة. في الوقت الذي تفشل فيه الشركات، فإن المحترفين الذين يتقنون الذكاء الاصطناعي يجنون ثمارًا حقيقية. وفقًا لـ دليل رواتب روبرت هاف هاف, استنادًا إلى 500 مدير و1,000 مهني في البرازيل, تتصدر كفاءات الذكاء الاصطناعي المهارات ذات الأجور الأعلى من المتوسط في عام 2026.
أكثر من ذلك: 83% من أرباب العمل من المرجح أن يدفعوا أكثر لذوي المهارات المتخصصة. ويفضل 47% مهارات الذكاء الاصطناعي على الخبرة السابقة. وهذا يغير قواعد اللعبة. فلطالما كانت الخبرة هي المفاضلة الكبيرة في سوق العمل. أما الآن فهي تتنافس مع القدرة على استخدام الذكاء الاصطناعي بشكل استراتيجي.
والأرقام العالمية مثيرة للإعجاب: فقد نما الطلب على محترفي الذكاء الاصطناعي 323% بين عامي 2018 و2024, وفقًا لبيانات من Microsoft وLinkedIn.
ماذا يعني ذلك عملياً؟ أن السوق يدفع علاوة عالية جدًا لأولئك الذين يمكنهم ترجمة التكنولوجيا إلى قيمة تجارية. نحن لا نتحدث عن أولئك الذين يعرفون كيفية استخدام ChatGPT لكتابة رسائل البريد الإلكتروني. نحن نتحدث عن أولئك الذين يفهمون كيفية تدريب النماذج، وبناء خطوط أنابيب البيانات، وتصميم هياكل الأنظمة، وفوق كل ذلك، مواءمة كل ذلك مع أهداف العمل.
البنية التحتية: السباق الصامت الذي يحدد معالم المستقبل
وفي الوقت نفسه، هناك سباق صامت يجري خلف الكواليس: التدافع على مراكز البيانات ذات قدرات الذكاء الاصطناعي المتقدمة. إن سجلت صفقات مراكز البيانات العالمية رقمًا قياسيًا بحلول شهر نوفمبر، حيث بلغت قيمتها الإجمالية حوالي $ 61 مليار دولار أمريكي, وفقًا لمؤسسة S&P Global Market Intelligence. كان هناك أكثر من 100 صفقة، متجاوزًا الرقم القياسي المسجل في عام 2024.
تتطلب مراكز البيانات الخاصة بالذكاء الاصطناعي أكثر بكثير من المراكز التقليدية: المزيد من الاستثمار، والمزيد من التبريد، والمزيد من الطاقة. كما أن توافر الأصول عالية الجودة نادر. فالمالكون الحاليون مترددون في البيع لأنهم يعلمون أن الأصول ترتفع قيمتها بسرعة. إنه المكافئ الرقمي لحقول النفط.
والبرازيل؟ إنها مترددة A أنشأ التدبير المؤقت رقم 1.318/2025 نظام الضرائب الخاص لخدمات مراكز البيانات (Redata1), ولكن لا يزال توحيدها القانوني غير مؤكد، في انتظار مشروع قانون الذكاء الاصطناعي (PL 2338/23). في غضون ذلك, تسريع الجيران:: أطلقت شيلي الخطة الوطنية لمراكز البيانات؛ وتلقت أوروغواي استثمارات من غوغل (1.4 مليار دولار أمريكي) وشيلي من شركة أمازون ويب سيرفيسز (1.4 مليار دولار أمريكي).
لماذا هذا مهم؟ لأن البنية التحتية المحلية ضرورية لـ السيادة الرقمية والامتثال لقانون حماية البيانات الحساسة. تجلب معالجة البيانات الحساسة خارج البلاد مخاطر قانونية وتشغيلية واستراتيجية. فبدون وجود مراكز بيانات قوية هنا، فإننا نعتمد على البنية التحتية الأجنبية، ونكون عرضة للتقلبات الجيوسياسية وبدون سيطرة على الأصول الاستراتيجية.
العمل يتغير - وليس بالطريقة التي تعتقدها أنت
والآن ننتقل إلى موضوع يهمني بشدة: تأثير الذكاء الاصطناعي على علاقات العمل. المقال الذي كتبه جوتا على الإدارة الخوارزمية أحد أهم النصوص التي قرأتها مؤخرًا.
تتشكل الإدارة الخوارزمية بالذكاء الاصطناعي قوة التوظيف العميقة والمستعرضة. ويحدث هذا على ثلاث مراحل:
- قبل القبول: خطر التحيز والتمييز، حيث يمكن لأنظمة الذكاء الاصطناعي المدربة على تاريخ التوظيف أن تعيد إنتاج عدم المساواة. الافتقار إلى الشفافية بشأن التقييم الخوارزمي.
- أثناء الجماع: المراقبة المكثفة (إيقاع الكتابة، والنقرات، وانحراف النظرات)، وتوليد ضغط قياسي ومعاقبة حالات معينة (المتباعدون العصبيون، والأمهات). انخفاض الاستقلالية وتكثيف عدم التماثل بين صاحب العمل والموظف.
- بعد الإغلاق خطر الفصل الحسابي على أساس الأداء، والذي يمكن أن يكون مفاجئًا وتمييزيًا. خطر الإبقاء على “القوائم القذرة” التي تعيق إعادة الإدماج المهني.
حتى أن المقال يستشهد بقضية تتهم جوجل بإنشاء أداة للتجسس على العمالة. والتحديات القانونية معقدة: كيف يمكن الطعن في القرارات الآلية التي تعمل مثل “الصناديق السوداء” المحمية بأسرار الشركة؟
الخاتمة قاسية: تؤدي الإدارة الخوارزمية إلى تفاقم الفجوة الاجتماعية والاقتصادية. يجب أن يسعى قانون العمل إلى تحقيق الشفافية وقابلية التفسير وأمن البيانات وأولوية حماية الإنسان من أجل الحد من الآثار الضارة للتكنولوجيا على كرامة العمل.
أنا أدافع عن الذكاء الاصطناعي. أعمل مع الذكاء الاصطناعي. أساعد الشركات والحكومات على تطبيق الذكاء الاصطناعي. لكنني أدافع عن الذكاء الاصطناعي مسؤول. الذكاء الاصطناعي الذي يوسع، ولا يستبدل. الذكاء الاصطناعي الذي يحرر الوقت للاستراتيجية، لا أن يجرد الإنسان من إنسانيته. الذكاء الاصطناعي الذي يخدم الناس، وليس المقاييس العمياء.
الاتكالية الصامتة وإفقار الفكر
وهناك زاوية أخرى مثيرة للقلق في هذه القصة بأكملها. A البحث في الصفحة 3 كشف أن 63% من البرازيليين طلبوا بالفعل من الذكاء الاصطناعي أن يكتب لهم رسائل شخصية. وقد تلقى 49% بالفعل رسائل تم إنشاؤها بواسطة الذكاء الاصطناعي.
يُفسر السيناريو على أنه “الاستعانة بمصادر خارجية ذهنية”، مما يقلل من ممارسة صياغة الآراء الخاصة. 76% من البرازيليين يقولون أنه من الصعب التحدث والتواصل. ويعتقد 60% أن الأشخاص الأكثر قيمة في المستقبل سيكونون أولئك الذين يستطيعون تحليل المعلومات التي تقدمها الذكاء الاصطناعي بشكل نقدي.
وهذا يذكرني باستعارة أستخدمها دائمًا: الذكاء الاصطناعي مثل الآلة الحاسبة القوية جدًا. فهي تحل المسائل الرياضية المعقدة في أجزاء من الثانية. ولكن إذا كنت لا تفهم الرياضيات، فلن تعرف حتى ما هو السؤال الذي يجب أن تطرحه. وإذا فوضت كل تفكيرك إلى الآلة الحاسبة، فإنك تفقد قدرتك على التفكير.
إن إفقار النقاش العام وتفويض الفكر من المخاوف الحقيقية. نحن بحاجة إلى استعادة “وقت الإنسان للتفكير”، كما تقترح الدراسة.
ما الذي يفسر الفجوة بين الاستثمار والنتائج؟
وبالعودة إلى المفارقة الأولى: لماذا تفشل 95% من مبادرات الذكاء الاصطناعي، بينما تنفجر الاستثمارات؟
تكمن الإجابة في عدم وجود القيادة الجاهزة و تدريب الفريق. إن أرض قاطعة: المؤسسات التي تمكّن فرقها من العمل جنبًا إلى جنب مع الذكاء الاصطناعي مضاعفة فرص توليد قيمة الأعمال, وفقًا لشركة ماكنزي.
ويشير الخبراء (CFC، أورليانز) إلى أن العديد من الشركات تركز على الأداة وتهمل إعداد الأشخاص. الأمر يشبه شراء طائرة خاصة دون معرفة كيفية التحليق بها. الأداة قوية، ولكن بدون المعرفة تصبح الأداة ثقيلة الوزن.
تتطلب قيادة الذكاء الاصطناعي وضوحًا استراتيجيًا وتهيئة الظروف للتجريب. لا يمكنك التنفيذ من الأعلى إلى الأسفل، دون إشراك الفرق، دون اختبار، دون تكرار، دون تكرار. ولا يمكنك توقع نتائج فورية. الذكاء الاصطناعي هو استثمار متوسط الأجل. أي شخص يريد نتائج في 30 يوماً سيصاب بالإحباط.
أين البرازيل من كل هذا؟
البرازيل في وضع غريب. لدينا اعتماد متزايد، ومواهب ممتازة، وحالات استخدام مبتكرة (مثل تقرير GZH يُظهر استخدام قادة Gaucho للذكاء الاصطناعي في إدارة المخاطر والتحليل التنبؤي والتسويق والكفاءة التشغيلية)، ولكن لدينا أيضًا عدم اليقين التنظيمي و عدم وجود بنية تحتية موحدة.
يعمل الذكاء الاصطناعي بالفعل كبنية تحتية في القطاع الاقتصادي، حيث يولد قيمة من خلال أتمتة العمليات وتحرير وقت الموظفين للأنشطة والعلاقات الاستراتيجية. ولكن القيمة النهائية تعتمد على الخيارات البشرية التي تتطلب الحوكمة والأخلاقيات.
في عام 2026، سيكون الفرق مثل يتم استخدام الذكاء الاصطناعي. وهذا يتطلب ثلاثة أمور:
- الوضوح الاستراتيجي: معرفة أين يحدث الذكاء الاصطناعي فرقاً وأين لا يحدث فرقاً.
- التدريب المستمر: تدريب الفرق، وخلق ثقافة التجريب، والاستثمار في التعليم.
- الحوكمة الصارمة الشفافية والوضوح وحماية البيانات واحترام الكرامة الإنسانية.
تحدي محو أمية الذكاء الاصطناعي: “موجه” و“ل.ل.م” أصبحا وحوشًا بسبعة رؤوس
وبالحديث عن التدريب، هناك حقيقة غريبة: إن استبيان Adapta لـ 500 مستخدم تعيين 90 تعبيرًا من تعبيرات الذكاء الاصطناعي غير المفهومة جيدًا. كان المصطلح الذي أثار معظم الأسئلة هو “موجه” (12,6%).
موجه الأمر الأساسي الذي ترسله إلى الذكاء الاصطناعي. إذا كان هذا مربكًا، تخيل مفاهيم أكثر تعقيدًا مثل “التعلم الآلي” و“التعلم العميق” و“الشبكات العصبية” و“نماذج اللغة الكبيرة” و“الرموز”.
وهذا يدل على الحاجة الملحة لـ محو أمية الذكاء الاصطناعي. أنا لا أتحدث عن تحويل الجميع إلى علماء بيانات. أنا أتحدث عن التأكد من أن الناس يفهمون الأساسيات: كيف يعمل الذكاء الاصطناعي، وما يمكنه فعله وما لا يمكنه فعله، وكيفية التفاعل معه بفعالية.
وهناك مصطلح آخر ظهر في الدراسة: “هلوسة الذكاء الاصطناعي”. يسلط الارتباك مع هذا المفهوم الضوء على الحاجة الماسة للإشراف البشري والتحقق من المحتوى الذي تم إنشاؤه. الذكاء الاصطناعي ليس معصومًا من الخطأ. فهو “يهلوس” ويخترع البيانات ويرتكب الأخطاء. تفويض القرارات الحاسمة للذكاء الاصطناعي دون إشراف هو وصفة لكارثة.
الجانب الثاني: التزييف العميق والاحتيال وقضية “الراهبة كوين”
ومع تقدم الذكاء الاصطناعي، تنشأ حالات إساءة الاستخدام التي تتطلب اليقظة المستمرة. O حالة “الراهبة كوين” مثال على ذلك: أمرت محكمة في ساو باولو بإزالة قناة تيك توك (@misteriosdelastrolrologia، التي يتابعها أكثر من 4 ملايين متابع) التي استخدمت التزييف العميق لإنشاء مقاطع فيديو بصوت وصورة الراهبة كوين وهي تتحدث عن التنجيم، وهو موضوع لا علاقة له بالبوذية.
واستشهد القاضي بانتهاك الحقوق الشخصية والخلط الناجم عن عدم تمييز مقاطع الفيديو الأصلية. وأكد محامي الراهبة أنه تم تجاهل الشكاوى المقدمة إلى المنصة.
تُظهر هذه الحالة القلق المتزايد بشأن التزييف العميق لأغراض الاحتيال وتحقيق الدخل. وهي ليست حالة معزولة: فقد وردت تقارير مماثلة تتعلق بالطبيب دروزيو فاريلا وآخرين.
ومن دون تنظيم، ومن دون أدوات التحقق، ومن دون إخضاع المنصات للمساءلة، سنرى هذا الأمر يتضاعف. وستكون التكلفة هائلة: تآكل المصداقية، والتضليل الهائل، وانتهاك الحقوق الأساسية.
الخطوة التالية: ثلاث خطوات لا مفر منها
بالنظر إلى المستقبل، أرى ثلاث خطوات حتمية:
1. تعزيز الذكاء الاصطناعي كبنية تحتية حيوية
لن يعود الذكاء الاصطناعي “مشروعًا مبتكرًا” بل “بنية تحتية أساسية”. تمامًا مثل الإنترنت والكهرباء والماء. فأي شخص لا يستطيع الوصول إليها سيصبح متخلفاً عن الركب. وهذا لا يشمل الشركات فحسب، بل الدول أيضاً. إن النزاع على مراكز البيانات هو في نهاية المطاف نزاع على السيادة الرقمية.
2. الفصل بين أولئك الذين يستخدمون الذكاء الاصطناعي بشكل استراتيجي وأولئك الذين يلعبون به فقط
يقوم السوق بالفعل بهذا الفصل. ستهيمن شركات 5% التي تولد قيمة حقيقية باستخدام الذكاء الاصطناعي على قطاعاتها. بينما ستستمر شركات 95% التي “تطبق الذكاء الاصطناعي” فقط في التزلج. وستتسع الفجوة بين هاتين المجموعتين.
3. التنظيم الأكثر صرامة والحوكمة الإلزامية
قضايا مثل قضية مونجا كوين، والمراقبة التعسفية للعمال، والتمييز الخوارزمي في اختيار المرشحين - كل هذا سيفرض أطرًا تنظيمية أكثر صرامة. وهذا أمر جيد. فالتكنولوجيا بدون حوكمة تصبح سلاحاً.
ما يجب القيام به الآن: ثلاثة إجراءات عملية
إذا كنت قائدًا أو رائد أعمال أو مديرًا تنفيذيًا أو محترفًا تتطلع إلى أن تكون في وضع أفضل في نقطة التحول هذه، فإليك ثلاثة إجراءات عملية:
1. الاستثمار في معرفة فريقك بالذكاء الاصطناعي
لا تتوقع من الناس أن يفهموا من تلقاء أنفسهم. عزز التدريب وورش العمل والانغماس. اخلق ثقافة التجريب الآمن. وتأكد من أن الجميع يعرف الأساسيات: ما هو الموجه، وكيف يعمل LLM، وما هي هلوسة الذكاء الاصطناعي.
2. تأسيس الحوكمة منذ البداية
الشفافية، وقابلية الشرح، وحماية البيانات، والإشراف البشري. لا يمكنك تطبيق الذكاء الاصطناعي ثم التفكير في الحوكمة. الحوكمة تأتي أولاً. وهذا يشمل سياسات واضحة بشأن الاستخدام، والحدود، والتحقق من التحيز، والتدقيق المستمر.
3. توظيف خبراء الذكاء الاصطناعي في المناصب الاستراتيجية
إذا كنت تريد أن تكون جزءًا من 5% التي تولد قيمة حقيقية، فأنت بحاجة إلى أشخاص يعرفون كيفية تحقيق ذلك. والسوق يدفع أقساطاً عالية للغاية لهؤلاء المحترفين. لا تبخل عليهم. فتكلفة توظيف الأشخاص الخطأ أعلى بكثير من الاستثمار في أفضل المواهب.
لماذا تحدد هذه اللحظة كل شيء
وبالعودة إلى المفارقة الأولى: 951 تيرابايت 3 تيرابايت من مبادرات الذكاء الاصطناعي لا تدر عائدات، ولكن الرواتب ترتفع بمقدار 3231 تيرابايت 3 تيرابايت لمن يتقنون هذه التكنولوجيا. هذه الفجوة ليست خطأ. إنها ميزة. إنها تكشف بالضبط أين نحن: في مرحلة النضج التنظيمي للذكاء الاصطناعي.
التكنولوجيا جاهزة. ويجري بناء البنية التحتية بقوة. والسوق يدفع ثمناً باهظاً لأولئك الذين يعرفون كيفية تحقيق ذلك. لكن معظم المؤسسات لم تفهم بعد أن الذكاء الاصطناعي ليس أداة. إنه تحول ثقافي واستراتيجي وتشغيلي.
ويتطلب التحول القيادة والتدريب والحوكمة والصبر والاستثمار طويل الأجل. أولئك الذين يفهمون ذلك الآن سيهيمنون على فئتهم. أما أولئك الذين يستمرون في التعامل مع الذكاء الاصطناعي كمشروع لتكنولوجيا المعلومات فسيظلون في فئة 95%.
من خلال عملي الإرشادي والاستشاري، أساعد المديرين التنفيذيين ورواد الأعمال والشركات على اجتياز نقطة التحول هذه. ليس من خلال بيع الأوهام، ولكن من خلال بناء استراتيجية واضحة، وتمكين الفرق، وتصميم حوكمة قوية، وتطبيق الذكاء الاصطناعي الذي يولد قيمة حقيقية وقابلة للقياس ومستدامة. إذا كنت تريد أن تكون جزءًا من 5%، وليس 95%, دعنا نتحدث.
لأن الوقت قد حان الآن. ونافذة الفرصة أصغر مما تبدو عليه.
✨تمت المراجعة بالكامل يمكنك التسجيل من خلال النشرات الصحفية من 10K Digital على بريدك الذكاء الاصطناعي الحديث.
منشورات ذات صلة
عرض الكل
