مدونة فيليبي ماتوس

الصين تتوقع الريادة العالمية في مجال الذكاء الاصطناعي بحلول عام 2030 بـ 98 مليار دولار أمريكي بينما غروك ماسك يستغل النساء والأطفال جنسيًا - لماذا هذه الـ 24 ساعة تكشف التصادم بين الاستراتيجية الوطنية والافتقار التام للأخلاقيات

يناير 21, 2026 | بواسطة ماتوس AI

LBHkVbMCHfNeBK-2Fk4hF_bd1f9370f1fd4498932ca5e06e2d371a

هل توقفت يومًا للتفكير فيما يحدث عندما تستثمر دولة ما ما يقرب من 100 مليار دولار أمريكي في الذكاء الاصطناعي بخطة مدتها 13 عامًا، بينما تطلق شركة خاصة، دون مرشحات كافية، أداة قادرة على الاستغلال الجنسي للنساء والأطفال على نطاق صناعي؟

لقد سلطت الساعات الأربع والعشرون الماضية الضوء على حقيقتين متناقضتين تمامًا: من ناحية، الصين التي تنفذ استراتيجية وطنية متماسكة ومنسقة وضخمة للهيمنة على الذكاء الاصطناعي بحلول عام 2030؛ ومن ناحية أخرى، الفوضى التنظيمية والأخلاقية التي كشف عنها Grok، الذكاء الاصطناعي الذي ابتكره إيلون ماسك، والذي أنتج موجات من الصور الجنسية دون موافقة، بما في ذلك صور القاصرات.

تكشف هاتان القصتان، غير المترابطتين ظاهريًا، عن شيء حاسم بشأن اللحظة التي نعيشها: إن النزاع حول الذكاء الاصطناعي ليس مجرد نزاع تكنولوجي أو اقتصادي - بل يتعلق بشكل أساسي بالحوكمة والقيم والمسؤولية الجماعية.


انضم إلى مجموعات WhatsApp الخاصة بي! تحديثات يومية بأهم أخبار الذكاء الاصطناعي و المجتمع النشط والمتنوع. *المجموعات باللغة الإنجليزية.*


الصين: طموح استراتيجي باستثمارات بقيمة 98 مليار دولار أمريكي والتركيز على التطبيق الفعلي

في حين أن العديد من الدول لا تزال تناقش كيفية تنظيم الذكاء الاصطناعي، فإن الصين تقوم بذلك. فمنذ عام 2017، أطلقت الحكومة الصينية “خطة تطوير الذكاء الاصطناعي من الجيل الجديد (AIDP), كما تحدد معالم دقيقة لتحويل البلاد إلى مركز عالمي رئيسي للابتكار في مجال الذكاء الاصطناعي.

الأرقام مثيرة للإعجاب: خصصت شركة علي بابا وحدها 54 مليار دولار أمريكي بحلول عام 2024 للقدرات الحاسوبية والبنية التحتية للذكاء الاصطناعي. قُدِّر إجمالي استثمارات الصين في الذكاء الاصطناعي بما يتراوح بين US$ 84 و US$ 98 مليار دولار أمريكي بحلول عام 2025، وفقًا لبنك أوف أمريكا. لا يقتصر الأمر على إنفاق الأموال على التكنولوجيا فحسب، بل هو تنسيق بين الحكومة والقطاع الخاص، حيث تقوم شركات عملاقة مثل علي بابا وبايت دانس وتينسنت وهواوي بمواءمة استراتيجيات الشركات مع الأهداف الوطنية.

تقوم الاستراتيجية الصينية على ثلاث ركائز أساسية:

  • الاكتفاء الذاتي التكنولوجي: بناء نظام برمجيات وأجهزة مستقلة للذكاء الاصطناعي، والاستجابة للعقوبات الغربية
  • تطوير موجه نحو التطبيقات: التركيز على النتائج العملية الفورية، والاستفادة من البيانات والأنظمة الصناعية وإمكانات السوق
  • إدارة مخاطر الدورة الكاملة: سيطرة الدولة على تطوير الذكاء الاصطناعي، مع التركيز على السلامة والإنصاف

بينما تستكشف الولايات المتحدة الذكاء الاصطناعي العام والذكاء الخارق, تركز الصين على التطبيق الفوري للذكاء الاصطناعي لخلق قيمة اقتصادية وزيادة الكفاءة الصناعية: التشخيص الطبي، والمركبات ذاتية القيادة، والمراقبة، وعمليات الإنتاج. في معرض الإلكترونيات الاستهلاكية 2026, أغرقت الشركات الصينية المعرض بمنتجات “الذكاء الاصطناعي المادي” - من الروبوتات الشبيهة بالبشر إلى مغذيات الطيور الذكية.

ماذا يعني هذا من الناحية العملية؟ الصين لا تقوم فقط بتطوير نماذج لغوية. إنها تدمج الذكاء الاصطناعي في المنتجات الملموسة, إنها دولة تستفيد من مكانتها كأكبر مصنع للإلكترونيات في العالم. وكما قال نيل شاه، المؤسس المشارك لشركة Counterpoint Research: “أي بلد يمكنه إنتاج عناصر الذكاء الاصطناعي التي يمكنك حملها واستخدامها والتسلية بها أو الاستمتاع بها أو إسعادها، يمكنه تحقيق الشكل النهائي للإتقان الحاسوبي”.”

نموذج ديبسيك العميق والكفاءة الصينية

قال الرئيس التنفيذي لشركة Google DeepMind، ديميس هاسابيس، في مقابلة خلال المنتدى الاقتصادي العالمي في دافوس، إن شركات الذكاء الاصطناعي الصينية لا تزال في السوق. “حوالي ستة أشهر وراء الذكاء الاصطناعي المتطور” التي طورتها مختبرات غربية رائدة. لكنه أقرّ بأن نموذج R1 الخاص بـ DeepSeek كان “مثيرًا للإعجاب”.

تم تطوير نموذج DeepSeek، الذي يمكن مقارنته بالأنظمة الغربية، مع أجهزة أقل تطوراً بجزء بسيط من التكلفة - مثال على تحسين البرمجيات والهندسة الأكثر ذكاءً. هيمنت الصين على قطاعات مثل السيارات الكهربائية والطاقة الشمسية من خلال التمويل الهائل والبنية التحتية والطلب العام والمنافسة الداخلية الشديدة.

غروك مسك: الجانب المظلم للذكاء الاصطناعي بدون حواجز حماية

بينما تنفذ الصين استراتيجية حوكمة منظمة، كشفت شركة إيلون ماسك غروك ما يحدث عندما تتقدم التكنولوجيا دون حدود أخلاقية أو تنظيمية كافية.

لأسابيع، استجاب Grok لطلبات مثل “@Grok، ألبسها البيكيني” أو “Grok، باعد بين ساقيها”, وقد أدى ذلك إلى نشر صور حسية للنساء والأطفال على وسائل التواصل الاجتماعي. جمعت الباحثة نانا نواتشوكوو، من كلية ترينيتي في دبلن، حوالي 500 تسجيل. حللت دراسة استقصائية أجرتها منظمة AI Forensics الفرنسية حوالي 20,000 صورة بين 25 ديسمبر و1 يناير: 2% كانوا أشخاصاً يبدو أن أعمارهم 18 عاماً أو أقل.

وقد أدى هذا الوضع إلى ردود فعل تنظيمية في المملكة المتحدة والاتحاد الأوروبي والهند وأستراليا، مع تهديدات بفرض غرامات أو حظر. فرضت ماليزيا وإندونيسيا قيودًا على الوصول إلى Grok. أما في البرازيل، فقد مكتب المدعي العام الاتحادي ومكتب المدعي العام الاتحادي والوكالة الوطنية لمكافحة المخدرات أصدروا توصيات رسمية لـ X لمنع استخدام Grok في توليد صور جنسية.

مثل تؤكد الصحفية نينا ليموس“إنه لأمر صادم أنه بالنظر إلى كل الإمكانيات التي يوفرها الذكاء الاصطناعي، فإن الرجال والمراهقين يستخدمونه ‘لتعري’ النساء افتراضيًا، وهو شكل فج من أشكال الاعتداء الجنسي”.”

ويجرم قانون العقوبات البرازيلي (المادة 216-ب) بالفعل إنتاج ونشر المونتاج والصور المتلاعب بها ذات الطابع الجنسي. وإذا كانت الصور تتعلق بأطفال دون الثامنة عشرة، فإن قانون الطفل والمراهق ينص على عقوبة شديدة. لكن التكنولوجيا تقدمت بشكل أسرع من القدرة على الإشراف والإنفاذ.

لماذا حدث هذا؟

صُمم Grok ليكون ذكاءً اصطناعيًا “متمردًا”، لا يرفض الإجابة على ما تنكره الذكاءات الاصطناعية الأخرى. تم تفعيل القدرة على إنشاء مقاطع فيديو صريحة مع الوضع “الحار”. تم دمج Grok في X، وعمل Grok في بيئة تميزت بتفكيك فرق الأمن والإشراف تحت إدارة ماسك.

كما يلاحظ نواتشوكوو: “على الرغم من استخدام أدوات الذكاء الاصطناعي من قبل لإنشاء المواد الإباحية، إلا أن Grok جعل العملية أسهل، حيث لم يكن على المستخدم أن يترك X. وبالإضافة إلى ذلك، بدا أن اقتراح Grok الأولي المتمثل في تقليل التحكم في النظام يبدو أنه يدمج المخاطر كجزء من النظام.”

ادعى ماسك أنه ليس لديه علم بالصور التي تتضمن أطفالاً، وبعد الضغط عليه أعلن عن فرض قيود. لكن الثقة قد انكسرت بالفعل. وكما يخلص نواتشوكوو: “يمكن أن تحدث أشياء أكثر شرًا في المستقبل إذا سمحنا بحدوث ذلك مرة أخرى”.”

البرازيل: ما بين التبني المتسارع وغياب السياسة الصناعية

تمتلك البرازيل أحد أعلى معدلات تجارب الذكاء الاصطناعي في العالم. وفقًا ل استطلاع "حياتنا مع الذكاء الاصطناعي, أجرتها شركة إبسوس بناءً على طلب جوجل, 71% من البالغين المتصلين في البرازيل استخدموا روبوتات الدردشة الآلية القائمة على الذكاء الاصطناعي, أعلى من المتوسط العالمي البالغ 62%.

أصبح الدافع الرئيسي في عام 2025 هو التعلّم (79%)، متجاوزاً الترفيه (74%). بلغ الاستخدام في العمل 75%. يستخدم ثلاثة من كل أربعة مستخدمين برازيليين الذكاء الاصطناعي للمساعدة في المهام المهنية.

لكن مسح نيكزس يكشف عن تفاوتات مثيرة للقلق: يستخدم 401,000,000,000 من جيل Z الذكاء الاصطناعي للتعرف على الموضوعات المعقدة، مقارنة بـ 131,000,000 فقط من جيل طفرة المواليد. ومن بين الأشخاص الحاصلين على تعليم عالٍ، يستخدم 391,000,000,000 شخص هذه الأداة لفهم الموضوعات السياسية أو الاقتصادية أو العلمية، وتنخفض النسبة إلى 201,000,000 بين الحاصلين على تعليم ابتدائي.

في عملي مع الشركات والحكومات، أرى هذا التوتر بشكل يومي: تجارب عالية، لكن الحوكمة منخفضة ولا توجد استراتيجية وطنية منسقة.

كما ورد في المقال في كلمات أخرى“بالنسبة للبرازيل، فإن السؤال المطروح هو ما إذا كانت الدولة على استعداد للاعتراف بأن بناء السيادة التكنولوجية يتطلب سياسة صناعية منسقة واستراتيجية للتوسع والاعتراف بأهمية السرعة.”

ال تحدثت أناتل على مشروع القانون رقم 6.237/2025، الذي ينشئ النظام الوطني لتطوير وتنظيم وحوكمة الذكاء الاصطناعي (SIA). لكن الخطر يكمن في خلق طبقات بيروقراطية دون تسريع القدرة على التنفيذ والابتكار.

التنظيم والتحسين التنظيمي ودور الذكاء الاصطناعي في الحوكمة

هناك جانب لم تتم مناقشته كثيرًا وهو كيف يمكن للذكاء الاصطناعي نفسه دعم اتخاذ القرارات التنظيمية. وفي السياق الذي تؤثر فيه القرارات التنظيمية على الأسواق والحقوق والسياسات العامة، فإن السؤال المحوري لا يتعلق فقط بكيفية أتمتة المهام، بل بكيفية تأهيل الخيارات التنظيمية المعقدة.

لم تعد أدوات مثل جداول الأعمال التنظيمية، والمشاورات العامة وتحليلات الأثر التنظيمي مجرد ممارسات جيدة بل أصبحت متطلبات قانونية. إلا أنها تواجه عقبات متكررة: ضيق الوقت، وندرة البيانات الموثوقة، والتحديات المنهجية، والتشتت التنظيمي، وارتفاع تكاليف التنسيق.

يمكن أن يلعب الذكاء الاصطناعي دوراً مزدوجاً: جعل استخدام أدوات التحسين التنظيمي أكثر قابلية للتطبيق والمساعدة على استخدامها بطريقة جوهرية, وهذا يقلل من حافز الاستخدام الرسمي البحت. يمكن تطبيق تقنيات الذكاء الاصطناعي لتقييم جودة العمليات التنظيمية نفسها، وتحديد الأنماط أو الثغرات التحليلية أو التناقضات المنهجية.

هل يمكن للذكاء الاصطناعي أن يولد معرفة جديدة حقاً؟

يبقى سؤال أساسي: يمكن للذكاء الاصطناعي توليد أفكار جديدة والنهوض بالمعرفة العلمية؟

ادعت شركة Harmonic الناشئة أن تقنيتها للذكاء الاصطناعي، التي تُدعى Aristotle، قد حلت “مشكلة Erdős” بمساعدة GPT-5.2 Pro. سارع علماء الرياضيات والباحثون في مجال الذكاء الاصطناعي إلى الإشارة إلى أن النظام قد حدد الحلول الموجودة المخبأة في عقود من الأوراق الأكاديمية.

قال تيرينس تاو، وهو أستاذ في جامعة كاليفورنيا في لوس أنجلوس ويعتبره الكثيرون أعظم علماء الرياضيات في جيله: “بالنسبة لي، يبدو لي أن الطالب الذكي جدًا الذي حفظ كل شيء للامتحان، لكنه لا يملك فهمًا عميقًا للمفهوم”.”

لكن هذا لا يقلل من قيمة الأداة. وكما تشير الدكتورة دريا أونوتماز، الأستاذة في مختبر جاكسون: “هذا ليس اكتشافًا. إنه اقتراح. لكنه يسمح لك بتضييق نطاق التركيز. فهو يسمح لك بإجراء خمس تجارب بدلاً من 50 تجربة، وهذا له تأثير عميق ومتسارع.”

أصبح الذكاء الاصطناعي أداة بحثية قوية وسريعة التطور. لا تزال هناك حاجة إلى باحث متمرس لتوجيه النظام مرارًا وتكرارًا، وشرح ما يجب البحث عنه وفصل المعلومات المثيرة للاهتمام. وكما يخلص أونوتماز: “ما زلتُ على صلة بالموضوع، وربما أكثر صلة بالموضوع. يجب أن تكون لديك خبرة عميقة جدًا لتقدير ما تقوم به.”

ما الذي تعلمناه من هذه ال 24 ساعة

يكشف التصادم بين استراتيجية الصين $ 98 مليار دولار أمريكي وأزمة غروك الأخلاقية عن ثلاثة دروس عاجلة:

1. الحوكمة ليست اختيارية. تُظهر الصين أن التقدم التكنولوجي يتطلب تنسيقاً وطنياً واستثمارات ضخمة وإرشادات واضحة. تُظهر فوضى Grok ما يحدث عندما يتم إطلاق التكنولوجيا دون وجود حواجز حماية كافية.

2. التطبيق العملي يهزم الوعود الفارغة. تركز الصين على الذكاء الاصطناعي الذي يحل المشاكل الحقيقية - التشخيص الطبي، والمركبات ذاتية القيادة، والكفاءة الصناعية. وفي الوقت نفسه، لا يزال الغرب يناقش الذكاء الاصطناعي والذكاء الاصطناعي الخارق.

3. على البرازيل أن تقرر ماذا تريد أن تكون. لدينا تجربة عالية ولكن لدينا حوكمة منخفضة. نحن بحاجة إلى سياسة صناعية منسقة، وليس مجرد تنظيم بيروقراطي. كيف شركة Dell تبدأ في إنتاج خوادم الذكاء الاصطناعي في البرازيل, الطلب موجود - ولكن استراتيجية قابلية التوسع غير متوفرة.

ثلاثة إجراءات عملية لهذه اللحظة

إذا كنت تقود شركة أو فريقاً أو تريد ببساطة أن تجتاز هذه اللحظة بوضوح، فإليك ثلاث طرق للمضي قدماً:

1. اعتماد الذكاء الاصطناعي مع الحوكمة منذ البداية. لا تنتظر الأزمة. حدّد سياسات واضحة للاستخدام والخصوصية والأخلاقيات قبل توسيع نطاق الاعتماد. في إرشادي، أساعد المديرين التنفيذيين في بناء أطر الحوكمة التي تسرّع الابتكار دون خلق التزامات تنظيمية.

2. التركيز على التطبيق العملي وليس الضجيج. اسأل نفسك: أين يمكن للذكاء الاصطناعي أن يجعل فريقي أكثر كفاءة بمقدار 5 أضعاف؟ أين يمكن أن يوفر الوقت الاستراتيجي؟ في دوراتي الغامرة، نعمل مع حالات حقيقية لشركات استخدمت الذكاء الاصطناعي لتقليل التكاليف وتسريع اتخاذ القرارات وخلق مصادر جديدة للإيرادات.

3. الاستثمار في محو الأمية النقدية للذكاء الاصطناعي. لا يكفي أن تستخدم الأداة، بل يجب أن تفهم حدودها وتحيزاتها ومخاطرها. أنا أعمل مع الشركات والحكومات لإنشاء برامج تدريبية تتجاوز الجانب التشغيلي وتنمي التفكير النقدي حول التكنولوجيا.

السيادة التكنولوجية هي الاختيار

تُظهر لنا الصين أن الريادة في مجال الذكاء الاصطناعي لا تحدث بالصدفة، بل هي نتيجة استراتيجية طويلة الأجل واستثمار منسق وتركيز على التطبيق الحقيقي. يوضح لنا غروك أن التكنولوجيا بدون أخلاقيات وحوكمة تخلق أزمات عالمية.

تقع البرازيل في منتصف الطريق: تبني مرتفع، وحوكمة منخفضة، ولا توجد سياسة صناعية. لدينا فرصة سانحة لتحديد نوع القوة التكنولوجية التي نريد أن نكون عليها.

لا يتعلق الأمر بتقليد الصين أو الولايات المتحدة. بل يتعلق الأمر ببناء نموذج برازيلي - نموذج يقدّر الابتكار، ولكن مع المسؤولية؛ نموذج يسرّع من عملية التبني ولكن مع الإدماج؛ نموذج يخلق الثروة ولكن مع تأثير اجتماعي إيجابي.

من خلال عملي مع الشركات الناشئة والشركات والحكومات، أرى أن القادة الذين يزدهرون في هذا الوقت هم أولئك الذين يفهمون هذا التوتر: التحرك بسرعة، ولكن بهدف؛ والابتكار، ولكن مع الحوكمة؛ واعتماد الذكاء الاصطناعي، ولكن دون فقدان الإنسانية.

إذا كنت ترغب في تسريع عملية تبني الذكاء الاصطناعي في مؤسستك من خلال الاستراتيجية والحوكمة والتأثير الحقيقي، فإن برامجي التوجيهية والدورات التدريبية الغامرة مصممة لتحقيق ذلك - بناء القدرات المؤسسية، وليس فقط تنفيذ الأدوات.

لأن السؤال في النهاية ليس ما إذا كان الذكاء الاصطناعي سيغير كل شيء. السؤال هو: من سيقود هذا التحول - وبأي قيم؟


✨تمت المراجعة بالكامل يمكنك التسجيل من خلال النشرات الصحفية من 10K Digital على بريدك الذكاء الاصطناعي الحديث.

➡️ انضم إلى مجتمع 10K من هنا


منشورات ذات صلة

عرض الكل

عرض الكل