إيتاو تسرّع عملية الترحيل السحابي بمقدار 6 أضعاف باستخدام الذكاء الاصطناعي بينما تواجه شركة ماسك غروك أوامر الحظر - لماذا تكشف هذه الساعات الأربع والعشرون الفرق بين الحوكمة الحقيقية والتكنولوجيا التي لا حدود لها
يناير 17, 2026 | بواسطة ماتوس AI

خلال ال 24 ساعة الماضية، كشف عالم الذكاء الاصطناعي عن نقيضين يحددان اللحظة الراهنة: فمن ناحية، هناك أعلنت Itaú عن تسريع عملية نقل خدماتها إلى السحابة ستة أضعاف باستخدام وكيل Devin للذكاء الاصطناعي، حيث تعمل 75% من الفرق التي تعمل بالفعل بشكل مستقل، ويتم حل 70% من التنبيهات الأمنية تلقائياً. من ناحية أخرى، فإن غروك، أداة إيلون ماسك للذكاء الاصطناعي، تواجه طلبات حظر رسمية في البرازيل لتوليد صور جنسية لقاصرات وبالغات دون موافقتهن، حيث حدد الباحثون ما معدله 6700 مقطع فيديو غير لائق في الساعة الواحدة.
هذه ليست مصادفة. إذ تكشف هذه الأخبار، دون فلترة أو مراجعة، الفرق بين تطبيق الذكاء الاصطناعي بحوكمة متينة وإطلاق التكنولوجيا في السوق دون مسؤولية مؤسسية.
وهذا مهم لأي شخص يعمل مع التكنولوجيا أو يقود فرق العمل أو يتخذ قرارات استراتيجية: إن الطريقة التي تدير بها الذكاء الاصطناعي اليوم تحدد ما إذا كنت ستبني قيمة أو ستزيل الالتزامات غدًا.
انضم إلى مجموعات WhatsApp الخاصة بي! تحديثات يومية بأهم أخبار الذكاء الاصطناعي و المجتمع النشط والمتنوع. *المجموعات باللغة الإنجليزية.*
- الذكاء الاصطناعي للأعمال: التركيز على الجانب التجاري والإستراتيجي.
- بناة الذكاء الاصطناعي: تركيز تقني وعملي.
حالة إيتاو: عندما تصبح الحوكمة ميزة تنافسية
وفقا لتقرير صادر عن منتدى تكنولوجيا المعلومات, بدأ Itaú في استخدام الذكاء الاصطناعي لتطوير البرمجيات بعد أربعة أشهر من إطلاق ChatGPT في عام 2023. وقد أوضح كارلوس إدواردو مازي، كبير مسؤولي التكنولوجيا في البنك، ما يلي: “لقد أدركنا أن البرمجة والهندسة والعمليات ستتغير، وأردنا أن نكون جزءًا من هذا التغيير.”
لكن التنفيذ لم يكن متسرعاً. فقد أنشأ البنك قاعدة حوكمة قوية قبل تطبيق الذكاء الاصطناعي على نطاق واسع:
- طيار حذر بدأت بالتجارب المضبوطة لتدريب ديفين على البروتوكولات الحالية.
- إرشادات صارمة: وضع معايير بشأن التطوير وأفضل الممارسات والبنية لضمان الأمان.
- مقياس تدريجي: فقط بعد التحقق من صحتها، تم توسيع نطاقها إلى 75% من فرق التكنولوجيا بالبنك.
والنتيجة؟ 30% زيادة في حجم التسليمات وتحسين جودة التعليمات البرمجية وتجربة المطورين. لا يكتفي Devin بكتابة واختبار وإصلاح التعليمات البرمجية الجاهزة للإنتاج فحسب، بل يعمل كطبقة معرفية مؤسسية تحافظ على تحديث الوثائق. ومنذ استخدامه، سرّع الوكيل عملية ترحيل الخدمة ستة أضعاف وضاعف تغطية الاختبار (من حوالي 50% إلى أكثر من 90%).
أشار راسل كابلان، رئيس شركة كوغنيشن (الشركة التي أنشأت ديفين)، إلى أن حجم عمليات إيتاو - التي تضم أكثر من 300,000 مستودع أكواد - يتطلب تفانٍ تقني للتعامل مع تعقيد البنية التحتية الحالية.
عزز مازي الرؤية الاستراتيجية: “تتمثل الرؤية في وجود مهندسين بشريين ومهندسي ذكاء اصطناعي يعملون معاً، ولكن النظام البيئي المعقد يتطلب معالجة نقاط الضعف مسبقاً.” يمتلك البنك 70% من خدماته في السحابة العامة، بهدف ترحيل 100% من البنية التحتية بحلول عام 2028. أما الـ 30% المتبقية، والمكونة من التعليمات البرمجية القديمة، فتجعل عملية الدمج أبطأ، ولكنها ليست أقل استراتيجية.
لدى إيتاو حالياً أكثر من 750 مبادرة ذكاء اصطناعي توليدية قيد التشغيل، مع نمو قدره 141% في عدد المبادرات قيد الإنتاج خلال العام الماضي. تشمل الخطوات التالية الوصول إلى 100% من التكامل واستكشاف وظائف ديفين الجديدة.
ماذا يعني هذا؟ أن الذكاء الاصطناعي ليس مجرد أداة للإنتاجية: عندما يتم إدارته بشكل صحيح، فإنه يصبح ميزة تنافسية منهجية. لا يقتصر دور Itaú على تسريع عمليات التسليم. إنها تبني ثقافة الابتكار الآمن والقابل للتطوير والمستدام.
قضية غروك: عندما تتقدم التكنولوجيا دون حواجز حماية
في الطرف الآخر من الطيف، أصبحت أداة Grok - وهي أداة الذكاء الاصطناعي المدمجة في منصة X التابعة لإيلون ماسك (تويتر سابقاً) - واحدة من أكبر الفضائح العالمية في صناعة التكنولوجيا. وفقًا لتقرير صادر عن ينظر, سمحت هذه الميزة، التي أطلق عليها اسم “الوضع الحار”، بإنشاء صور ومقاطع فيديو تعيد إنشاء صور جنسية للفتيات والنساء.
كانت الصحفية سامانثا سميث واحدة من الضحايا، حيث تم تغيير صورتها عدة مرات على شبكة X، وظهرت في لباس البحر بعد أن طُلب من غروك خلع ملابسها. وقد ذكرت أنها شعرت “بتجريدها من إنسانيتها واختزالها إلى صورة نمطية جنسية”. وتعرضت البرازيلية جولي يوكاري، المغنية الرئيسية في فرقة Adaga Exe، للتلاعب بصورها بمناسبة رأس السنة، مما دفعها إلى تقديم بلاغ للشرطة بتهمة “الاغتصاب الإلكتروني” وطلب تعويض.
يلخص ألبرتو ليتي، من مجموعة Grupo FS، ما يلي: “عنف رقمي بجماليات حقيقية.”
حلل الباحثون في شركة AI Forensics أكثر من 20,000 صورة عشوائية تم إنشاؤها بواسطة Grok و50,000 طلب مستخدم بين 25 ديسمبر و1 يناير. والنتيجة؟ انتشار كبير لمصطلحات مثل “خلع الملابس” و“ارتداء البيكيني”، حيث أن أكثر من نصف السجلات تحتوي على أفراد يرتدون الحد الأدنى من الملابس. كشفت دراسة موازية أنه في الفترة بين 5 و6 يناير/كانون الثاني، أنتج Grok ما معدله 6700 منشور غير لائق في الساعة - مقارنة بمتوسط 79 منشورًا من خمسة مواقع منافسة.
في البرازيل، تُظهر بيانات معهد الأمن العام في ريو دي جانيرو أنه بين عامي 2020 و2024، ازدادت سجلات الكشف غير المصرح به عن العلاقة الحميمية الجنسية بمقدار 3001 تيرابايت و3001 تيرابايت. في السنوات الأخيرة، كان 87.8% من ضحايا هذا النوع من الجرائم في الولاية من النساء. في بيلو هوريزونتي، أبلغت سبع عشرة طالبة على الأقل في إحدى المدارس الحكومية عن تلاعب ونشر صور من قبل منظمة العفو الدولية في مجموعات تيليجرام.
كانت التداعيات فورية. في إندونيسيا وماليزيا، تم حظر Grok مؤقتًا. وفي المملكة المتحدة، أعلنت Ofcom عن إجراء تحقيق صارم، مرددًا قرار سلطات الاتحاد الأوروبي. في البرازيل، وفقًا لـ فتات, في 12 يناير، طلب معهد الدفاع عن المستهلكين (Idec) من الحكومة الفيدرالية تعليق الأداة.
قالت جوليا آباد، الباحثة في برنامج الاتصالات والحقوق الرقمية التابع لشركة Idec: “إنه إجراء لمنع المزيد من الأضرار في ظل عدم وجود تشريع محدد.”
ال حزب العمال أرسل خطابًا إلى سيناكون (الأمانة الوطنية للمستهلكين) يطالب فيه بحظر غروك أو حظرها. قدم ستة وثلاثون نائبًا من نواب حزب العمال تمثيلاً إلى مكتب المدعي العام للمقاطعة الفيدرالية يطلبون فيه إجراء تحقيق وتعليق مؤقت لمنظمة العفو الدولية والمساءلة القانونية لـ X. وقالت ماريا دو روزاريو وزيرة حقوق الإنسان السابقة: “إن استخدام الذكاء الاصطناعي لاستغلال الأطفال والمراهقين والنساء جنسيًا هو عمل إجرامي ويجب إيقافه على وجه السرعة.”
تشير باتريشيا بوندر، وهي محامية متخصصة في مجال القانون الجنائي المحلي: “التكنولوجيا جديدة، لكن الجريمة قديمة. لطالما كان انتهاك الصورة والشرف والعنف النفسي موجودًا. ما تغير هو القدرة على إنتاج آلاف الهجمات في دقائق.”
استجابة ماسك ومنطق الربح بدون مسؤولية
رد إيلون ماسك على الاتهامات بالقول إن “إنشاء الصور وتحريرها يقتصر حاليًا على المشتركين الذين يدفعون مقابل الخدمة” وأن “أي شخص يستخدم Grok لإنشاء محتوى غير قانوني أو X لنشر محتوى غير قانوني سيواجه عواقب. تبقى المسؤولية القانونية على عاتق الفرد الذي ينشئ الخدمة ويرفعها.”
العملية الحسابية بسيطة: حواجز أقل تولد المزيد من الوصول والانتشار وحركة البيانات والأرباح.
لكن الخبراء يرون أنه في حين أن معاقبة الفرد الذي يرتكب الانحراف أمر أساسي، لا يمكن إعفاء الشركات من اللوم. وتوافق أندريسا ميشيلوتي، عالمة السياسة، على ذلك: “تنتشر سرعة وإمكانيات الخوارزميات بسرعة فائقة، ولكن التشريعات ليست كذلك.”
وفقًا لتقرير صادر عن موسم الأعمال, حتى بعد الإعلان عن القيود، فإن تمكنت صحيفة الجارديان من إنشاء مقاطع فيديو قصيرة لأشخاص يخلعون ملابسهم إلى ملابس السباحة من صور حقيقية لنساء يرتدين ملابس كاملة. حتى أن النسخة المستقلة من Grok، والمعروفة باسم Grok Imagine، استجابت لأوامر إزالة الملابس رقمياً من صور النساء.
قال بول بوشود، الباحث في قسم الطب الشرعي بالذكاء الاصطناعي، لموقع Wired: “ما زلنا قادرين على توليد صور عري واقعية على Grok.com. نحن قادرون على توليد صور عري بطرق لا يستطيع Grok في البيئة X توليدها.”
قالت ريبيكا هيتشن، رئيسة قسم السياسات والحملات في التحالف من أجل إنهاء العنف ضد المرأة لصحيفة الغارديان: “إن استمرار سهولة الوصول إلى أدوات التعري المتطورة يدل بوضوح على أن X لا تأخذ قضية العنف ضد النساء والفتيات على الإنترنت بالجدية الكافية”.”
وأضافت بيني إيست، المديرة التنفيذية لجمعية فوسيت: “من الصعب تصديق أن xAI وإيلون ماسك لا يستطيعان إيجاد طريقة لمنع نشر هذه الصور من قبل شركة Grok. إن ماسك وصناعة التكنولوجيا ببساطة لا يعطون الأولوية للسلامة أو الكرامة في المنتجات التي يصنعونها.”
مايكروسوفت تواجه أزمة ثقة أيضًا
لا تقتصر المشكلة على غروك. فوفقاً لـ مدونة التكنولوجيا, يتم استخدام كلمة “Microslop” على وسائل التواصل الاجتماعي من قبل أشخاص غير راضين عن تطبيق ميزات الذكاء الاصطناعي في برامج وخدمات مايكروسوفت. وقد تفاقم هذا الاستياء بعد تصريح للرئيس التنفيذي للشركة ساتيا ناديلا، الذي طلب من الناس تجنب التفكير في المحتوى الذي يتم إنشاؤه بالذكاء الاصطناعي على أنه منخفض الجودة، مستخدماً المصطلح الإنجليزي “سلوب” (والذي يمكن ترجمته إلى “إهمال” أو “قمامة”).
تم اختيار مصطلح “سلوب” ككلمة العام 2025 من قبل قاموس Merriam-Webster في سياق المحتوى الرقمي منخفض الجودة الذي تم إنشاؤه بواسطة أدوات الذكاء الاصطناعي التوليدية. وقد أدى الارتباط مع مايكروسوفت إلى ظهور تورية “Microslop” (مايكروسوفت + سلوب) على وسائل التواصل الاجتماعي، وسرعان ما اكتسبت رواجًا كبيرًا كاحتجاج.
أنشأ أحد المطورين إضافة كروم “Microsoft to Microslop” التي تستبدل جميع تكرارات كلمة “Microsoft” بكلمة “Microslop” على صفحات الويب. ويتضمن وصف الإضافة عبارة “تباً لساتيا ناديلا”.
العديد من المستخدمين غير راضين عن استراتيجية مايكروسوفت لدمج برنامج Copilot في مختلف المنتجات، وخاصةً Windows 11، معتقدين أنه يجب على الشركة إعطاء الأولوية للتحسينات في جوانب أخرى من نظام التشغيل. وقد اعترفت شركة Dell مؤخرًا بأن المستهلكين لا يبدون اهتمامًا كبيرًا بما يسمى بأجهزة الكمبيوتر الشخصية التي تعمل بالذكاء الاصطناعي التي تروج لها مايكروسوفت.
إن عدم الرضا الذي يعبر عنه مصطلح “ميكروسلوب” ليس حركة ضد الذكاء الاصطناعي في حد ذاته، ولكن ضد الاستراتيجية الواضحة المتمثلة في فرض اعتماد الذكاء الاصطناعي في المنتجات دون تقديم مقايضات كبيرة للمستخدمين.
عندما يُستخدم الذكاء الاصطناعي لإحداث تأثير حقيقي
بينما تواجه شركتا Grok ومايكروسوفت أزمة ثقة، هناك أمثلة أخرى تُظهر الإمكانات التحويلية للذكاء الاصطناعي عندما تُدار بشكل جيد.
وفقا لتقرير صادر عن TNH1, أثبت باحثون في جامعة ولاية ساو باولو (Unesp) أنه يمكن التنبؤ بتفشي فيروس كورونا المستجد قبل خمسة أسابيع من بدايته، مع الدقة في تحديد شدته وموقعه. استخدمت الدراسة، التي نُشرت في المجلة العلمية BMC Infectious Diseases، تقنية تسمى "الذكاء الاصطناعي القابل للتفسير"، والتي تجعل القرارات مفهومة للناس.
قال والاس كاساكا، الباحث المسؤول: “على عكس الإنفلونزا، ليس لفيروس كوفيد موسمية يمكن التنبؤ بها. فهو يعتمد على ‘المنافسة’ بين المتغيرات. إن فهم هذا ‘الصراع’ بين سلالات كوفيد هو ما يسمح لنا بالتنبؤ بالتفشي التالي في السياق الحالي”.”
أظهر البحث أن تضمين المعلومات الجينومية في نماذج الذكاء الاصطناعي قلل من الخطأ في التنبؤات: في نيويورك، من 321 تيرابايت إلى 71 تيرابايت في المتوسط، وفي المملكة المتحدة، من حوالي 351 تيرابايت إلى 71 تيرابايت. يمكن للذكاء الاصطناعي تحديد اللحظة الدقيقة التي يبدأ فيها المتغير الجديد في طرد المتغير القديم والتسبب في تفشي المرض من جديد.
مثال آخر يأتي من سيارا. وفقًا ل جي1, فاز راؤول فيكتور ماغالهايس سوزا، البالغ من العمر 16 عامًا، بجائزة العالم الشاب لعام 2025 بمشروع يجمع بين التكنولوجيا والمعرفة التقليدية. استوحى راؤول مشروعه من القصص التي كان جده يرويها عن “أنبياء المطر” - وهم أشخاص من الريف يستخدمون مراقبة الطبيعة للتنبؤ بالطقس - وأنشأ راؤول منصة تجمع بين تحليلات المزارعين للطبيعة ومعلومات الأرصاد الجوية الرسمية.
تم بناء هذا النظام، المسمى الذكاء الاصطناعي لأنبياء المطر، باستخدام تقنية التعلم الآلي وحقق دقة 94.51 تيرابايت في التنبؤات المناخية في سيارا. تعمل المنصة على تيسير وتوسيع نطاق الوصول إلى أدوات الأرصاد الجوية والأمطار، مما يساعد المزارعين المحليين في الإنتاجية الزراعية وإعدادهم مسبقًا لحصاد جيد.
يعرف راؤول، الذي يوشك على بدء السنة الثالثة من المرحلة الثانوية، مدى أهمية الأبحاث التي من هذا القبيل في مكافحة أزمة المناخ. في سيارا، على مدى 63 عامًا (من 1961 إلى 2023)، ارتفعت درجة الحرارة في سيارا بمقدار 1.8 درجة مئوية. يقول “أؤمن بأن العلم إرث يجب ألا يتوقف عن النمو أبدًا. وأعتقد أنه من الممكن تحويل عالمنا إلى عالم متوازن ومستدام.”
ماذا يعني ذلك بالنسبة لصناع القرار في مجال الذكاء الاصطناعي
إن التناقض بين إيتاو وجروك ومايكروسوفت ليس من قبيل الصدفة. فهو يكشف ثلاث حقائق حول تطبيق الذكاء الاصطناعي:
- الحوكمة ليست بيروقراطية: هو الفرق بين خلق قيمة مستدامة وتحمل المسؤوليات القانونية والأخلاقية والمتعلقة بالسمعة.
- غياب الحدود يولد الأزمات: عندما تتقدم التكنولوجيا دون مسؤولية مؤسسية، تكون التكلفة الاجتماعية فورية والضرر طويل الأمد.
- يأتي التأثير الحقيقي من النية: يمكن للذكاء الاصطناعي المحكوم بشكل جيد أن يتنبأ بتفشي جائحة كوفيد-19، ويحمي المزارعين من الجفاف، ويسرّع من عمليات ترحيل البنية التحتية الحيوية.
صرح توني روبنز، رجل الأعمال الذي يقف وراء إمبراطورية تبلغ قيمتها 6 مليارات دولار أمريكي، مؤخرًا في بودكاست جاي شيتي إن إتقان المعايير - تحديد المعايير واستخدامها وإنشائها - هو السبيل الوحيد لتجنب أن تصبح متقادمة في السنوات الخمس المقبلة. وفقا لتقرير صادر عن Hardware.com.br, يدعو روبينز إلى ثلاث مهارات أساسية:
- التعرف على الأنماط: تعلم التعرف على الأنماط التاريخية للحد من الخوف الذي يصيبك بالشلل.
- إتقان استخدام المعايير: تطبيق أنماط النجاح التي تمت ملاحظتها في سياقات أخرى، ونمذجة السلوكيات التي نجحت بالفعل.
- إنشاء معايير جديدة: ابتكار معاييرهم الخاصة لقيادة الأسواق الناشئة.
يتعارض هذا الاقتراح مع الخطاب العام “التكيف أو الموت”. فهو يدعو إلى اتخاذ موقف قائم على تعلم كيفية التعلم من خلال مراقبة ما نجح وتطبيقه بذكاء والابتكار في نهاية المطاف.
الحاجة الملحة للتنظيم ومسؤولية الشركات
وفي البرازيل، ينظر مجلس النواب في البرازيل في مشروع قانون لتنظيم استخدام الذكاء الاصطناعي. وقد سلطت ماريا دو روزاريو الضوء على “قانون ”قانون مكافحة الجرائم الإلكترونية الرقمية" (القانون 15.211/2025)، الذي يفرض واجبات المنع والإزالة والمساءلة على منصات وأنظمة التكنولوجيا عن المحتوى الذي ينتهك حقوق الأشخاص المستضعفين. ودافعت عن تنظيم شركات التكنولوجيا الكبرى في الكونجرس، التي تعمل كجماعة ضغط لإضعاف الترتيبات التنظيمية الحمائية.
تشير باتريشيا بوندر إلى أن “التكنولوجيا جديدة، ولكن الجريمة قديمة. ما تغير هو القدرة على إنتاج آلاف الهجمات في دقائق.”
تلاحظ أندريسا ميشيلوتي “تنتشر سرعة وإمكانيات الخوارزميات بسرعة فائقة، ولكن التشريعات ليست كذلك.”
لا تكمن الحاجة الملحة في وضع القوانين فحسب، بل في بناء ثقافة مسؤولية الشركات. فالشركات التي تتعامل مع الذكاء الاصطناعي كأداة للربح غير المحدود ستواجه أزمات لا رجعة فيها. أما الشركات التي تتعامل مع الذكاء الاصطناعي كرافعة استراتيجية تحكمها النية الواضحة والمبادئ الأخلاقية فستبني مزايا تنافسية دائمة.
خاتمة: الفرق بين الريادة والإهمال
لقد كشفت هذه الـ 24 ساعة ما يفضل الكثيرون تجاهله: الذكاء الاصطناعي ليس محايدًا. فهو يضخم النية (أو عدمها) لدى أولئك الذين يشغلونه.
وأثبتت إيتاو أنه من الممكن تسريع التحولات الحاسمة من خلال الحوكمة الراسخة، وتوليد قيمة قابلة للقياس ومستدامة. وقد أثبت باحثون من Unesp وعلماء شباب مثل راؤول فيكتور أن الذكاء الاصطناعي قادر على إنقاذ الأرواح وحماية المجتمعات وتعزيز الثقافات التقليدية.
وفي الطرف الآخر، تكشف شركتا Grok ومايكروسوفت ما يحدث عندما تتقدم التكنولوجيا دون حدود: أزمات قانونية وسمعة وأخلاقية تدمر ثقة الجمهور وتعرض الفئات الضعيفة من السكان للخطر.
السؤال ليس ما إذا كان الذكاء الاصطناعي سيغير شركتك أو قطاعك أو حياتك. السؤال هو: هل تبني مع الحكم أم تراكم الالتزامات؟
إذا كنت تقود شركة أو فريق عمل أو تتخذ قرارات استراتيجية بشأن التكنولوجيا، فعليك أن تسأل نفسك ثلاثة أسئلة الآن:
- ما هي الحواجز الوقائية التي وضعتها قبل إطلاق الذكاء الاصطناعي لفرقك أو عملائك؟
- ما هي التكلفة الحقيقية (القانونية والسمعة والأخلاقية) للتنفيذ دون مسؤولية؟
- كيف تدمج القصد الأخلاقي في استراتيجيتك للذكاء الاصطناعي؟
تحدد الإجابة على هذه الأسئلة ما إذا كنت تقود أو تهمل.
في عملي مع الشركات والحكومات, أنا أساعد القادة على بناء استراتيجيات الذكاء الاصطناعي التي توازن بين الابتكار والحوكمة، وتسريع التحولات دون تراكم الالتزامات. إذا كنت ترغب في فهم كيفية تطبيق الذكاء الاصطناعي بطريقة آمنة وقابلة للتطوير ومستدامة - خلق قيمة حقيقية بدلاً من الأزمات المستقبلية - تواصل معي. في برامجي التوجيهية واستشاراتي الغامرة نعمل معاً لترجمة هذه التوترات إلى قرارات استراتيجية واضحة.
لأن الذكاء الاصطناعي لا ينتظر. ويكمن الفرق بين القيادة والإهمال في الخيارات التي تتخذها الآن.
✨تمت المراجعة بالكامل يمكنك التسجيل من خلال النشرات الصحفية من 10K Digital على بريدك الذكاء الاصطناعي الحديث.
منشورات ذات صلة
عرض الكل
