يفتح الذكاء الاصطناعي إمكانيات لا حصر لها. بالنسبة لفرق الموارد البشرية، يمكن أن يبسط ذلك الامتثال العالمي. ولكن خطوة واحدة خاطئة، ويمكنك أن تجد نفسك في نزاعات قانونية وسمعة سيئة.
يتجه قادة تكنولوجيا المعلومات في كل مكان إلى توسيع نطاقهم ومعالجة اعتماد الذكاء الاصطناعي. في ندوة حديثة عبر الإنترنت، شاركت ماريا ليز، المدير الأول لتكنولوجيا المعلومات في G-P، كيف يمكن لفرق الموارد البشرية دمج الذكاء الاصطناعي وتخفيف المخاوف بشأن أمن البيانات والتحيز والخصوصية.
انضم ليس إلى G-P في عام 2023، وفي الوقت الذي بدأنا فيه بناء وكيل الموارد البشرية العالمي المدعوم بالذكاء الاصطناعي، G-P Gia™. Gia هو الذكاء الاصطناعي الوكيل للموارد البشرية الذي يمكنه خفض تكلفة ووقت الامتثال بنسبة تصل إلى 95%. لذلك تعرف لي شيئًا أو شيئين عن اعتماد الذكاء الاصطناعي، وهو ما تلخصه إلى شيء واحد حاسم: نزاهة البيانات.
يقول لي: "لا يمكنك القفز إلى الخطوات الأساسية". "يتمثل جزء من دورنا كقادة لتكنولوجيا المعلومات في مساعدة القيادة على فهم هذه الرحلة. قد يطلب القائد أداة ذكاء اصطناعي وكيلية يمكنها اتخاذ قرارات معقدة بمفردها، وعلى الرغم من أن هذا هدف كبير وأنا أحبه، إلا أنه ليس بالضرورة أن يكون الوصول إلى هناك أمرًا واقعيًا دون هذا الأساس أولاً. ولبناء هذا الأساس، تتمثل الخطوة الأولى في بناء الثقة في بياناتك، وتكون بياناتك بنفس جودة المعلومات التي تغذيها. لذلك إذا كان منعزلًا، فهو غير دقيق، أو فوضوي - أي شيء تبنيه فوق ذلك سيكون معيبًا تمامًا."
الثقة الهندسية: سد الفجوة بنسبة 3%
يؤمن لي إيمانًا راسخًا "بالثقة من خلال الشفافية". في عصر الذكاء الاصطناعي، يجب أن ترتكز الشركات على هذا الشعار وأن تكون على استعداد لإظهار المصادر وشرح "السبب" وراء أي توصية بالذكاء الاصطناعي. هذا هو أساس مصداقية المنتج وثقة المستخدم.
ويوضح ليس قائلاً: "الثقة والشفافية أمران تولينا اهتمامًا كبيرًا عندما بنينا الذكاء الاصطناعي الخاص بنا". "كنا نعلم أنه لكي يثق أي شخص في إجابات Gia، يجب أن يثق في أساسها. وهو مبني على الكثير من الخبرة، عقد من الخبرة العالمية الخاصة بـ G-P. لم تكن معرفتها عشوائية. وهو يتضمن مليون سيناريو من واقع الحياة وأكثر من 100,000 مقالة وبيانات تم فحصها قانونًا من أكثر من 1,500 مصدر حكومي."
عندما يطرح المستخدمون على Gia سؤالاً، يكون الناتج دائمًا مصحوبًا بمصادر G-P منها، مما يعني أن خبراء G-P قد تحققوا من صحة المعلومات. Gia صُمم بدقة لا مثيل لها، والمنتج النهائي هو الذكاء الاصطناعي المعلق ببراءة اختراع إلى جانب نموذج RAG مسجل الملكية الذي يحقق نتائج أفضل 10 مرات من معيار صناعة الذكاء الاصطناعي.
على الرغم من التطورات الواضحة في الذكاء الاصطناعي، لا يزال اكتساب الثقة على مستوى الشركة في الأدوات يمثل تحديًا مستمرًا للعديد من قادة تقنية المعلومات. كشف تقرير 2025 World at Work أن 3% فقط من المسؤولين التنفيذيين سيثقون في الذكاء الاصطناعي لاتخاذ أي قرار. تحتاج أقسام تكنولوجيا المعلومات إلى مساعدة القادة على الشعور بالراحة في تبني تقنيات الذكاء الاصطناعي.
بكلمات لي: "إن 3% تعني حقًا، وهذا منطقي تمامًا الآن. هناك الكثير من المجهول. وهناك نقص في المعرفة والفهم، والجميع في سباق للوصول إلى مكان ما. لكنه يسلط الضوء على فجوة الثقة الطبيعية. ويُظهر أن التحدي الذي نواجهه كقادة لا يتعلق فقط بتنفيذ التكنولوجيا، بل يتعلق أيضًا ببناء الثقة فيها. لذا نصيحتي هي أن أفكر في الأمر كعضو جديد وذكي للغاية في الفريق. يجب عليك بناء الثقة بشكل متزايد."
إطار عمل التحقق من صحة الإنسان داخل الحلقة
لا يتم إنشاء جميع أدوات الذكاء الاصطناعي بالتساوي. ولا يمكن للجميع بناء حلولهم الخاصة، لذلك تحتاج الشركات إلى عملية تدقيق قوية لأدوات الطرف الثالث. إذن، كيف يمكن لفرق تكنولوجيا المعلومات تقييم أدوات الذكاء الاصطناعي قبل طرحها؟ يقول لي: "يصل هذا السؤال حقًا إلى جوهر فلسفتنا هنا في G-P".
تستخدم ليز علاقتها العملية مع كوني دياز، المدير الأول للموارد البشرية في G-P ، لعرض كيفية تقديم فرق تكنولوجيا المعلومات لتكنولوجيا الذكاء الاصطناعي الجديدة لشركتهم. "لذا عندما يرغب أي فريق، وخاصة الموارد البشرية، في تبني أداة جديدة، فإن دور فريقي في [تكنولوجيا المعلومات] لا يتمثل في أن يكون ولي الأمر في نهاية العملية. من الأفضل أن تكون شريكًا استراتيجيًا منذ البداية. إنه تعاون حقيقي متعدد الوظائف ننفذه."
تتبع تكنولوجيا المعلومات نهجًا بشريًا في الحلقة للتحقق من صحة كل أداة، حيث تضمن الخبرة متعددة الوظائف الامتثال والثقة. يقوم الفريق الفني بتقييم التوافق مع المعايير الهندسية، وتحليل تكنولوجيا المعلومات للمخاطر الأمنية، والمراجعات القانونية للامتثال العالمي، ويضمن مجلس الذكاء الاصطناعي مواءمة الحوكمة، ويقدم قسم الموارد البشرية الحالة التجارية والأخلاقية المهمة.
يوافق دياز قائلاً: "إن النظر إلى هذا الأمر على أنه جهد مشترك يساعد في بناء أساس الثقة". "لذلك، كصاحب عمل أو كمسؤول تنفيذي، فإن أداة الذكاء الاصطناعي مثل Gia ليست مجرد صندوق أسود، بل هي أداة يشرف عليها كل من خبراء الموارد البشرية وتكنولوجيا المعلومات بفعالية وشفافية. من المرجح أن يثق الناس في المخرجات التي يحصلون عليها".
تضمن الموارد البشرية استخدام الأداة بشكل أخلاقي وعادل، بينما تمنح تكنولوجيا المعلومات الثقة بأنها آمنة ومتوافقة. إنها مسؤولية مشتركة تُظهر الالتزام تجاه كل من الأشخاص ونزاهة البيانات.
ابدأ بمصدر بيانات نظيف
يمكن أن يستغرق الجدول الزمني لطرح أداة الذكاء الاصطناعي الجديدة من أسابيع إلى أشهر. يعتمد ذلك على ما إذا كانت لديك بيانات جاهزة على الفور للاستخدام في نموذج الذكاء الاصطناعي أو أن بياناتك غير كاملة ومخزنة في تنسيقات غير متوافقة والتي ستحتاج تكنولوجيا المعلومات إلى استخراجها. توصي Lees بالبدء بصغر الحجم. "لا تحاول غلي المحيط. ما عليك سوى اختيار مكان واحد يمكنك التعامل معه وتحقيق ربح سريع من ذلك. ابدأ في بناء زخمك من هناك".
تدور الأسئلة الكبيرة بشكل عام حول خصوصية البيانات.
أولاً: هل يمكن استخدام بيانات الشركة لتدريب نموذج الذكاء الاصطناعي؟
ثانيًا: كيف يمكن لقسم تكنولوجيا المعلومات وضع ضوابط وصول صارمة بحيث يرى الأشخاص المناسبون فقط المعلومات الصحيحة؟
"نظرًا لأننا نعالج جميع هذه المشكلات الحرجة بشكل جماعي ومقدم، فإن المحادثة لا تتعلق بإدراج المشكلات. الأمر يتعلق بإيجاد الحلول الفعلية". "عندما نتبع هذه العملية، يكون ذلك مربحًا للجميع. يمكننا أن نعتمد بثقة أداة الذكاء الاصطناعي التي ستساعد الشركة... إنها عملية قد ينظر إليها المرء على أنها عائق، ولكننا حولنا ذلك إلى شراكة قوية للتأكد من أننا نحمي G-P وبياناتنا."
تكنولوجيا المعلومات والموارد البشرية: الشركاء في جاهزية البيانات
وبالنسبة للفرق التي بدأت رحلتها في الذكاء الاصطناعي، أكد لي على أهمية الإعداد. سيؤدي اختيار نموذج الذكاء الاصطناعي على البيانات غير المكتملة إلى مخرجات سيئة تضر بالثقة التي تحاول بناءها في مؤسستك. نصيحة لي هي أنه قبل أن يختار الفريق أداة، يجب أن يكون أساس البيانات هو نقطة التفتيش الأولى. وهنا تصبح الشراكة الوثيقة بين الموارد البشرية وتكنولوجيا المعلومات مهمة للغاية.
أولاً، يمكن لقسم تكنولوجيا المعلومات مساعدة الموارد البشرية عن طريق تنظيف البيانات ومركزتها. وهذا يعني دمج المعلومات من أنظمة مختلفة، مثل الرواتب والمزايا ومراجعات الأداء، في مصدر واحد. بعد ذلك، يمكن لتكنولوجيا المعلومات مساعدة الموارد البشرية على وضع حوكمة للبيانات ووضع ضوابط وصول قوية لحماية معلومات الموظفين الحساسة.
يُعد وضع قواعد واضحة لكيفية جمع البيانات واستخدامها أمرًا بالغ الأهمية للدقة والخصوصية.
خفض تكاليف ووقت الامتثال بنسبة تصل إلى 95% مع Gia
لا تدع عقبات الامتثال تبطئ من عمل فريق الموارد البشرية. يمكن لأداة الذكاء الاصطناعي التي يتم فحصها من قِبل الخبراء تسريع الزخم وتلبية المعايير العالية لفريق تكنولوجيا المعلومات لديك فيما يتعلق بأمن البيانات والشفافية الأخلاقية والامتثال الذي يمكن التحقق منه. Gia هي تلك الأداة.
Gia تم الاعتراف به كأحد أفضل منتجات الموارد البشرية لعام 2025 من قِبل مسؤول الموارد البشرية التنفيذي. إنه الذكاء الاصطناعي الوكيلي المصمم لتبسيط الموارد البشرية العالمية من خلال الإجابة عن أصعب أسئلة الامتثال عبر 50 دولة وجميع الولايات الأمريكية الـ 50 .
لا توجد عقبات أخرى أمام المستشار القانوني أو ساعات مكلفة واجبة الدفع. مع Gia، أصبح الامتثال العالمي سهلاً. هل ترغب في تبسيط الموارد البشرية العالمية من خلال إرشادات تم فحصها من قبل خبراء يمكنك الوثوق بها؟ سجّل اليوم للحصول على نسخة تجريبية مجانية.
لمعرفة المزيد من ماريا ليز حول كيفية تعاون تكنولوجيا المعلومات بنجاح مع الموارد البشرية، شاهد مناقشتها الكاملة مع زميلها كوني دياز.








