كيف تتحقق من الإجراءات لاستخدام الذكاء الاصطناعي داخل المنشآت بتصور اداري ومالي

لم يعد الذكاء الاصطناعي في بيئات الأعمال سؤالًا من نوع “هل نستخدمه؟” بل أصبح “كيف نحكمه؟”. ففي المالية والإدارة، لا تأتي القيمة من الأداة وحدها، بل من بناء ضوابط تشغيلية تحوّل الاستخدام إلى ممارسة قابلة للتدقيق، وتحمي البيانات، وتُبقي المسؤولية المهنية بيد الإنسان.

يمكن للمنشأة اعتماد هذا الإطار كمرحلة أولى، ثم تطويره لاحقًا إلى سياسات تفصيلية ونماذج تشغيل (Operating Model) متكاملة. في هذا المقال نضع إطارًا عمليًا يتضمن:

  • إجراءات معيارية (SOPs)
  • سجلات أدلة (Evidence Logs)

لماذا تحتاج المنشآت إلى إجراءات لاستخدام الذكاء الاصطناعي؟

في البيئات المالية والإدارية، قد يؤثر أي مخرج ناتج عن الذكاء الاصطناعي على:

  • قرارات مالية: الميزانيات، التوقعات، السيولة، التسعير، والمخصصات.
  • الامتثال: الضرائب والزكاة، الإفصاحات، العقود، والمشتريات.
  • الضوابط الداخلية: فصل المهام، الصلاحيات، والموافقات.

من دون إجراءات واضحة، يُعد استخدام الذكاء الاصطناعي بمثابة إدخال طرف جديد في سلسلة اتخاذ القرار دون تحديد مسؤولياته وحدوده وآلية مراجعة أثره لاحقًا.

نموذج الحوكمة: من يملك القرار؟

ابدأ بتحديد أدوار واضحة:

  • الراعي التنفيذي: المدير المالي (CFO) أو مدير العمليات (COO) بحسب من يقود التحول.
  • مالك السياسة: المالية + الالتزام + أمن المعلومات (ملكية مشتركة).
  • لجنة إشراف خفيفة: مالية + تقنية + أمن معلومات + مراجعة داخلية (تجتمع شهريًا في أول 3 أشهر ثم ربع سنويًا).
  • المراجعة الداخلية: تختبر الالتزام بالإجراءات وتقيم كفاية الأدلة والضوابط.

قاعدة حاسمة: الأداة لا تعتمد أي مخرج، ولا يصبح الناتج قابلًا للاستخدام إلا بعد اعتماد بشري محدد بالاسم أو الدور.

تصنيف حالات الاستخدام (Use Cases)

تقسيم الاستخدامات إلى ثلاث فئات ضروري لأن الضوابط تختلف جذريًا:

1) استخدام إداري منخفض المخاطر

 مثل: تلخيص بريد إلكتروني، صياغة إعلان داخلي، تنظيم اجتماع، أو إعداد مسودة سياسة عامة.

  • الضوابط: مراجعة بشرية وعدم إدخال بيانات حساسة.
2) استخدام تشغيلي متوسط المخاطر

مثل: تحليل مصروفات غير حساسة، استخراج اتجاهات من بيانات منزوعة الهوية، إعداد مسودات إجراءات.

  • الضوابط: سياسة بيانات، صلاحيات واضحة، اختبار جودة، وتوثيق مختصر.
3) استخدام مالي/حوكمي عالي المخاطر

مثل: التقارير المالية، التوقعات الرسمية، القرارات الجوهرية، مذكرات لجان المراجعة، أو دعم أعمال التدقيق.

  • الضوابط: توثيق كامل، سجل أدلة، مراجعة بشرية إلزامية، تحقق مستقل، وموافقة مسبقة على نوع الاستخدام.

هذا التصنيف وحده يرفع مستوى النقاش من “تجربة أداة” إلى “حوكمة مخاطر”.

سياسة البيانات: ماذا يُمنع إدخاله؟

المشكلة الأساسية ليست في المخرجات، بل في المدخلات. لذلك تُبنى السياسة على القواعد التالية:

  • البيانات العامة: مسموحة.
  • البيانات الداخلية: مسموحة بشروط.
  • البيانات السرية أو الحساسة: ممنوعة في الأدوات العامة، ومقيدة جدًا حتى في الأدوات المؤسسية.
  • البيانات المالية غير المعلنة، معلومات العملاء، الرواتب، الحسابات البنكية، والعقود الحساسة: ممنوعة افتراضيًا.

قواعد تنفيذية:

  1. أي استثناء يتطلب موافقة أمن المعلومات ومالك العملية.
  2. استخدام البيانات الحساسة يستلزم أداة مؤسسية بصلاحيات وضوابط وصول محددة.

توثيق الأدلة: Evidence Pack

في الإدارة والمالية، المطلوب ليس نصًا جيدًا بل قابلية تفسير القرار لاحقًا. لذلك تُنشأ حزمة أدلة بسيطة تشمل:

  • الغرض: لماذا استُخدم الذكاء الاصطناعي؟
  • نطاق البيانات: نوع البيانات دون تفاصيل حساسة.
  • الخطوات: كيف تم الوصول إلى المخرج؟ (بشكل مختصر).
  • المخرج النهائي المستخدم فعليًا.
  • المراجعة البشرية: من راجع؟ ماذا عُدِّل؟ ولماذا؟
  • التحقق المستقل: في القرارات عالية المخاطر، ما المصدر البديل للتحقق؟

ضوابط التشغيل اليومية (Day‑2 Operations)

لضمان الاستمرارية والانضباط:

  • سجل مركزي للأدوات المعتمدة (Approved Tools Register).
  • سجل لحالات الاستخدام المعتمدة (Approved Use Cases).
  • نموذج طلب حالة استخدام جديدة مع تقييم مخاطر مختصر.
  • مراجعة عيّنية شهرية لجودة المخرجات (Quality Sampling).
  • إجراء إيقاف فوري للاستخدام عند ظهور مخاطر أو تسريب بيانات (Kill Switch).

مؤشرات الأداء والمخاطر (KPIs / KRIs)

بدلًا من قياس عدد المستخدمين، ركّز على مؤشرات الحوكمة:

  • نسبة الاستخدامات الموثقة بالكامل.
  • نسبة المخرجات التي رفضتها المراجعة البشرية.
  • عدد حوادث إدخال بيانات غير مصرح بها.
  • متوسط زمن إنجاز العملية قبل وبعد الاستخدام، بشرط عدم ارتفاع الأخطاء.
  • عدد حالات الاستخدام عالية المخاطر دون موافقة مسبقة (يجب أن تكون صفرًا).

فصل المهام ومنع تضارب المصالح (SoD)

في العمليات المالية لا يجوز أن يُنتج الذكاء الاصطناعي نتيجة ويعتمدها الشخص نفسه.

  • المنتج (Producer) ≠ المعتمد (Approver).
  • أي استخدام في التقارير العليا يخضع لاعتماد مدير أو لجنة وفق مصفوفة الصلاحيات.

من أين تبدأ المنشأة خلال 30 يومًا؟

خطة تنفيذية مختصرة:

  1. الأسبوع الأول: اعتماد التصنيف (3 فئات) وسياسة بيانات من صفحة واحدة.
  2. الأسبوع الثاني: تحديد الأدوات المسموحة، إنشاء سجل الأدوات، ونموذج طلب استخدام جديد.
  3. الأسبوع الثالث: إطلاق سجل الأدلة (Evidence Log) وتطبيقه على 5 حالات استخدام فعلية.
  4. الأسبوع الرابع: إعداد لوحة مؤشرات شهرية (4–6 مؤشرات) وتنفيذ أول مراجعة عيّنية للجودة.

خلال شهر واحد، تنتقل المنشأة من استخدام عشوائي للذكاء الاصطناعي إلى حوكمة تشغيلية قابلة للتدقيق والدفاع.