أثير - ريما الشيخ
شهدت جلسة “التكنولوجيا والابتكار في التحكيم: الفرص والتحديات” استعراضًا للقضايا الأخلاقية المرتبطة باستخدام الذكاء الاصطناعي والتقنية وفي التحكيم والوساطة، بدءًا من مسائل السرية والتحيز، وصولا إلى الشفافية والمساءلة، والتعامل مع القرارات التعسفية ضمن إجراءات التحكيم.

جاء ذلك خلال مؤتمر أيام مسقط للتحكيم 2025 الذي نظمه مركز عُمان للتحكيم التجاري، تحت رعاية معالي عبدالسلام بن محمد المرشدي رئيس جهاز الاستثمار العُماني، وبمشاركة واسعة من الخبراء الدوليين وقيادات مراكز التحكيم من مختلف دول العالم.

وقد تطرقت الجلسة إلى نقاشات معمقة حول التحولات التقنية التي باتت تفرض نفسها على بيئة التحكيم القانوني، حيث أكد المتحدثون أن الذكاء الاصطناعي أصبح عنصرًا أساسيًا في أنظمة العمل القانوني، لما يتيحه من قدرات واسعة في تسريع تحليل الوثائق، وإدارة البيانات الضخمة، وتقليل الأخطاء البشرية التي قد تؤثر في دقة القرارات.

وأشار المتحدثون إلى أن أحد الأسئلة الجوهرية التي يطرحها الأطراف قبل الدخول في أي عملية تحكيمية هو مستوى الثقة في النظام، خصوصًا فيما يتعلق بالسرية وحماية البيانات الحسّاسة، كما أن إدخال المعلومات إلى منصات خارجية قد يعرضها لتهديدات قانونية أو تقنية، خصوصا عندما تخزن على خوادم في دول تختلف قوانين حماية البيانات فيها.
كما أوضح المتحدثون أن الانحياز الخوارزمي يمثل تحديًا حقيقيًا؛ إذ تعتمد أنظمة الذكاء الاصطناعي على بيانات تدريب قد لا تعكس تنوع الحالات الواقعية، ما يتطلب بناء نماذج مخصصة تلائم طبيعة كل نزاع، خاصة في المجالات المتخصصة كالنقل البحري والطاقة والبناء.
وفي جانب آخر، أفاد المتحدثون بأن السرعة الهائلة التي يتطور بها الذكاء الاصطناعي ستفرض على المجتمع القانوني التكيف بسرعة أكبر، مؤكدين أن الدول التي تتأخر في إدماج التقنيات الحديثة ستواجه فجوة يصعب تجاوزها لاحقًا، وأن مكاتب المحاماة عالميًا بدأت بالفعل بتوظيف فرق تقنية مخصصة لإدارة أدوات الذكاء الاصطناعي، نظرًا لدورها في تعزيز القدرة على التحليل واتخاذ القرار.

كما أضاف المتحدثون أن اعتماد الذكاء الاصطناعي في صناعة القرار التحكيمي يجب أن يظل محكومًا بضوابط واضحة، مشددين على أن دور الذكاء الاصطناعي مساعد وليس بديلا عن المحكم، وأكدوا ضرورة بقاء القرار النهائي في يد الإنسان، مع مساءلة المحكم عن أي خطأ قد ينتج عن الاعتماد غير المدروس على التقنية.
وطرحت الجلسة إلى إشكاليات تتعلق بالأطر التنظيمية، حيث أشار المتحدثون إلى أن المؤسسات التحكيمية العالمية ما تزال في مراحل أولية من وضع قواعد صريحة بشأن استخدام الذكاء الاصطناعي.
وذكر المتحدثون أن الإرشادات الحالية تأتي بصياغات عامة مثل “يجوز” و“قد” دون أن تتضمن التزامات واضحة، ما يستوجب تطوير ضوابط أكثر صرامة تحدد متى وكيف يتم الإفصاح عن استخدام الذكاء الاصطناعي في الإجراءات.
كما استعرض المشاركون تجارب بعض المؤسسات التي بدأت بوضع مسارات أوضح، ومنها الدعوة إلى تناول موضوع الذكاء الاصطناعي في أول جلسة لإدارة القضية (CMC)، وتضمين بنود خاصة في الأمر الإجرائي الأول، لضمان اتفاق مبكر على الحدود والضوابط التي تحكم استخدام التقنية خلال سير الدعوى.

وتطرق المتحدثون إلى مخاطر فقدان السرية، مؤكدين أن بعض منصات الذكاء الاصطناعي قد تخزن البيانات على خوادم خارجية تخضع لقوانين مختلفة، ما قد يعرّض البيانات الحساسة للمصادرة أو للوصول غير المصرح به من جهات أخرى، كما أن فقدان السرية قد يقوّض الثقة في العملية التحكيمية برمتها، وهو ما يتطلب حلولًا أكثر صرامة في الأمن السيبراني، واستخدام أنظمة داخلية مغلقة تضمن التحكم الكامل بالبيانات.
وفي ختام الجلسة، شدد المتحدثون على أن السنوات المقبلة ستشهد حتمًا وضع أطر قانونية أكثر وضوحًا، سواء من خلال المعايير الدولية أو عبر مبادرات تقودها مراكز التحكيم الإقليمية، لتعزيز الشفافية وضمان تطوير منظومة تحكيم متوازنة تجمع بين الابتكار والحماية.

