في أواخر ديسمبر، عقد نقابة محامي باريس شراكة مع شركة Mistral AI لإتاحة أدوات الذكاء الاصطناعي مجاناً لبعض المكاتب. المبادرة تعكس اندفاعاً واسعاً لاعتماد التقنيات في العمل القانوني، لكنها تعيد فتح الأسئلة الأساسية حول فلسفة الحق وكيف تُصنع العدالة ومبادئ المحاكمة العادلة والبعد الإنساني للحكم.
المسؤولية القضائية، كما تؤكد قاضية محكمة النقض الفرنسية ساندرين زيانتارا-لوغيه من محكمة النقض، لا يمكن تفويضها لآلة. القانون الأوروبي والفرنسي يمنعان الأتمتة الكاملة للقرار القضائي؛ ثم إن حدود التقنية الحالية تجعل الاستبدال غير واقعي. الأهم أن الأخلاق القانونية تفترض علاقة حية بين القاضي والمتقاضين، وتفترض قدرة على وزن القيم وإجراء رقابة التناسب والاعتداد بالسياق الاجتماعي والاقتصادي، وهي عناصر لا تختزل في حساب احتمالي.
الذكاء الاصطناعي في المحاكم اليوم هو طيف من الأدوات: مساعدة على الصياغة، إخفاء الهوية في قرارات العدالة، تحليل النزاعات، والتنقيب في السوابق. كما تشرح الباحثة كاميل جيرار-شانوديه من مركز نورتبر إلياس، هذه الأدوات تُبنى وتُدرَّب وتُعاير على يد مهندسين ومُعنونين وفرق منتجات؛ ليست كياناً مستقلاً. منهجها إحصائي احتمالي يعتمد على كميات هائلة من البيانات لاستخراج أنماط وتوقع مآلات القضايا. هذا المنطق يختلف عن منطق الاستدلال القانوني الذي يزاوج بين قاعدة عامة ووقائع خاصة ويُدخل اعتبارات القيم والنتائج. لذلك قد تُنتج الآلة نصاً يشبه الحكم، لكنها لا تُنتج اجتهاداً يُطوّر القاعدة أو يُعيد تأويلها تحت ضغط التحولات الاجتماعية والبيئية.
المحاماة أيضاً تتغير. يرى المحامي الفرنسي فنسنت برِنغار أن الذكاء الاصطناعي لم يعد مجرد أداة إنتاجية؛ إنه يمس طريقة التفكير في المهنة. الخطر ليس في استخدامه لكتابة رسائل أو لإجراء بحث، بل في فقدان القدرة على تفكيك الحجة وبناء المسار المنطقي الذي يُقصي الحلول البديلة ويُثبت ملاءمة الحل المختار. حين يُؤخذ ناتج أداة توليدية على علاته، يتآكل التدريب الذهني الذي تصنعه الممارسة القانونية.
تطرح هذه التحولات مسألة تكوين مهني جديد: فهم ما تستطيع الأدوات فعله وما لا تستطيع، وكيفية التحقق من مصادرها، وكيفية استعمالها دون انتهاك السرية المهنية ودون انحياز غير مرئي. تقرير CEPEJ يشير إلى أنه لا توجد منظومة قضائية مؤتمتة بالكامل، لكن أدوات التحليل والتوقع تنتشر في الأعمال القانونية وفي قطاعات مجاورة، وخاصة شركات التأمين التي تستخدم الذكاء الاصطناعي لدفع مزيد من النزاعات نحو التسوية الودية، ما يُعيد تشكيل توازنات السلطة المهنية ويعزز «شرعية خوارزمية» لدى من يملك أفضل الأدوات.
في القضاء الأعلى، تُظهر التطبيقات المفيدة كيف يمكن للذكاء الاصطناعي أن يحسن الجودة لا السرعة فقط: رصد الروابط بين الطعون ومعالجتها معاً لرؤية المسألة في اكتمالها، واستطلاع اتجاهات قضاء الدرجة الأولى لتغذية النقاش القانوني. لكن هذه الفوائد تتطلب ضمانات واضحة: شفافية بشأن استخدام الأداة، إخضاع الملخصات والتحليلات التي تُنتجها للنقاش الشفهي في الجلسة، وتمكين القاضي من الانحراف الواعي عن الاقتراح الخوارزمي حفاظاً على فردنة الحكم ومبدأ الخصومة.
هناك أيضاً خطر تزايد اللامساواة أمام الذكاء الاصطناعي: مكاتب كبيرة قادرة على شراء اشتراكات باهظة لأدوات متقدمة مقابل مكاتب صغيرة لا تستطيع ذلك، ما يُحوّل التقنية إلى عامل فارق في الحجة والقوة الإجرائية. مبادرات كاتفاق نقابة باريس مع Mistral AI تسعى لسد الفجوة، لكنها لا تُلغي سؤال الانحياز في البيانات والنماذج ولا سؤال من يقرر معايير التدريب والقياس.
في خلفية هذا كله تقف غاية العدالة التي وصفها الفيلسوف بول ريكور في مفهوم «الاعتراف»؛ أن يشعر الرابح بأن خصمه ظلّ مثله صاحب حق وأن حججه استُمع إليها، وأن يقدر الخاسر أن الحكم لم يكن عنفاً بل اعترافاً بشرعيته كذات قانونية. هذه الغاية لن تتحقق بعدالة روبوتية ولا بعدالة مكتبية منزوعٌ منها الحضور والشفاهة. إنْ ساعدت الأدوات الرقمية على تحرير وقت القضاة والمحامين للاصغاء والمرافعة، فقد تُعيد بعضاً من هذا النفس الإنساني. لكن إن استُخدمت فقط لامتصاص اختناقات الميزانيات والملفات، ستقود إلى مزيد من إجرائية بلا روح.
هذا المقال يستند إلى نقاشات برنامج «L’actu des idées» حول سؤال «هل سيحكم الذكاء الاصطناعي يوماً العدالة؟»، وإلى مداخلات قضاة وباحثين ومحامين، مع إحالات عامة إلى تقارير CEPEJ، وإلى مقالات قانونية منشورة في Le Monde، وإلى أعمال بول ريكور.

