مقدمة

إن منظومة القانون الإماراتي تواكب التطور ومن ثم تولي أهمية قصوى للذكاء الاصطناعي وذلك من خلال استراتيجية وطنية مرسومة ممتدة للمستقبل، مدعمة بداية بغطاء قانوني بسن تشريعات مرنة مثل قانون الذكاء الاصطناعي وميثاق الذكاء الاصطناعي وذلك لخلق توليفة تدمج  بين التطور والإبتكار والمسؤولية المجتمعية ، مع المحافظة على أسس إجتماعية مبنية على الأخلاق، العدالة، والخصوصية، عبر مبادئ مرشدة تضمن الأمان وتحدد المساءلة، وفي نفس الوقت تحافظ على إطار الملكية الفكرية وتطوير القوانين لتواجه تحديات العصر مع الاستفادة من الذكاء الاصطناعي كفكرة علمية وبرمجة عملية فاعلة في دعم ورفع كفاءة عمل الحكومة وخدماتها القانونية المتعددة للمجتمع .

وحيث أننا نواكب ونرى عالمياً قانون الذكاء الاصطناعي وقد دخل حيز التنفيذ في دول الإتحاد الأوروبي ، ونرجح أن كافة باقي دول العالم سوف تحذوا حذوهم في القريب وهو النهج الرشيد الذي اتخذته دولة الإمارات العربية المتحدة بداية.

أن استراتيجية الإمارات للذكاء الاصطناعي تسعى إلى الإسراع في تنفيذ البرامج والمشروعات التنموية لبلوغ المستقبل، ومن ثم ترسيخ وتطبيق الإعتماد على الذكاء الاصطناعي في الخدمات وتحليل البيانات بمعدل 100% بحلول عام 2031، وصولاً إلى التميز والارتقاء بالأداء الحكومي وتسريع الإنجاز وخلق بيئات عمل مبتكرة تفيد المجتمع .

وننوه أن وزير الذكاء الاصطناعي في الإمارات هو معاليعمر سلطان العلماء، الذي يشغل منصب وزير الدولة للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بُعد، وقد عُين أول مرة في عام 2017 كوزير دولة للذكاء الاصطناعي، ثم توسعت مهامه في 2020 لتشمل الاقتصاد الرقمي وتطبيقات العمل عن بُعد.  

الهدف من منظومة الذكاء الاصطناعي

*تهدف دولة الإمارات إلى وضعالإستراتيجية الوطنيةللذكاء الاصطناعي 2031 :

وذلك حيث تسعى الدولة بخطوات حثيثة لكي تكون لها الريادة عالميًا وليس عربياً فقط في مجال الذكاء الاصطناعي من خلال استراتيجيتها الوطنية البناءة للذكاء الاصطناعي، والهادفة إلى ترسيخ ريادتها ومكانتها عالمياً في مجال الذكاء الاصطناعي من خلال استثمارها مجتمعياً في افراد المجتمع والقطاعات ذات الأولوية وذلك عبر أسس وأهداف متمثلة في:

  1. إنشاء وخلق منظومة فاعلة للذكاء الاصطناعي.
  2. اجتذاب القدرات الرائدة عالميًا في مهارة البحث للعمل في القطاعات المستهدفه لتدعيم المنظومة من بدايتها .
  3. توفير البنية التحتية الأساسية الداعمة والبيانات والمدخلات اللازمة لتصبح بمثابة قاعدة اختبار للذكاء الاصطناعي.
  4. تدريب المواهب المتميزة على الوظائف المستقبلية التي سوف يبدعها الذكاء الاصطناعي.
  5. تثبيت الذكاء الاصطناعي وإعتماده في مجال خدمة المتعاملين للرقي بمستوى حياة الأفراد وأداء الحكومة.
  6. تواجد وزيادة منافسة الدولة في القطاعات ذات الأولوية عبر تطوير الذكاء الاصطناعي.
  7. ضمان التنظيم المتميز الفاعل للحوكمة القوية.
  8. ترسيخ مكانة الدولة كوجهة أساسية لعمل الذكاء الاصطناعي.

وتحدد الاستراتيجية عدة أهداف رئيسية منها

  1. تنمية الكفاءات في مجال الذكاء الاصطناعي .
  2. تعزيز الشراكات بين القطاعين العام والخاص.
  3. الاستخدام الأخلاقي للذكاء الاصطناعي من خلال مبادئ توجيهية محددة

الإطار الأخلاقي للذكاء الاصطناعي :

وتُوفّر مبادئ أخلاقيات الذكاء الاصطناعي في دولة الإمارات العربية المتحدة إطاراً أخلاقياً جوهرياً لتطوير الذكاء الاصطناعي ونشره.  

تهدف هذه المبادئ، الصادرة عن مكتب الذكاء الاصطناعي والاقتصاد الرقمي والعمل عن بُعد، إلى ضمان استخدام تقنيات الذكاء الاصطناعي بمسؤولية وأخلاقية. وتشمل المبادئ الرئيسية ما يلي

  1. الشفافية : ضمان أن تكون أنظمة الذكاء الاصطناعي وعمليات صنع القرار الخاصة بها مفهومة ومتاحة للمستخدمين.
  2. المساءلة : وضع خطوط واضحة للمسؤولية عن تطوير واستخدام أنظمة الذكاء الاصطناعي.
  3. الإنصاف : الحد من التحيز في أنظمة الذكاء الاصطناعي لضمان المعاملة العادلة لجميع الأفراد والجماعات.  

وتسعى الدولة لتنظيم استخدام الذكاء الاصطناعي (AI) وضمان توافقه مع الحقوق الأساسية والسلامة العامة وفقاً للقانون وذلك يهدف تحقيق توازن دقيق بين دعم الابتكار التكنولوجي من جهة، وضمان حماية الأفراد والمجتمع من المخاطر المرتبطة بهذه التكنولوجيا الحديثة من جهة أخرى.

الحظر الصريح لبعض الممارسات:

نرى أنه من الضروري عملياً وللتطبيق الأمثل للقانون أن يحظر القانون صراحة استخدام أنظمة الذكاء الاصطناعي التي:

  • تعتمد على تقنيات خادعة أو استغلالية تؤدي إلى ضرر جسيم.
  • تجمع البيانات الحيوية عن طريق المسح غير المستهدف.
  • تستنتج المشاعر في البيئات العملية أو التعليمية.
  • تستخدم في تصنيف الأفراد بيولوجيًا أو اجتماعيًا بشكل غير مشروع.
  • تُوظف لأغراض التنبؤ بالجريمة اعتمادًا على السمات الشخصية فقط.

المسؤوليات المشتركة والتداخل مع قوانين أخرى:

ونرى أنه لابد أن يسلط القانون الضوء على أهمية التمييز بين الأدوار المختلفة في إطار التطبيق في حيز التنفيذ بين كل من (مزود، مستخدم، مستورد، موزعإلخ) وذلك لتحديد المسؤوليات بدقة، مع الاعتراف والأخذ في الإعتبار بإمكانية وجود تداخل في الأدوار بشكل فعلي وواضح .

الحاجة إلى الإرشاد العملي :

ونظرًا لحداثة وتعقيد القانون وإبهام بعض مفاهيمه ومصطلحاته، نرى أهمية الإرشاد العملي لتطبيقه وتنفيذ نصوصه وأحكامه وذلك من خلال تطوير وسائل تمكن من تبسيطه للجميع في المجتمع وصولاً لأعلى فائدة مرجوه من سرعة تطبيقة .

التصنيفات والمصطلحات الأساسية في قانون الذكاء الاصطناعي

يقصد بالكلمات والعبارات التالية المعاني التعريفية الموضحة قرين كل منها مالم يقتض السياق خلاف ذلك :

  • الذكاء الاصطناعي (AI) :هو فرع من علوم الحاسوب يهدف إلى بناء آلات وأنظمة قادرة على محاكاة القدرات البشرية وذلك باستخدام تقنيات حديثة تؤدي مهام تتطلب ذكاءً بشريًا.  
  • المزودين : الذين يطورون أنظمة الذكاء الاصطناعي أو نماذج الذكاء الاصطناعي العامة (GPAI).
  • المستخدمين : الذين يقومون بتشغيل أنظمة الذكاء الاصطناعي .
  • نظام الذكاء الاصطناعي : وسيلة للتعلم، التفكير، الفهم، والتفاعل مع البيئة تتم بإستخدام تقنيات مثل التعلم الآلي، الشبكات العصبية، ومعالجة اللغة الطبيعية لتطوير أنظمة قادرة على التعلم من البيانات وتحسين أدائها بمرور الوقت.
  • الذكاء الاصطناعي عام الأغراض (AGI) :هو هدف بحثي يسعى لإنشاء أنظمة حاسوبية تمتلك ذكاءً شاملاً وقدرات معرفية شبيهة بالبشر، بحيث يمكنها فهم، تعلم، وتطبيق المعرفة لحل أي مهمة فكرية يمكن للإنسان القيام بها، وهو يمثل قفزة من الذكاء الاصطناعي الضيق (ANI) إلى ذكاء قادر على التفكير، التخطيط، والتعلم الذاتي عبر نطاق واسع من البيئات والمهام غير المحددة مسبقًا
  • أنظمة الذكاء الإصطناعي المحظورة (Unacceptable Risk) :وهي التي تعد تهديدًا صريحًا للحقوق الأساسية (مثل أنظمة التسجيل الحيوي في الأماكن العامة أو أنظمة التسجيل الاجتماعي).
  • أنظمة الذكاء الإصطناعي عالية الخطورة (High-Risk) :تشمل الأنظمة المستخدمة في مجالات حساسة كالتوظيف، التعليم، الصحة، والعدالة.
  • أنظمة الذكاء الإصطناعيمحدودة الخطورة (Limited Risk):تفرض عليها التزامات بالشفافية بإعلام المستخدم بأنه يتفاعل مع نظام ذكاء اصطناعي.
  • أنظمة الذكاء الإصطناعيمنخفضة الخطورة (Minimal Risk) :لا تخضع إلا لمبادئ عامة وتوصيات غير ملزمة.
  • الشفافية : ضمان أن تكون أنظمة الذكاء الاصطناعي وعمليات صنع القرار الخاصة بها مفهومة ومتاحة للمستخدمين.
  • المساءلة : وضع خطوط واضحة للمسؤولية عن تطوير واستخدام أنظمة الذكاء الاصطناعي.
  • الإنصاف : الحد من التحيز في أنظمة الذكاء الاصطناعي لضمان المعاملة العادلة لجميع الأفراد والجماعات.  
  • المسؤولية القانونيةدراسة تحديد المسؤولية المدنية والجنائية عند وقوع ضرر بسبب الذكاء الاصطناعي.
  • الأمن السيبراني: ضمان أمان الخوارزميات وبروتوكولات التشفير لحماية البيانات.
  • الموازنة : تحقيق توازن بين تبني التكنولوجيا والحفاظ على الحقوق الأساسية وثقة المواطنين
  • الاستراتيجية الوطنية : استراتيجية الإمارات للذكاء الاصطناعي 2031 تهدف لجعل الإمارات رائدة عالمياً، وتعتمد على الذكاء الاصطناعي في الخدمات الحكومية بنسبة 100% بحلول 2031.
  • مجلس الإمارات للذكاء الاصطناعي : مجلس الإمارات للذكاء الاصطناعي والتكنولوجيا المتقدمة (AIATC) يشرف على دمج التقنيات ويراجع التشريعاتة .
  • ميثاق الذكاء الاصطناعي لدولة الإمارات : يحدد مبادئ أخلاقية (العدالة، الشفافية، المسؤولية، الخصوصية) لضمان الاستخدام الآمن والفعال للتكنولوجيا .

               ———————————

تطبيقات الذكاء الاصطناعي في المجال القانوني:

  1. وزارة العدلتستخدم الذكاء الاصطناعي في تحليل الوثائق وتصنيفهامثل تقنية OCR) لرفع كفاءة الخدمات.
  2. المحاماةيساعد الذكاء الاصطناعي في البحث القانوني وتحليل المستندات، لكن تظل المسؤولية البشرية ضرورية.

تتبنى دولة الإمارات العربية المتحدة نهجاً استباقياً في دمج الذكاء الاصطناعي في قطاعها القانوني و القضائي والتشريعي، مع التركيز على الكفاءة والشفافية والاعتبارات الأخلاقية

استراتيجية الإمارات للذكاء الاصطناعي في القانون والعدالة :

لا يوجدقانونواحد وشامل للذكاء الاصطناعي في الإمارات حتى الآن، ولكن هناك إطار تنظيمي يتكون من استراتيجيات وطنية وقوانين قائمة يتم تحديثها وتكييفها لتشمل تطبيقات الذكاء الاصطناعي.

  • استراتيجية الإمارات للذكاء الاصطناعي 2031: تهدف إلى الاعتماد بنسبة 100% على الذكاء الاصطناعي في الخدمات الحكومية وتحليل البيانات بحلول عام 2031، مما يشمل الخدمات القانونية والقضائية.
  • دمج الذكاء الاصطناعي في العملية التشريعية: اعتمد مجلس الوزراء منظومة تشريعية ذكية متكاملة لاستخدام الذكاء الاصطناعي في صياغة ومراجعة وتحديث القوانين، بهدف تسريع هذه العملية بنسبة تصل إلى 70% وتعزيز دقتها.

ابتكارات الذكاء الاصطناعي في وزارة العدل:

في عصر التحول الرقمي، أصبحت التكنولوجيا أحد المحركات الرئيسية لتحسين جودة الخدمات الحكومية، ومن بين التقنيات البارزة التي أحدثت ثورة في هذا المجال، يبرز الذكاء الاصطناعي كأداة فعالة لتحقيق الكفاءة والشفافية في الأداء الحكومي في قطاعيها القضائي والقانوني.

مبادرات وزارة العدل

  • تم إطلاق أدوات مثلالمستشار القانوني الافتراضيوروبوتات الدردشة للمساعدة في الإجراءات القانونية وتقديم الاستشارات الأساسية لمستخدمي المحاكم
  • تسريع التشريعإنشاء مكتب للذكاء التشريعي بهدف استخدام الذكاء الاصطناعي لربط القوانين بالخدمات القضائية وتسريع عملية إصدار التشريعات.
  • وزارة العدلتستخدم تقنيات مثل التعرف الضوئي على الحروف (OCR) وتحليل المحتوى لتصنيف الوثائق القانونية وتسهيل الوصول إليها.

المسؤولية القانونية: التحدي التشريعي الأكبر

في غياب شخصية قانونية منفصلة لأنظمة الذكاء الاصطناعي، تقع المسؤولية عن أي أضرار أو انتهاكات قانونية ناتجة عن استخدام هذه الأنظمة على عاتق المطورين أو الموزعين أو المستخدمين.

ووفقا لتلك الوجهه القانونية حيث تتم إدارة الألهالذكاء الاصطناعيبواسطة الإنسان العادي ومن ثم يظل فعلة يمثل الخطأ البشري المتوافر في حقه والذي تنعقد به المسئولية سواء مدنية أو جنائية قبلة طالما أن هذا الانسان هو الذى يبرمج ويوجه استخدامات تلك الألة الممثلةللذكاء الاصطناعيالتي نتج عنها أضرار أو انتهاكات قانونية.

و يثور التساؤل ما مدى المسئولية القانونية المترتبة عن الافعال التى ترتكب بواسطة الذكاء الاصطناعى الروبوت سواء جنائية او مدنية، وفى حقيقة الامر هذا شىء يطول بيانه الا انه من الضرورى قبل البدئ فى انتشار اليات العمل بالذكاء الاصطناعى يجب ان يتجة المشرع لوضع إطار قانونى من المسئولية القانونية مدنية وجنائية فى حق الجرائم التى ترتكب بواسطة الروبوت ، فبعض الدول اتجهت الى وضع انظمة عقابية لتجريم حوادث السيارات ذاتية القيادة عن طريق قياس نسبة الخطأ وبيان المتسبب الفعلى فى الحادث كما ان هناك مسئولية مدنية على المتحكم والمبرمج فى حال حدوث عطل فنى نتيجة عدم الحرص فى واجبات العمل لبرمجة الروبوت او نظام عمله. وان المسئولية الجنائية يمكن ان تكون مشتركة بين مبرمج او مستخدم او القائم بإدارة نظام عمل الروبوت وبين الروبوت ذاته حيث ان مصدر اوامر الروبوت يجب ان يكون حريص فى ان الروبوت فى تنفيذه لهذه الاوامر لن يكون لدية سلطة تقديرية وانما سوف يلتزم بادائها حتى لو تحقق عن ذلك اضرار بالغير.

* أما المسئولية القانونية للروبوت نفسه فيرى البعض أيضاً أنها متوافرة حتى ولو كان الة وليس لدية اهلية إدراك ، فمن الممكن المعاقبة بمنع استخدام الروبوت او تدميره إذا كانت طريقة تصنعية او نظام عمله قد يضر بالبشرية او يؤذى المجتمع او يلوث البيئة، كما ان المسئولية المدنية من خطأ وضرر وعلاقة السببية بعض الأراء ترى توافرها وأنه فى حالة ارتكاب الروبوت اضراراً بالغير فإنه يعتبر مملوكاً لصاحبه مثله مثل الاموال والتى يمكن ان يتم الحجز عليه تعويضا عن قيمة الضرر المتحقق.

أنواع المسؤولية القانونية وأطرافها المحتملة :

يمكن تصنيف المسؤولية القانونية لأنظمة الذكاء الاصطناعي إلى:

  • المسؤولية المدنية (العقديةالتقصيرية) : تنشأ عن الأضرار التي يسببها نظام الذكاء الاصطناعي للغير، وتهدف إلى جبر الضرر (التعويض).
  • المسؤولية الجنائية: تثار في حالة قيام نظام الذكاء الاصطناعي بارتكاب أفعال تُصنف كجرائم ضد الغير ويتم البحث عن المسؤولية بين الأطراف البشرية ذات الصلة. 

تحديد أطراف المسؤولية المحتملة:

  • المطورون /المصنعون /المبرمجون مسؤولون عن تصميم أنظمة آمنة خالية من التحيز، وسلامتها، وملزمون بالتحديثات اللاحقة ، وقد يواجهون مسؤولية عن عيوب التصميم أو عدم كفاية التدابير الوقائية وقد  يتحملون مسؤولية المنتج المعيب أو نظام العمل الضار، خاصة بموجب عقود البيع والضمان.
  • المستخدمون/المشغلون/المالكون: يتحملون مسؤولية الاستخدام الغير سليم، وقد يكونون مسؤولين عن الأضرار الناتجة عن سوء الاستخدام، أو فشلهم في الإشراف على التحكم في النظام، خاصة إذا كان بإمكانهم إيقافه  .
  • مقدمو الخدمة:  وقد يكونون مسؤولين بموجب العقود أو القانون إذا فشل النظام في الوفاء بالمواصفات المتفق عليها أو تسبب في خسائر للعملاء
  • المستخدم النهائي:  يكون مسؤولاً ويحاسب إذا كان الخطأ نتيجة سوء استخدام أو إهمال في التشغيل و الإستخدام من جانبه

التحديات القانونية في تحديد المسؤولية :

تشمل أهم التحديات القانونية أمام تطبيق الذكاء الاصطناعي مسائل مثلتحديد المسؤوليةعند وقوع خطأ، وضمان عدم تحيز الخوارزميات، والحاجة إلى رقابة بشرية نهائية على القرارات عالية المخاطر

بيان التحديات الرئيسية لمواجهة موضوعالمسؤوليةفي الذكاء الاصطناعي :

يظهر جوهر التحدي بوضوح في الطبيعة المتفردة والمتغيرة بإستمرار لأنظمة الذكاء الاصطناعي حيث :

  • الاستقلالية وعدم القدرة على التنبؤ: الأنظمة القادرة على التعلم والتكيف بعد النشر تجعل من الصعب التنبؤ بجميع تصرفاتها، مما يُضعف مبدأ المسؤولية القائمة على الخطأ البشري المباشر.
  • التعقيد والتعلم المستمر : صعوبة تحديدالعيبفي الأنظمة التي تتبرمج وتتعلم وتتحدث وتتطور باستمرار.
  • تعدد الأطراف الفاعل : تعدد الجهات المشاركة في النظام يجعل تحديد المسؤولية الفردية أمرًا صعبًا.
  • غياب الشخصية القانونية: لا يمتلك الذكاء الاصطناعي (كآلة) حاليًا شخصية قانونية مستقلة تسمح بمقاضاته مباشرة، على الرغم من أن بعض الأفكار القانونية الحديثة تطرح إمكانية فرض عقوبات كمنع استخدام الروبوت أو تدميره.
  • شفافية الخوارزميات: صعوبة فهم كيفية اتخاذ النظام لقرار معين (ما يسمى بالصندوق الأسود“) يعيق تحديد سبب الخطأ ومن المسؤول عنه. 
  • تجاوز التطور التشريعي:  الواقع الثابت أن تطور تقنيات الذكاء الاصطناعي أسرع من قدرة القانون على مواكبتها

باختصار:

 تركز الإمارات على الاستفادة من الذكاء الاصطناعي لرفع كفاءة نظامها القانوني، بالتوازي مع تطوير إطار تنظيمي يضمن الاستخدام الآمن والمسؤول والأخلاقي لهذه التقنيات

الربط مع القوانين الاتحادية القائمة

ومن ثم الربط بين قانون الذكاء الاصطناعي والقوانين الإتحادية المطبقة وأهمية ذلك :

  • حيث القوانين القائمة كركائز تنظيمية يتم تنظيم وربط استخدام الذكاء الاصطناعي من خلال مجموعة من القوانين الاتحادية القائمة، أهمها:
  • قانون حماية البيانات الشخصية (المرسوم بقانون اتحادي رقم 45 لسنة 2021): يضمن هذا القانون معالجة البيانات الشخصية بشكل قانوني ويفرض ضوابط على كيفية جمعها وتخزينها ومعالجتها من قبل أنظمة الذكاء الاصطناعي.
  • قانون مكافحة الشائعات والجرائم الإلكترونية (المرسوم بقانون اتحادي رقم 34 لسنة 2021): يتطلب من الأنظمة التقنية (بما في ذلك الذكاء الاصطناعي) منع انتشار المعلومات الكاذبة والشائعات، ووضع تدابير أمنية إلكترونية قوية.
  • قانون حقوق المؤلف والحقوق المجاورة (المرسوم بقانون اتحادي رقم 38 لسنة 2021): يوفر حماية للملكية الفكرية لتطبيقات الذكاء الاصطناعي والمحتوى الناتج عنها، ولكنه يوضح أن برامج الذكاء الاصطناعي نفسها غير قابلة للحصول على براءة اختراع في مناطق معينة مثل مركز دبي المالي العالمي

*و نرى أن مسألة المسؤولية القانونية في الذكاء الاصطناعي (AI) تمثل تحدياً تشريعياً كبيراً في العصر الحديث، حيث تطرح تساؤلات حول من يجب أن يتحمل المسؤولية عند وقوع ضرر ناجم عن أنظمة تتمتع بدرجة من الاستقلالية عن مصنعيها ومطوريها ومستخدميها حيث تتنوع هذه المسؤولية بين المدنية والجنائية، وتعتمد الإجابة فعلاً على عدة عوامل معقدة ومتغيرة لا يمكن الوقوف عليها بصدق ولا حصرها .

الخاتمة

في عصر التحول الرقمي، أصبحت التكنولوجيا أحد المحركات الرئيسية لتحسين جودة الخدمات الحكومية. ومن بين التقنيات البارزة التي أحدثت ثورة في هذا المجال، يبرز الذكاء الاصطناعي كأداة فعالة لتحقيق الكفاءة والشفافية في الأداء .

إعداد المستشار القانوني: هشام فؤاد حسن

المحامي بالنقض