"إعلان الدوحة" يختتم مؤتمر الذكاء الاصطناعي وحقوق الإنسان
استمع إلى الملخص
- ناقش المؤتمر التحديات العسكرية للذكاء الاصطناعي، مشددًا على الحاجة لأطر قانونية دولية لضمان الشفافية والمحاسبة ومنع الاستخدام غير المنضبط في النزاعات المسلحة.
- تناول المؤتمر تأثير الذكاء الاصطناعي على العنف ضد النساء، داعيًا لتطوير خوارزميات تحترم حقوق المرأة وتجنب التحيز الجنسي، مع حماية النساء من العنف الإلكتروني.
دعا "إعلان الدوحة"، في المؤتمر الدولي للذكاء الاصطناعي وحقوق الإنسان الذي نظّمته اللجنة الوطنية لحقوق الإنسان في قطر، بمشاركة عدد من الشركاء المحليين والدوليين، واختتم أعماله اليوم الأربعاء، "إلى إدماج حقوق الإنسان في صميم تطوير الذكاء الاصطناعي ونشره وتنظيمه، لضمان أن تدعم هذه التقنيات الكرامة، والفاعلية، والاستقلالية، والشمول، والمساءلة، والسعي لحوكمة عالمية للذكاء الاصطناعي لمعالجة الآثار الواسعة والعميقة المحتملة على حقوق الإنسان".
أبرز توصيات "إعلان الدوحة"
أكد "إعلان الدوحة"، الصادر في ختام أعمال المؤتمر الذي شارك في أعماله نحو 800 خبير في تقنيات الذكاء الاصطناعي وشخصيات حقوقية عربية ودولية، ضمان المشاركة النشطة والحرة والهادفة لمجموعة واسعة من أصحاب المصلحة، بمن فيهم النساء والشباب والأشخاص ذوو الإعاقة والأصوات المهمشة، في تصميم أنظمة الذكاء الاصطناعي وحوكمتها على المستويات الوطنية والإقليمية والدولية، بما يتماشى مع القانون الدولي لحقوق الإنسان.
كما أكد البيان الختامي للمؤتمر، الذي أعلن توصياته الأمين العام للجنة الوطنية لحقوق الانسان في قطر سلطان حسن الجمالي، ضرورة رصد الهجمات الإلكترونية وتلك التي تُشن باستخدام الذكاء الاصطناعي التي تستهدف المرشحات والسياسيات والمدافعات عن حقوق الإنسان والناشطات، والإبلاغ عنها، وضمان توفير الحماية القانونية، والوصول إلى سبل انتصاف فعّالة، فضلاً عن تسهيل التعاون الدولي، وتقاسم القدرات، والوصول العادل إلى فوائد الذكاء الاصطناعي في جميع المناطق، لا سيما دعماً للدول النامية، بما يتماشى مع مبادئ التضامن والمسؤولية المشتركة.
وطالب "إعلان الدوحة" المجتمعَ الدولي برصد استعمال أنظمة الذكاء الاصطناعي في العمليات العسكرية والتحقيق فيها، لضمان مواءمتها مع مبادئ القانون الدولي الإنساني والقانون الدولي لحقوق الإنسان، وضمان اتخاذ القرارات البشرية في مجالات إقامة العدل، والرعاية الصحية، والحماية الاجتماعية، وإنفاذ القانون، والمجال العسكري، وضمان استكمال استخدام الذكاء الاصطناعي في جميع القطاعات بإشراف بشري، وحظر أي تطبيقات وأدوات للذكاء الاصطناعي تُشكل مخاطر جسيمة على حقوق الإنسان لا يمكن التخفيف منها.
ودعا إلى حظر أنظمة الذكاء الاصطناعي العسكرية التي لا تعمل وفقاً للقانون الدولي لحقوق الإنسان والقانون الإنساني الدولي، وإلى ضرورة اعتماد وتعزيز تشريعات حماية البيانات القائمة على مبادئ الشرعية، وتقليل استخدام البيانات، وتحديد الغرض، والنزاهة، والسرية، والمساءلة، والشفافية، والتي تضمن المساواة وحرية الأفراد من خلال ضمانات فعّالة ضد الوصول غير المصرح به إلى البيانات الشخصية واستخدامها والإفصاح عنها، بما في ذلك لأغراض الذكاء الاصطناعي.
كذلك، حث على التشفير، وإنشاء هيئات مستقلة لحماية البيانات، ومنحها الصلاحيات والموارد اللازمة للإشراف الفعّال على الامتثال وتطبيق المساءلة، بما في ذلك إلزام مطوري الذكاء الاصطناعي بالاحتفاظ بسجلات مفصلة للبيانات الشخصية المستخدمة في تدريب نماذجهم للإفصاح عنها بما يخدم المصلحة العامة.
وأكد "إعلان الدوحة" على ضرورة فرض الإفصاح عن استخدام الذكاء الاصطناعي في جميع المجالات (بما في ذلك الخطاب السياسي، والخدمات العامة، والتطبيقات العسكرية)، وفرض إمكانية شرح الخوارزميات، وتمكين عمليات التدقيق المستقلة، ونشر تقييمات الأثر على حقوق الإنسان، وإتاحة المعلومات المتعلقة بتصميم أنظمة الذكاء الاصطناعي واستخدامها وضماناتها، إضافة إلى إنشاء آليات قوية للمساءلة والإنصاف من خلال تحديد مسؤوليات قانونية واضحة لجميع الجهات الفاعلة المشاركة في تطوير الذكاء الاصطناعي ونشره، وخيارات انتصاف متاحة للأفراد المتضررين، وهيئات رقابية مدربة تدريباً خاصاً، وبناء قدرات محددة لصانعي السياسات والمسؤولين الحكوميين وعامة الناس حول آثار الذكاء الاصطناعي.
وشدّد على أهمية الاستثمار في محو الأمية الرقمية والمتعلقة بالذكاء الاصطناعي، ودمجها في النظم التعليمية، وتدريب صانعي السياسات لدعم اتخاذ القرارات المستنيرة، وتعزيز التعلم مدى الحياة، وضمان فهم الآثار التقنية والاجتماعية والأخلاقية والقانونية للذكاء الاصطناعي.
ضوابط قانونية تنظم استخدام الذكاء الاصطناعي
من جهتها، قالت المستشارة القانونية لوحدة الأسلحة والأعمال العدائية في الإدارة القانونية للجنة الدولية للصليب الأحمر، هايدي قنديل، إن استخدام الذكاء الاصطناعي في العمليات العسكرية بات يثير مخاوف قانونية وأخلاقية وإنسانية عميقة، مشيرةً إلى أن اللجنة تركز في متابعتها على ثلاثة تطبيقات عسكرية رئيسية تثير القلق، وهي العمليات السيبرانية والمعلوماتية، والأسلحة الذاتية التشغيل، وأنظمة دعم القرار القائمة على الذكاء الاصطناعي. وأوضحت أن أخطر ما في الأسلحة الذاتية هو أنها، بمجرد تفعيلها، تختار وتهاجم أهدافاً من دون أي تدخل بشري إضافي، مما يعني أن المشغّل البشري لا يحدد الهدف ولا توقيت الهجوم ومكانه، وهو ما يشكل انتهاكاً جوهرياً لقواعد التمييز والاحتياطات المنصوص عليها في القانون الدولي الإنساني، لافتةً إلى أن الأسلحة الذاتية لا تمتلك القدرة على التقاط إشارات إنسانية أساسية مثل نية الاستسلام أو الإصابة أو عدم القدرة على القتال، مما يعرّض المدنيين والأشخاص المحميين لخطر جسيم. ودعت قنديل إلى وضع ضوابط قانونية واضحة وصارمة تنظّم استخدام الذكاء الاصطناعي في النزاعات المسلحة، بما يضمن احترام القانون الدولي الإنساني.