التزام JLL بالذكاء الاصطناعي المسؤول
في شركة JLL، نلتزم بالاستخدام الأخلاقي والمسؤول لتقنيات الذكاء الاصطناعي (AI)، بما يتماشى مع مدونة الأخلاقيات الخاصة بنا، ويصون حقوق الأفراد وكرامتهم، بما في ذلك عدم التمييز، وحماية الخصوصية، وضمان المعاملة العادلة في جميع ممارساتنا. ونؤمن بأن الذكاء الاصطناعي يمتلك القدرة على تحقيق قيمة كبيرة لعملائنا وموظفينا ومجتمعاتنا، إلا أننا ندرك أن هذه القدرة يجب أن تُوجَّه وفق إطار أخلاقي راسخ.
يوثق هذا الالتزام مبادئ JLL للاستخدام المسؤول للذكاء الاصطناعي، موضحًا الممارسات الأساسية وأطر الحوكمة التي تضمن تطوير واستخدام تقنيات الذكاء الاصطناعي بما يتوافق مع قيم الشركة والقوانين المعمول بها. ويُستحسن قراءة هذا الالتزام بالتوازي مع إرشادات الاستخدام المسؤول للذكاء الاصطناعي التوليدي لدى JLL، ومدونة الأخلاقيات، والسياسات المؤسسية ذات الصلة.
مبادئنا التوجيهية: الأخلاقيات، المسؤولية، والذكاء الاصطناعي
- العدالة وعدم التمييز: تماشيًا مع مدونة الأخلاقيات في JLL والتزامنا بمعاملة الجميع بكرامة واحترام، نقوم بإدارة أنظمة الذكاء الاصطناعي لدينا بهدف تقليل التحيز ومراقبته بشكل مستمر، ومنع أي مخرجات تمييزية. ونعمل على تحديد ومعالجة أي تحيز محتمل في استخداماتنا، مع إيلاء اهتمام خاص للخصائص الشخصية المحمية بموجب القوانين واللوائح في الدول التي نعمل بها. وعند اكتشاف أي تحيز أو نتائج تمييزية، نتخذ إجراءات تصحيحية فورية، مع الالتزام بالمراجعة والتحسين المستمرين لأنظمتنا.
- الشفافية وقابلية التفسير: نسعى إلى جعل أنظمة الذكاء الاصطناعي لدينا شفافة وقابلة للفهم قدر الإمكان. وحيثما أمكن، نقدم تفسيرات واضحة وميسّرة حول كيفية عمل هذه الأنظمة واتخاذها للقرارات، خاصة عندما تؤثر تلك القرارات على الأفراد أو أصحاب المصلحة. وعندما يساهم الذكاء الاصطناعي بشكل جوهري في التوصيات أو المخرجات المقدمة للعملاء، نلتزم بالإفصاح المناسب عن دوره.
- المساءلة والمسؤولية: نتحمل المسؤولية عن تأثيرات أنظمة الذكاء الاصطناعي لدينا، ونضع خطوطًا واضحة للمساءلة، مدعومة بهياكل حوكمة وآليات لمعالجة أي آثار غير مقصودة أو أضرار محتملة.
- الخصوصية وحماية البيانات: نلتزم بحماية خصوصية وأمن البيانات الشخصية المستخدمة في أنظمتنا، مع الامتثال لجميع القوانين واللوائح ذات الصلة بحماية البيانات، والالتزام بأعلى معايير حوكمة البيانات لإدارة المعلومات الشخصية بشكل مسؤول وشفاف.
- الأمن والسلامة: نُضمّن مبادئ الأمن والسلامة في استخدامنا لأنظمة الذكاء الاصطناعي، وفقًا لسياسات JLL المؤسسية. وتخضع هذه الأنظمة لاختبارات ومراقبة مستمرة للحد من المخاطر غير المقصودة، وسوء الاستخدام، والتهديدات السيبرانية، وضمان عدم تعريض سلامة الأفراد للخطر.
- الإشراف البشري والتحكم: نؤمن بأهمية الإشراف البشري كعنصر أساسي في الاستخدام المسؤول للذكاء الاصطناعي. لذلك، نضمن وجود رقابة بشرية في عمليات اتخاذ القرار، خاصة في الحالات التي تؤثر بشكل كبير على الأفراد، مع الحفاظ على الدور البشري في التوجيه واتخاذ القرارات النهائية والامتثال التنظيمي.
ممارساتنا الأساسية: تطبيق التزامنا
لدعم هذه المبادئ، نلتزم بمجموعة من الممارسات الأساسية:
- لجنة الذكاء الاصطناعي: نُنشئ لجنة متخصصة بالذكاء الاصطناعي، مع تحديد هيكلها وصلاحياتها وآلية عملها ضمن قسم الحوكمة والمساءلة.
- تقييمات أثر الذكاء الاصطناعي: نُجري تقييمات دورية لتحديد ومعالجة المخاطر المحتملة للأنظمة التي قد تؤثر بشكل جوهري على الأفراد أو نتائج العملاء أو الامتثال التنظيمي، مع تضمين مراجعات للعدالة وتوثيق واضح لكيفية عمل هذه الأنظمة.
- حوكمة البيانات وإطار الخصوصية: نلتزم بإطار شامل يضمن جودة البيانات وسلامتها وأمنها، مع الامتثال لكافة القوانين واللوائح ذات الصلة بحماية البيانات.
- تدريب الموظفين وبرامج التوعية: نقدم برامج تدريب وتوعية مستمرة لموظفينا لتعزيز فهمهم لمبادئ الذكاء الاصطناعي المسؤول وأفضل الممارسات والمعايير الأخلاقية والتنظيمية المتجددة. كما نحرص على توعية شركائنا ومتعهدينا بهذه المعايير.
- المراقبة والتدقيق: نقوم بمراقبة وتدقيق أنظمة الذكاء الاصطناعي لضمان أدائها وفق الأهداف المحددة وامتثالها للسياسات المؤسسية والقوانين ذات الصلة.
- إشراك أصحاب المصلحة: نتواصل مع أصحاب المصلحة، بما في ذلك العملاء والموظفون، للحصول على ملاحظاتهم وضمان توافق ممارساتنا مع احتياجاتهم وتوقعاتهم. كما نشجع على الإبلاغ عن أي مخاوف عبر قنوات الإبلاغ المعتمدة، بما في ذلك خط الدعم الأخلاقي.
- الالتزام بالتحسين المستمر: نلتزم بمراجعة وتحسين ممارساتنا بشكل مستمر استجابةً للتطورات التشريعية وأفضل الممارسات العالمية وملاحظات أصحاب المصلحة. كما نتابع عن كثب تطورات التشريعات المتعلقة بالذكاء الاصطناعي، بما في ذلك قانون الذكاء الاصطناعي للاتحاد الأوروبي وغيرها من الأطر العالمية، لضمان الامتثال والتحديث المستمر. ويتم مراجعة هذا الالتزام وتحديثه سنويًا على الأقل أو عند حدوث تغييرات تنظيمية أو تقنية جوهرية.
الحوكمة والمساءلة
تتولى لجنة الذكاء الاصطناعي في JLL الإشراف الرسمي والتوجيه الاستراتيجي لجميع مبادرات الذكاء الاصطناعي. ويرأس اللجنة رئيس الذكاء الاصطناعي في الشركة، وتضم أعضاءً من القيادات التنفيذية والتشغيلية في مجالات رئيسية تشمل التقنية، والشؤون القانونية، والأمن، والخصوصية، ووحدات الأعمال ذات الصلة.
تعقد اللجنة اجتماعات دورية للإشراف على الأنظمة، وتقييم المخاطر، وضمان الامتثال للمتطلبات القانونية. ويتم اتخاذ القرارات وفق نهج قائم على تقييم المخاطر، مع تصعيد القضايا الجوهرية إلى الإدارة العليا، وتوثيق القرارات لضمان الشفافية والمساءلة.