التخطي إلى المحتوى

أبوظبي (الاتحاد)

أكد مشاركون في جلسة حوارية، نظمها مركز تريندز للبحوث والاستشارات، أن مستقبل الذكاء الاصطناعي يحتاج إلى تطوير أدوات فعالة لاستشراف المستقبل، فضلاً عن اتباع سياسيات وسنّ تشريعات ناجعة حيال استخدام البرمجيات وعلم الخوارزميات، مع ضرورة وضع منهجية شاملة تركز على المجتمع وتؤكد على أخلاقية ومسؤولية الأنظمة والتطبيقات التكنولوجية. وأشار المشاركون إلى أن الذكاء الاصطناعي أصبح جزءاً جوهرياً من تطوير الحلول، ولديه القدرة على المساعدة في مواجهة أصعب التحديات والعقبات التي يواجهها العالم، كما بات عنصراً أساسياً في الحياة اليومية، ولكنه ينطوي على العديد من المخاطر والإخفاقات، مشددين على أهمية تعزيز ثقافة الثقة في المؤسسة أو المنظمة التي تعمل على بناء الأنظمة والتطبيقات وتغذيتها بالبيانات لإنشاء أنظمة آمنة ومسؤولة، مع التأكيد على تطبيق أخلاقيات البيانات، والتأكد من مدى جدوى الخطط الموضوعة لمواجهة إخفاقات الأنظمة الذكية.جاء ذلك خلال «حوار تريندز الرابع» الذي دار حول «مستقبل الذكاء الاصطناعي المسؤول»، ونظمه مركز تريندز للبحوث والاستشارات، أمس الأول في مقره بأبوظبي.

فرص وحلول مبتكرة 
استضاف الحوار الدكتور سعيد الظاهري مدير مركز الدراسات المستقبلية في جامعة دبي، وأدارت الحوار موزة المرزوقي الباحثة في «تريندز»، وجاء الحوار ضمن جهود «تريندز» لنشر العلم واستشراف المستقبل بالمعرفة.
واستهلت أعمال الجلسة الحوارية موزة المرزوقي بكلمة ترحيبية ألقتها نيابة عن الدكتور محمد عبدالله العلي، الرئيس التنفيذي للمركز، مؤكدة أن الذكاء الاصطناعي المسؤول يتم تصميمه واستخدامه لتمكين المؤسسات والمنظمات والشركات والموظفين من التأثير بشكل عادل ومسؤول على العملاء والمجتمعات، حيث خلق فرصاً وأوجد حلولاً مبتكرة وغير مسبوقة، ولكنه جلب أيضاً مسؤوليات كبيرة ومخاطر كثيرة.
وأوضح الدكتور سعيد الظاهري أن الحكومات والدول والمنظمات والمؤسسات أصبحت مطالبة بضرورة إعادة النظر ومراجعة أنظمة وتطبيقات الذكاء الاصطناعي، لا سيما بعد أن أصبح الذكاء الاصطناعي جزءاً جوهرياً من تطوير الحلول ولديه القدرة على المساعدة في مواجهة بعض أصعب التحديات والعقبات التي يواجهها العالم، فيما يجلب في الوقت نفسه الكثير من المخاطر التي يجب معالجتها من أجل الحصول على الثقة اللازمة في هذه الأنظمة.
وبين أن التطور الهائل الذي يشهده الذكاء الاصطناعي وعلم الخوارزميات والحواسيب يحتم التأكد من مدى حيادية ومسؤولية تطبيقات الذكاء الاصطناعي، وذلك يتم عبر تكاتف الجهود بين الدول والمتخصصين والمطورين والباحثين والمستخدمين أيضاً، للتأكيد على حيادية ودقة الأنظمة والتطبيقات.