حذَّر تقرير حديث من مخاطر استخدام البيانات الشخصية في تطبيقات الذكاء الاصطناعي دون ضوابط، مشيرا إلى أن ذلك قد يشكل انتهاكا للخصوصية.
ولفت التقرير الذي صدر عن لجنة شؤون التحول الرقمي في ملتقى أسبار تحت عنوان “ضوابط وقوانين استخدام المعلومات الخاصة في أنظمة الذكاء الاصطناعي” إلى أن استخدام المعلومات الحساسة في أنظمة الذكاء الاصطناعي يختلف عن غيرها من المعلومات، لذا يجب تحديد أعلى مستويات الحماية لهذه المعلومات بغض النظر عن شكلها، مع الأخذ بعين الاعتبار خصوصيتها وفقا للقوانين الوطنية والدولية.
وأوضح التقرير أن الذكاء الاصطناعي يشكل نقلة نوعية هامة في مجال التقنية، إلا أنه ينطوي في الوقت ذاته على العديد من التحديات، لا سيما ما يتعلق بإمكانية إساءة استخدام البيانات الشخصية وانتهاك الخصوصية، مما يتطلب وضع إطار تنظيمي وأخلاقي شامل لضبط استخداماته بما يصون الحقوق والحريات.
وأكد التقرير على ضرورة سن تشريعات خاصة، ووضع معايير وطنية ودولية ملزمة لتنظيم التعامل مع البيانات الشخصية المستخدمة في أنظمة وتطبيقات الذكاء الاصطناعي، مشدداً على وجوب مراعاة طبيعتها الحساسة التي تختلف عن البيانات العامة، وتوفير أقصى مستويات الحماية لها بغض النظر عن شكلها أو مصدرها.
كما أكد على ضرورة إطلاق حملات توعوية مكثفة حول مخاطر استخدام البيانات الشخصية في تطبيقات الذكاء الاصطناعي، وتبني إجراءات وقائية لحماية خصوصية الأفراد وحقوقهم، فضلا عن إنشاء هيئة وطنية معنية بالذكاء الاصطناعي تعمل على وضع الإطار التنظيمي والرقابي اللازم.
وخلص تقرير ملتقى أسبار إلى عدد من التوصيات أبرزها: تطوير المبادرات والتشريعات الدولية الخاصة بحماية المعلومات في مجال الذكاء الاصطناعي، والتأكيد على “الشفافية” في تطبيقات الذكاء الاصطناعي ومشاركة البيانات المستخدمة في تدريبها، بالإضافة إلى إنشاء مجلس وطني للذكاء الاصطناعي لوضع الأطر والضوابط اللازمة.
ويُعد التقرير واحداً من ثلاثة تقارير أصدرها ملتقى أسبار لإثراء موضوع الذكاء الاصطناعي الذي أصبح حديث الساعة، وقد سبق هذا التقرير تقريران تناولا جوانب أخرى مهمة من الذكاء الاصطناعي، حيث كان الأول بعنوان “الذكاء الاصطناعي والرعاية الصحية في المملكة ثورة المستقبل لصحة أفضل” بينما تناول التقرير الثاني موضوع “الذكاء الاصطناعي التوليدي وانعكاسه على التعليم والتدريب”.
للاطلاع على التقرير وتحميله: https://tinyurl.com/extvddvy