مدونة الاستاذ الدكتور ايمان طارق محمد نجيب العلوي
الذكاء الاصطناعي سلاح ذو حدين في المجال النووي
أ.د. ايمان طارق العلوي | Prof. Dr. Iman Tarik Al-Alawy
02/05/2024 القراءات: 832
تفتح تكنولوجيات الذكاء الاصطناعي الأبواب لتقدُّم وابتكار لم يسبق لهما مثيل، ويواصل الذكاء الاصطناعي تحقيق التطورات الإيجابية التي نلمسها في جميع المجالات الطبية والتقنية وحتى في إدارة الكوارث والمناخ، إلا أن البشرية وعلى رأسها الخبراء في المجال النووي يزدادون تخوفا من الآيادي الخبيثة اذا مادخل الذكاء الاصطناعي المجال النووي وكذلك من الأخطاء الواردة.
ولن يكون القطاع النووي مستثنى من التحولات حيث من المرجَّح أن تبرُز فوائد الذكاء الاصطناعي في الكثير من الإجراءات والعمليات في المرافق النووية والإشعاعية، لكن الخبراء يحذرون من احتمال أن تؤدي التكنولوجيا إلى انقراض البشرية.
ويرى الخبراء أن التقدم السريع في مجال الذكاء الاصطناعي يحمل معه أيضاً في الوقت ذاته العديد من المخاطر وأعلنوا أن الذكاء الاصطناعي تهديد وجودي للبشرية لا يقل عن الحرب النووية، مؤكدين انه يجب أن نأخذ تلك التحذيرات بجدية بالغة، فالجهات الفاعلة الخبيثة يمكن أن تستخدمه لشن هجمات أكثر تعقيداً وموجَّهة بمزيد من الدقة، أو أن تستغله للإخلال بسلامة الشبكات والأنظمة والمعلومات الحساسة في المرافق النووية والإشعاعية.
من جانبها تعمل الوكالة الدولية للطاقة الذرية على تطوير تقنيات الذكاء الاصطناعي والتوعية بها وتطبيقها، وتدعم كذلك التدابيرالمضادة والدفاعات التي تتيح مواجهة الجهات الفاعلة الخبيثة.
وترتبط قوة الذكاء الاصطناعي ارتباطا عضويا بمتانة البيانات المستخدمة لتنميته ويمكن التلاعب بالأنظمة القائمة على الذكاء الاصطناعي لتعطي معلومات ونتائج خاطئة إذا لم تكن تحتوي على المدخلات الصحيحة. اذ تعتمد الفوائد التي يقدمها الذكاءالاصطناعي في المرافق النووية والاشعاعية اعتمادا كبيرا على الطريقة التي ينمى بها النظام.
ولا يزال ذلك عائقاً كبيراً أمام استخدام الذكاء الاصطناعي في مجال الأمن النووي. وعلى الرغم من التقدم الذي شهدته تكنولوجيا الذكاء الاصطناعي حديثاً، ليس من الممكن استخدامها بديلاً للبشر. فالحماية المادية، وحصر المواد النووية ومراقبتها، والقياسات المباشرة تستلزم تدخلاً بشرياً لأنها أنشطة أساسية في ضمان الأمن النووي.
وأحد التحديات المقترنة باستخدام الذكاء الاصطناعي في ما يخص الأمن النووي هو التمكُّن من فهم الطريقة التي ينتِج بها نموذج قائم على الذكاء الاصطناعي قرارات أو توقعات معيَّنة وسبب إنتاجه القرارات أو التوقعات بالتحديد.
حين يكون باستطاعة البشر فهم سبب القرارات أو التوقعات التي ينتِجها الذكاء الاصطناعي والقدرة على شرح المخرجات بشفافية – هما من أكبر المشاكل المرتبطة بنماذج الذكاء الاصطناعي. ومن الصعب في أحيان كثيرة فهم الطريقة التي تتوصل بها هذه النماذج إلى نتائجها. وبذلك، يصبح من الصعب أيضاً وضع الثقة بمخرجاتها وضمان سلامة هذه المخرجات. أن الوضع يزداد صعوبةً إلى حد بعيد عندما تُستخدم هذه النماذج محل أجهزة الاستشعار التي توفِّر قياسات مباشرة والخبرات البشرية المكتسبة على أساس الخصائص الفريدة لكل مرفق. ولا يصح عندئذ وضع الثقة بسلامة الأنظمة إلا إذا كان هناك فهم مسبق وشامل ومتقدم لخوارزميات الذكاء الاصطناعي يتيح معرفة الطريقة التي تُتخذ بها القرارات وسبب اتخاذها .
وستكون المسؤوليات الرئيسة لفرق الاستعداد هي تتبع مخاطر أنظمة الذكاء الاصطناعي المستقبلية والتنبؤ بها والحماية منها، وذلك بدءًا من قدرتها على إقناع البشر وخداعهم؛ كما هو الحال في هجمات التصيّد الاحتيالي، إلى قدراتها على توليد التعليمات البرمجية الضارة. فعلى سبيل المثال، “الكيميائية والبيولوجية والإشعاعية والنووية” بوصفها مجالات مثيرة للقلق عندما يتعلق الأمر بنماذج الذكاء الاصطناعي. لذلك نحن بحاجة إلى التأكد من أن لدينا الفهم والبنية التحتية اللازمين لسلامة أنظمة الذكاء الاصطناعي ذات القدرة العالية.
الذكاء الاصطناعي : القرارات و التوفعات : المرافق النووية والاشعاعية : ضمان الامن النووي
يجب تسجيل الدخول للمشاركة في اثراء الموضوع
مواضيع لنفس المؤلف
مواضيع ذات صلة