دعت النمسا إلى بذل جهود جديدة لتنظيم استخدام الذكاء الاصطناعي في أنظمة الأسلحة التي يمكن أن تنتج ما يُسمى «الروبوتات القاتلة»، حيث استضافت مؤتمراً يهدف إلى إحياء المناقشات المتوقفة إلى حد كبير حول هذه القضية.

ومع التقدم السريع في تكنولوجيا الذكاء الاصطناعي، تقترب أنظمة الأسلحة التي يمكن أن تقتل دون تدخل بشري من أي وقت مضى، ما يفرض تحديات أخلاقية وقانونية تقول معظم البلدان إنها بحاجة إلى معالجتها قريباً.

وقال وزير الخارجية النمساوي ألكسندر شالنبرغ، يوم الاثنين، أمام اجتماع ضم المنظمات غير الحكومية والدولية إلى جانب مبعوثين من 143 دولة: «لا يمكننا أن ندع هذه اللحظة تمر دون اتخاذ إجراء، الآن هو الوقت المناسب للاتفاق على القواعد والمعايير الدولية لضمان السيطرة البشرية».

وقال في كلمته الافتتاحية للمؤتمر الذي يحمل عنوان «الإنسانية على مفترق الطرق» «على الأقل دعونا نتأكد من أن القرار الأعمق والأبعد، من يعيش ومن يموت، يبقى في أيدي البشر وليس في أيدي الآلات».

هل يستخدم الذكاء الاصطناعي في الأسلحة الآن؟

يتم استخدام الذكاء الاصطناعي بالفعل في ساحة المعركة، يقول دبلوماسيون إن الطائرات دون طيار في أوكرانيا مصممة لإيجاد طريقها الخاص إلى هدفها عندما تقطعها تكنولوجيا تشويش الإشارة عن مشغلها.

وقالت الولايات المتحدة هذا الشهر، إنها تدرس تقريراً إعلامياً يفيد بأن الجيش الإسرائيلي يستخدم الذكاء الاصطناعي للمساعدة في تحديد أهداف القصف في غزة.

وقال جان تالين، مبرمج برمجيات ومستثمر في مجال التكنولوجيا: «لقد رأينا بالفعل أن الذكاء الاصطناعي يرتكب أخطاء في الاختيار بطرق كثيرة، بدءاً من سوء التعرف على رأس الحكم الأصلع باعتباره كرة قدم، إلى وفيات المشاة الناجمة عن السيارات ذاتية القيادة غير القادرة على التعرف على المشي المخالف».

وأضاف: «يجب أن نكون حذرين للغاية بشأن الاعتماد على دقة هذه الأنظمة، سواء في القطاع العسكري أو المدني».

(رويترز)