نافذة على العالم

أخبار التكنولوجيا : البنتاجون تعمل على تقنية لمنع آلات القتل بالذكاء الاصطناعى من الانحراف

الجمعة 5 أبريل 2024 01:50 صباحاً

انتبه مسؤولو البنتاجون إلى خطر "الفئات الفريدة من نقاط الضعف في الذكاء الاصطناعي أو الأنظمة المستقلة"، والتى يأملون أن تتمكن الأبحاث الجديدة من إصلاحها، وتم تكليف البرنامج، المسمى ضمان قوة الذكاء الاصطناعى ضد الخداع (GARD)، منذ عام 2022 بتحديد كيفية التلاعب بالبيانات المرئية أو مدخلات الإشارات الإلكترونية الأخرى للذكاء الاصطناعى من خلال الإدخال المحسوب للضوضاء.


ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، أجرى علماء الكمبيوتر مع أحد مقاولى الدفاع في GARD تجربة تصحيحات مصممة للأنظمة القائمة على الذكاء الاصطناعي عند عمل معرفات مزيفة.


كما أوضح أحد كبار المسؤولين في البنتاجون الذي يدير البحث، "يمكنك بشكل أساسي، عن طريق إضافة ضوضاء إلى صورة أو جهاز استشعار، كسر خوارزمية التعلم الآلى النهائية".


وتأتى هذه الأخبار فى الوقت الذى أدت فيه المخاوف من بناء روبوتات قاتلة إلى وضع قواعد أكثر صرامة للذكاء الاصطناعى للجيش الأمريكى، والتى تنص على ضرورة الموافقة على جميع الأنظمة قبل النشر.


وأضاف المسؤول مات توريك، نائب مدير مكتب الابتكار المعلوماتى التابع لوكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA): "يمكنك أيضًا، من خلال معرفة تلك الخوارزمية، إنشاء هجمات يمكن تنفيذها فعليًا".


من الناحية الفنية، من الممكن "خداع" خوارزمية الذكاء الاصطناعي لارتكاب أخطاء حرجة في المهام، مما يجعل الذكاء الاصطناعى يخطئ فى التعرف على مجموعة متنوعة من التصحيحات أو الملصقات المنقوشة لجسم مادى حقيقى غير موجود بالفعل.


على سبيل المثال، يمكن أن يخطئ الذكاء الاصطناعى فى تعريف حافلة مكتظة بالمدنيين على أنها دبابة، ويمكن أن تؤدي تكتيكات "الضوضاء" الرخيصة والخفيفة الوزن إلى قيام الذكاء الاصطناعي العسكري الحيوي بتصنيف المقاتلين الأعداء بشكل خاطئ على أنهم حلفاء، والعكس صحيح، خلال مهمة حرجة.


أظهرت عمليات تدقيق البنتاجون أن الباحثين في برنامج GARD ذو الميزانية المتواضعة أنفقوا 51000 دولار فى التحقيق فى تكتيكات الضوضاء المرئية والإشارات منذ عام 2022.


يتضمن ما هو عام من أعمالهم دراسة أجريت عامى 2019 و2020 توضح كيف يمكن تفسير الضوضاء البصرية، التي يمكن أن تبدو مجرد زينة أو غير مهمة للعين البشرية، على أنها جسم صلب بواسطة الذكاء الاصطناعي.


تمكن علماء الكمبيوتر بالتعاون مع شركة MITRE Corporation، وهي شركة مقاولات دفاعية، من إحداث ضوضاء بصرية ظنها الذكاء الاصطناعي خطأً على أنها تفاح على رف متجر بقالة، أو حقيبة متروكة في الخارج، وحتى أشخاص.


وبينما يعتقد البنتاجون أن التغييرات في تصميم استجابة الذكاء الاصطناعى للضوضاء يجب أن تريح عقول الجمهور، قال البعض إنهم غير "مقتنعين" بالجهود المبذولة.


وقال مارك براكيل، مدير منظمة "معهد مستقبل الحياة" (FLI)، لصحيفة ديلي ميل في ينايرالماضي: "تحمل هذه الأسلحة خطرًا كبيرًا للتصعيد غير المقصود".


وأوضح أن الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن تسيء تفسير شيء ما، مثل شعاع ضوء الشمس، وقال براكيل إن النتيجة يمكن أن تكون مدمرة لأنه "بدون سيطرة بشرية ذات معنى، فإن الأسلحة التي تعمل بالذكاء الاصطناعي قد تسبب كوارث".


وتسعى وزارة الدفاع بقوة إلى تحديث ترسانتها باستخدام الطائرات بدون طيار والدبابات والأسلحة الأخرى التي تختار الهدف وتهاجمه دون تدخل بشري.

المصدر : أخبار التكنولوجيا : البنتاجون تعمل على تقنية لمنع آلات القتل بالذكاء الاصطناعى من الانحراف