نافذة على العالم

أخبار العالم : الذكاء الاصطناعي: هل يجب أن نخشى "الروبوتات القاتلة"؟

الأحد 17 نوفمبر 2024 07:27 صباحاً

نافذة على العالم - صدر الصورة، Getty Images

Article information
  • Author, سمية نصر
  • Role, بي بي سي نيوز عربي
  • قبل 10 دقيقة

ربما أول ما سيتبادر إلى أذهان كثيرين منا عند سماح مصطلح "الروبوتات القاتلة" أفلام الخيال العلمي والديستوبيا من قبيل سلسلة The Terminator التي تصور عالما بائسا يسيطر عليه الذكاء الاصطناعي بآلاته الفتاكة.

لكن هذا المصطلح بات يستخدم لوصف ما يعرف بـ "نظم الأسلحة المستقلة الفتاكة" التي تعمل بدون تحكم أو إشراف بشري، والتي أصبحت مثار جدل كبير، ما بين مؤيد يرى أنها ستخفض النفقات العسكرية وتقلل الخسائر المادية والبشرية، ومعارض يرى أنها تنطوي على إشكاليات أخلاقية وربما تؤدي إلى مزيد من القتل والدمار.

وتستخدم الجيوش تقنيات الذكاء الاصطناعي في عدة مجالات، منها تحليل البيانات لاستخراج معلومات استخبارية، والحروب السيبرانية - على سبيل المثال، استخدام تقنية التزييف العميق وروبوتات الذكاء الاصطناعي لنشر دعايات أو معلومات مضللة فضلا عن اختراق مواقع الإنترنت - وتحديد الأهداف، وتعقب الدبابات والصواريخ والمقاتلات. كما تستخدم في نظم الأسلحة المستقلة الفتاكة، والتي ربما تعد الأكثر إثارة للجدل من بين التطبيقات العسكرية لهذه التقنيات.

فما هي هذه النظم؟

يعكف عدد من الدول على تطوير أسلحة تحتوي على وظائف مستقلة باستخدام أحدث التقنيات، ولكن هذا النوع من الأسلحة مستخدم منذ عقود. النوع الأكثر شيوعا من هذه الأسلحة، وفق مكتب الأمم المتحدة لشؤون نزع الأسلحة، هو نظم الأسلحة الدفاعية، بما فيها الألغام المضادة للمَركبات والألغام المضادة للأفراد، التي بمجرد أن يتم تفعيلها، تعمل بشكل مستقل.

أما الأنظمة الأحدث فتوظف تقنيات تزداد تطورا وتعقيدا طوال الوقت، وتشمل أنظمة صواريخ أو أنظمة دفاع تستطيع بشكل مستقل رصد الأهداف والاشتباك معها. من الأمثلة الأخرى الطائرات المسيّرة "الانتحارية" أو "الكاميكازي" أو "المتفجرة" التي تحتوي على ذخيرة.

صدر الصورة، Getty Images

التعليق على الصورة، تقول كييف ووكالات استخبارات غربية إن روسيا استخدمت مسيّرات انتحارية (كاميكازي) إيرانية الصنع طراز "شاهد 136" في الحرب الأوكرانية

ما دور الذكاء الاصطناعي في تلك النظم؟

يُستخدم الذكاء الاصطناعي في تحديد الأهداف وتعقبها ومهاجمتها بدون إشراف بشري مباشر، ويحتوي بعضها على تقنيات استشعار ومعالجة تشمل تقنية تمييز الصور والوجوه ومعالجة إشارات الردار.

في الوقت الحالي، تستخدم بعض الجيوش أسلحة شبه مستقلة تسمح بتدخل عناصر بشرية إذا لزم الأمر. لكن ابتكار أسلحة فتاكة مستقلة تماما قادرة على العمل في المعارك بدون أي تدخل بشري يخضع حالياً للتجارب والتطوير في بلدان من بينها الولايات المتحدة والصين وروسيا.

اللوغاريتمات وتعلم الآلة

اللوغاريتمات أو الخوارزميات هي أساس الذكاء الاصطناعي، وهي عبارة عن مجموعة من الإرشادات أو القواعد التي يجب أن يستخدمها الكمبيوتر أو الآلة لإنجاز مهمة ما.

و"تعلم الآلة" هو أحد أنظمة الذكاء الاصطناعي الذي يبتكر إرشادات خاصة به سواء من خلال التدريب أو التفاعل مع البيئة بأسلوب التجربة والخطأ، بدلا من اتباع مجموعة من التعليمات المبرمجة مسبقا.

بعض نظم تعلم الآلة تواصل التعلم بينما نستخدمها في تنفيذ مهمة ما، وطبيعة هذه التقنية تعني أن نظم الذكاء الاصطناعي لا تستجيب بالطريقة ذاتها إذا أدخلت البيانات نفسها عدة مرات، ولذا يراها بعضهم نظما لا يمكن التنبؤ بتصرفاتها. كما أنها عادة ما تكون مثل "الصندوق الأسود": في كثير من الأحيان، من المستحيل أن يفسر المستخدم سبب أو كيفية توصل النظام إلى مخرجات أو نتائج ما بناء على ما أعطي من مدخلات، أي هناك غياب للشفافية.

هذه التقنية مستخدمة بالفعل في نظم الأسلحة المزودة بالذكاء الاصطناعي.

"مضاعفة القوة"

يقول المؤيدون إن استخدام الذكاء الاصطناعي يؤدي إلى تحسين عمليات الاستكشاف والتعرف على الأهداف بشكل كبير، ومن ثم تقليل حجم الدمار الذي تتعرض له البنية التحتية المدنية.

يستخدم الخبراء العسكريون الذين يؤيديون استخدام الذكاء الاصطناعي عبارة "force multiplier" ("مضاعِف للقوة")عند وصفه، لأنه سيمكن الجيوش من تحقيق النتائج التي تسعى إليها بعدد أقل من الجند أو المعدات، وهو ما قد يعني تكلفة أقل، ويتغلب على مشكلة ضعف الإقبال على التجنيد التي يواجهها بعض الدول، ومنها الولايات المتحدة.

كما أن نظم الأسلحة المستقلة، برأي المؤيدين، ستؤدي إلى توسيع ساحة المعركة أمام القوات وتسمح بالوصول إلى مناطق من الصعب الوصول إليها بالطرق التقليدية، وتقلل عدد الخسائر البشرية لأنها ستمكن القادة من تفادي إرسال الجنود والمقاتلين في مهام خطرة.

صدر الصورة، Getty Images

التعليق على الصورة، سرب من الطائرات المسيّرة القتالية ونظم قيادتها

ماذا يقول المعارضون؟

يفند المعارضون فكرة أنها تبعد الجنود عن مرمى الخطر، حيث يرون أن النتيجة ستكون سهولة اندلاع الحروب - فالكلفة البشرية من أهم أسباب عدم خوض القادة للحروب لما تتسبب فيه من سخط شعبي، وتخفيض الخسائر البشرية سيؤدي إلى سهولة اتخاذ قرار الحرب، ومن ثم المزيد من القتل والدمار في المجمل.

في تصريحات لـ بي بي سي عربي، يقول العالم البريطاني البروفيسور ستيوارت راسل أستاذ علوم الكمبيوتر بجامعة كاليفورنيا في بيركلي والمعروف بإسهاماته المتميزة في أبحاث الذكاء الاصطناعي إن ما يقال بشأن إبعاد الجنود عن مرمى الخطر "هو ما أسميه مغالطة الملكية الوحيدة، لأنك تتخيل أن لديك أنت وحدك أسلحة تعمل بالذكاء الاصطناعي والطرف الآخر ليس لديه هذه الأسلحة.. امتلاك أسلحة يتم التحكم فيها وتوجيهها عن بعد من قبل طرفي الحرب الأوكرانية أدى إلى معدلات خسائر بشرية مرتفعة للغاية، إذ إن القنابل الصغيرة التي تلقيها الطائرات المسيّرة تستطيع الوصول إلى أهداف موجودة حتى في الخنادق".

ويضيف أن "الهدف الرئيسي للأسلحة المستقلة الفتاكة، كما عكف مجتمع الذكاء الاصطناعي على القول مرارا وعلى مدى عقد من الزمان، هو أن تصبح (وربما يكون ذلك قد بدأ بالفعل) أسلحة دمار شامل رخيصة يمكن إنتاجها بقدرات مختلفة ونشرها بسهولة. ذلك لأنها مستقلة وليست بحاجة إلى إشراف بشري، ما يعني أن شخصا واحدا يستطيع أن يضغط على زر فيطلق مليون سلاح ليقتل مليون شخص".

ما يشير إليه راسل هو خطاب أعرب فيه كثير من الشخصيات البارزة في مجال العلوم والتكنولوجيا والتجارة والسياسة عن خوفهم من أن تؤدي تلك الأسلحة إلى سباق تسلح بالذكاء الاصطناعي يفضي إلى زعزعة الأمن والاستقرار. وجاء في الخطاب، الذي يعود إلى عام 2015 وكان من بين الموقعين عليه عالم الفيزياء البارز الراحل ستيفين هوكينغز وإيلون ماسك وستيف وزنياك المؤسس المشارك لشركة أبل، أن تلك الأسلحة قد تؤدي إلى تآكل الحواجز التي تقف أمام تنفيذ "مهام من قبيل عمليات الاغتيال وزعزعة استقرار البلدان وإخضاع الشعوب والقتل الانتقائي لجماعة عرقية بعينها".

ويرى راسل أن "تطوير نظم أسلحة مستقلة فتاكة يحل فيها الذكاء الاصطناعي محل البشر أمر حتمي"، وأن الحرب في أوكرانيا على سبيل المثال تسير في هذا الاتجاه بشكل متزايد. ويحذر من "إمكانية أن نصل إلى مرحلة تكون فيها مثل هذه الأسلحة متاحة لأي جنرال أو ديكتاتور أو إرهابي".

ويرى المعارضون كذلك أن اتخاذ القرار من خلال لوغاريتمات في تلك الأسلحة ربما يؤدي إلى التصعيد السريع وعدم القدرة بالتنبؤ بالنتائج (خاصية "الصندوق الأسود").

صدر الصورة، Getty Images

التعليق على الصورة، جنود أوكرانيون يختبرون طائرة مسيّرة انتحارية (كاميكازي) محملة بقنبلة صغيرة في سبتمبر/أيلول الماضي

إشكاليات أخلاقية

تطرح الأسلحة الفتاكة التي تعمل بالذكاء الاصطناعي تساؤلات تتعلق بالمحاسبة والمسؤولية. إذا كان قرار استخدام القوة المميتة يتخذه روبوت أو لوغاريتمات بدون تحكم أو إشراف مباشر من قبل عناصر بشرية، فمن سيتحمل المسؤولية أو يحَاسب إذا ما ارتُكبت انتهاكات ضد مدنيين على سبيل المثال؟

ويرى المعارضون أن اللوغاريتمات لا تستطيع فهم قيمة حياة الإنسان، ومن ثم لا ينبغي إعطاؤها القدرة على تقرير من ينبغي أن يعيش ومن ينبغي أن يموت. وأثناء مفاوضات أجريت حول الأسلحة المستقلة في جنييف عام 2019، قال الأمين العام للأمم المتحدة أنطونيو غوتيريش إن تطوير "آلات تتمتع بحرية التصرف والقدرة على إزهاق الأرواح بدون تدخل بشري أمر غير مقبول من الناحية السياسية وبغيض من الناحية الأخلاقية وينبغي حظره بموجب القانون الدولي"، وهو رأي تشاركه فيه العديد من المنظمات الحقوقية ومنظمات المجتمع الدولي في العالم، والتي شكلت تحالفا أطلق عليه اسم حملة "أوقفوا الروبوتات القاتلة".

مطالبات بوضع أطر تشريعية

في تقرير صدر في أغسطس /آب الماضي، طالب الأمين العام للأمم المتحدة غوتيريش بالتوصل بحلول عام 2026 إلى اتفاقية ملزمة بشأن "حظر نظم الأسلحة المستقلة الفتاكة التي تعمل بدون رقابة أو إشراف بشري والتي لا يمكن أن تُستخدم بشكل يضمن امتثالها للقانون الدولي".

وقد عُقدت أول قمة دولية لمناقشة الاستخدام المسؤول للذكاء الاصطناعي في أمستردام بهولندا عام 2023، ولكنها لم تتمخض عن أي اتفاق، واستضافت العاصمة الكورية الجنوبية سيول القمة الثانية في سبتمبر/أيلول الماضي، والتي انتهت بتبني 61 دولة لوثيقة بشأن الاستخدام المسؤول للذكاء الاصطناعي في المجال العسكري تشدد على أهمية تطبيق قدرات الذكاء الاصطناعي في هذا المجال بما يتفق والقوانين الدولية والوطنية ذات الصلة، والإبقاء على انخراط العنصر البشري في تطوير واستخدام الذكاء الاصطناعي في المجال العسكري. الوثيقة غير ملزمة قانونيا، وإن كان ينظر إليها مراقبون باعتبارها خطوة إيجابية في الاتجاه الصحيح.

يقول البروفيسور راسِل إنه "لتفادي تحول تلك الأسلحة إلى أسلحة دمار شامل، ينبغي على الأقل حظر الأسلحة المستقلة المضادة للأفراد".

صدر الصورة، Getty Images

التعليق على الصورة، نظم ناشطون من تحالف حملة "أوقفوا الروبوتات القاتلة" الذي يضم العشرات من منظمات المجتمع المدني من أكثر من 70 دولة مظاهرة في برلين عام 2019 للمطالبة بحظر الأسلحة المستقلة الفتاكة

تضاف الاعتراضات على "الروبوتات القاتلة" إلى سلسلة التحفظات والمخاوف بشأن ما قد تشكله تقنيات الذكاء الاصطناعي من مخاطر محتملة مع ازديادها ذكاء وازدياد اعتماد البشر عليها.

يقول البروفيسور راسِل إن الكثير من الخبراء يتوقعون أن يكون لدينا ذكاء اصطناعي ذو قدرات خارقة خلال العقد الحالي، إذ إن استثمارات ضخمة تصل إلى 200 مليار دولار وفق بعض التقديرات يجري ضخها في هذا المجال.

ويضيف: "الذكاء هو ما يعطي البشر السطوة في هذا العالم. أنظمة الذكاء الاصطناعي سوف تصبح أكثر ذكاء من البشر، ومن ثم أكثر قوة وسطوة، فأنى لنا أن نحتفظ بالسطوة إلى الأبد أمام كيانات أقوى منا بكثير؟"

الفيلسوف وعالم الرياضيات نيك بوستروم هو أحد مؤيدي استخدام التقنيات الحديثة لتحسين قدرات البشر المعرفية وإطالة أعمارهم، ولكنه يحذر في كتاباته وأبحاثه من المخاطر الوجودية المحتملة لتلك التقنيات إذا أسيء استخدامها. يرى بوستروم أن استخدام الذكاء الصناعي في الحروب والنزاعات أمر مثير للقلق، وأنه "من المؤسف أن البشرية تكرس جزءا كبيرا من مصادرها ومن قدرتها على الابتكار لاختراع سبل أكثر فاعلية للقتل والدمار".

ويضيف في تصريحات لـ بي بي سي عربي: "ينبغي أن نشعر بالخوف والإثارة في آن واحد. فالتطبيقات الإيجابية المحتملة في الطب والصناعة والعلم والترفيه وكثير من المجالات الأخرى تحمل في طياتها إمكانية تغيير أوضاع البشرية إلى الأفضل. إذا ما سارت الأمور على ما يرام، سوف ينظر البشر في المستقبل إلى وقتنا هذا ويهزون رؤوسهم في صدمة وذهول لأن الناس كانوا يعيشون في أوضاع كهذه التي نعيش فيها الآن".

بالتأكيد سيضع المتخوفون أكثر من خط تحت عبارة "إذا ما سارت الأمور على ما يرام".

المصدر : أخبار العالم : الذكاء الاصطناعي: هل يجب أن نخشى "الروبوتات القاتلة"؟

أخبار متعلقة :