More

    عقد بـ200 مليون دولار مهدّد… البنتاغون استعمل الذكاء الاصطناعي لاعتقال مادورو

    كشفت مصادر مطّلعة أن نموذج الذكاء الاصطناعي “كلود” التابع لشركة Anthropic استُخدم ضمن عملية نفّذها الجيش الأميركي لاعتقال الرئيس الفنزويلي نيكولاس مادورو مطلع الشهر الماضي، في خطوة قد تشكّل مؤشراً إضافياً على توسّع اعتماد البنتاغون على نماذج الذكاء الاصطناعي في مهام بالغة الحساسية.

    وبحسب ما نقلت وول ستريت جورنال، فإن هذا الاستخدام المحتمل يطرح إشكاليات جدّية، لا سيما أن الإرشادات المعتمدة لنموذج “كلود” تحظر صراحة توظيفه في تسهيل أعمال العنف، أو تطوير الأسلحة، أو تنفيذ عمليات المراقبة.

    في المقابل، اكتفى متحدث باسم Anthropic بالقول إنه “لا يستطيع التعليق على ما إذا كان كلود، أو أي نموذج ذكاء اصطناعي آخر، قد استُخدم في عملية محدّدة، سواء كانت سرّية أو غير سرّية”.

    لكنه شدد في الوقت نفسه على أن “أي استخدام لكلود، سواء في القطاع الخاص أو من قبل جهات حكومية، يجب أن يلتزم بالكامل بسياسات الاستخدام التي تحكم كيفية نشره”، مؤكداً أن الشركة “تعمل عن كثب مع شركائها لضمان احترام هذه السياسات”.

    أما وزارة الدفاع الأميركية، فرفضت التعليق على المعلومات المتداولة.

    ووفق مصادر مطلعة، فإن مخاوف داخل Anthropic من كيفية استخدام “كلود” داخل البنتاغون دفعت مسؤولين في الإدارة الأميركية إلى البحث في احتمال إلغاء عقد مع الشركة تصل قيمته إلى نحو 200 مليون دولار.

    ويُذكر أن “أنثروبيك” تُعد أول شركة تطوّر نموذج ذكاء اصطناعي يُستخدم في عمليات سرّية لوزارة الدفاع الأميركية.

    وفي المقابل، رجّحت المصادر نفسها أن تكون أدوات ذكاء اصطناعي أخرى قد استُخدمت خلال العملية داخل فنزويلا في مهام غير سرّية، تشمل مجالات واسعة تبدأ من تلخيص وتحليل الوثائق ولا تنتهي عند التحكم بالطائرات المسيّرة الذاتية.

    وفي هذا السياق، كان الرئيس التنفيذي لشركة Anthropic داريو آمودي قد عبّر، إلى جانب عدد من كبار التنفيذيين في قطاع التكنولوجيا، عن قلقه العلني من القوة المتنامية لنماذج الذكاء الاصطناعي والمخاطر التي قد تفرضها على المجتمعات.

    وتميّز آمودي بدعوته الصريحة إلى تشديد التنظيم وفرض ضوابط صارمة للحد من الأضرار المحتملة لهذه التكنولوجيا، بحسب “وول ستريت جورنال”.

    وفي فعالية أُقيمت في كانون الثاني للإعلان عن تعاون البنتاغون مع شركة xAI، قال وزير الدفاع الأميركي بيت هيغسث إن الوزارة لن “تستخدم نماذج ذكاء اصطناعي لا تسمح بخوض الحروب”، في إشارة مباشرة إلى النقاشات الحادة التي دارت داخل الإدارة الأميركية مع شركة Anthropic حول طبيعة استخدام هذه النماذج.

    يأتي هذا التطور في وقت تتزايد فيه المخاوف العالمية من تسارع تطور الذكاء الاصطناعي واستخدامه خارج الأطر الأخلاقية والقانونية، ولا سيما في المجالات العسكرية والأمنية. وبينما تؤكد الشركات المطوّرة التزامها بسياسات صارمة، يزداد الضغط السياسي والدولي لفرض رقابة أشدّ على توظيف هذه التكنولوجيا، قبل أن تتحول من أداة دعم إلى عنصر حاسم في قرارات الحرب والسلم.

    Latest articles

    spot_imgspot_img

    Related articles

    spot_imgspot_img