More

    “غوغل” تتراجع عن تعهدها عدم استخدام الذكاء الاصطناعي في الأسلحة والمراقبة

    أعلنت شركة “غوغل” عن تحديث مبادئها الأخلاقية بشأن الذكاء الاصطناعي، متراجعة عن التزامها السابق عدم استخدام التقنية في الأسلحة والمراقبة. وكانت الشركة قد وضعت في 2018 سياسات تستبعد تطبيقات الذكاء الاصطناعي التي “من المحتمل أن تسبب ضرراً شاملاً”، لكن هذا التعهد لم يعد موجوداً.

    لم تقدم “غوغل” إجابة مباشرة بشأن استخدام الذكاء الاصطناعي في المجالات العسكرية، لكنها أشارت في منشور لمدير الذكاء الاصطناعي ديميس هاسابيس ونائب الرئيس جيمس مانجيكا إلى أن المبادئ تم تحديثها نظراً الى الانتشار الواسع للتكنولوجيا، مؤكدين ضرورة أن تقود الدول الديموقراطية تطوير الذكاء الاصطناعي بما يضمن الأمن القومي.

    وأصبح موقف “غوغل” أكثر انسجاماً مع عمالقة التكنولوجيا مثل “مايكروسوفت” و”أمازون”، اللتين تربطهما شراكات مع البنتاغون، بينما دخلت شركات أخرى، مثل “أوبن إيه آي” و “أنثروبيك”، في تعاون مع مؤسسات عسكرية أميركية.

    وأثار هذا التغيير انتقادات، بحيث اعتبر بعض الباحثين أن المبادئ الأخلاقية السابقة لم تكن ملزمة، مشيرين إلى أن “غوغل” سبق أن خضعت لضغوط حكومية بشأن قضايا الذكاء الاصطناعي. كما يعيد هذا القرار فتح ملف احتجاجات سابقة لموظفي “غوغل” ضد التعاون مع البنتاغون في مشروع “مافن”، وكذلك رفض بعضهم عقود الحوسبة السحابية مع الاحتلال الصهيوني.

    تأتي هذه التطورات وسط توتر جيوسياسي بين الولايات المتحدة والصين، إذ أصبحت تقنيات الذكاء الاصطناعي جزءاً من المنافسة الاستراتيجية بين القوتين العظميين.

    Latest articles

    spot_imgspot_img

    Related articles

    spot_imgspot_img