قامت Google بإجراء واحدة من أكثر التغييرات الموضوعية على مبادئ الذكاء الاصطناعي منذ نشرها لأول مرة في عام 2018. في تغيير تم رصده بواسطة واشنطن بوست، قام عملاق البحث بتحرير المستند لإزالة التعهدات التي جعلتها واعدة "تصميم أو نشر" أدوات الذكاء الاصطناعي للاستخدام في الأسلحة أو تكنولوجيا المراقبة. في السابق ، تضمنت هذه الإرشادات قسمًا بعنوان "التطبيقات لن نتابعها ،" وهو غير موجود في الإصدار الحالي من المستند.
بدلاً من ذلك ، يوجد الآن قسم بعنوان "التنمية المسؤولة والنشر." هناك ، تقول Google إنها ستنفذ "الإشراف البشري المناسبة ، والخداع الواجب ، وآليات التغذية المرتدة للتوافق مع أهداف المستخدم والمسؤولية الاجتماعية ومبادئ القانون الدولي وحقوق الإنسان المقبولة على نطاق واسع."
هذا التزام أوسع بكثير من تلك المحددة التي قدمتها الشركة مؤخرًا بمثابة نهاية الشهر الماضي عندما كانت النسخة السابقة من مبادئ الذكاء الاصطناعى لها لا تزال حية على موقعها على الإنترنت. على سبيل المثال ، من حيث صلتها بالأسلحة ، قالت الشركة سابقًا إنها لن تصمم الذكاء الاصطناعي للاستخدام في "الأسلحة أو التقنيات الأخرى التي غرضها أو تنفيذها الرئيسي هو التسبب في أو تسهيل إصابة الناس مباشرة. ” أما بالنسبة لأدوات مراقبة الذكاء الاصطناعي ، قالت الشركة إنها لن تطور التكنولوجيا التي تنتهك "المعايير المقبولة دوليا."
عندما طلب التعليق ، أشار متحدث باسم Google Engadget إلى أ منشور المدونة نشرت الشركة يوم الخميس. في تكنولوجيا المعلومات ، يقول الرئيس التنفيذي لشركة DeepMind Demis Hassabis و James Manyika ، نائب الرئيس الأول للأبحاث والمختبرات والتكنولوجيا والمجتمع في Google ، ظهور الذكاء الاصطناعي باعتباره أ "التكنولوجيا للأغراض العامة" استلزم تغيير السياسة.
"نعتقد أن الديمقراطيات يجب أن تقود في تنمية الذكاء الاصطناعى ، مسترشدين بالقيم الأساسية مثل الحرية والمساواة واحترام حقوق الإنسان. ونحن نعتقد أن الشركات والحكومات والمنظمات التي تشارك هذه القيم يجب أن تعمل معًا لإنشاء الذكاء الاصطناعي الذي يحمي الناس ويعزز النمو العالمي ويدعم الأمن القومي ،" كتب الاثنان. "… تسترشد بمبادئنا من الذكاء الاصطناعى ، سنستمر في التركيز على أبحاث الذكاء الاصطناعي والتطبيقات التي تتماشى مع مهمتنا ، وتركيزنا العلمي ، ومجالات خبرتنا ، والبقاء متوافقًا مع مبادئ القانون الدولي وحقوق الإنسان دائمًا – تقييم محدد دائمًا العمل من خلال تقييم بعناية ما إذا كانت الفوائد تفوق المخاطر المحتملة بشكل كبير."
عندما نشرت Google مبادئ AI لأول مرة في عام 2018 ، فعلت ذلك في أعقاب مشروع مافن. لقد كان عقدًا حكوميًا مثيرًا للجدل ، لو قررت Google تجديده ، فإن الشركة كانت ستوفر برنامج AI إلى وزارة الدفاع لتحليل لقطات الطائرات بدون طيار. العشرات من موظفي Google ترك الشركة احتجاجا على العقد ، مع آلاف أخرى توقيع عريضة في المعارضة. عندما نشرت Google في النهاية إرشاداتها الجديدة ، قيل إن الرئيس التنفيذي لشركة Sundar Pichai أخبر الموظفين بأمله في أن يقفوا "اختبار الوقت."
ومع ذلك ، بحلول عام 2021 ، بدأت Google في متابعة العقود العسكرية مرة أخرى ، مع ما كان "عنيف" مُنَاقَصَة لعقد السحابة السحابية المشتركة في البنتاغون. في بداية هذا العام ، واشنطن بوست ذكرت أن موظفي Google عملوا مرارًا وتكرارًا مع وزارة الدفاع الإسرائيلية قم بتوسيع استخدام الحكومة لأدوات الذكاء الاصطناعي.
ظهرت هذه المقالة في الأصل على Engadget على https://www.engadget.com/ai/google-now-thinks-its-ok-to-use-ai-for-wears-and-surveillance-224824373.html؟src=rss