قال الرئيس التنفيذي لـ«غوغل»، سوندار بيشاي، إن المخاوف من النتائج المؤذية للذكاء الاصطناعي (AI) «مشروعة جداً»، لكن في الوقت نفسه يجب الثقة بأن صناعة التكنولوجيا قادرة على تنظيم استخدامها بمسؤولية.

في مقابلة مع صحيفة «واشنطن بوست» الأميركية، أشار بيشاي إلى أن أدوات جديدة خاصة بالذكاء الاصطناعي تتطلّب من الشركات وضع حواجز أخلاقية والتفكير في كيف يمكن إساءة استخدام هذه التكنولوجيا.
وقال بيشاي إنه متفائل بشأن إيجابيات هذه التكنولوجيا على المدى الطويل، ولكن تقييمه للمخاطر المحتملة للذكاء الاصطناعي يلقى صدىً مع بعض انتقادات العاملين في هذا المجال من الذين يزعمون أنه قد يتم استخدام الـ«AI» لتمكين المراقبة الاقتحامية، الأسلحة القاتلة وانتشار التضليل الإخباري.
رؤساء آخرون لشركات تكنولوجيا، مثل مؤسس «سبايس إكس» و«تسلا» إيلون ماسك، قدموا توقعات أكثر خطورةً عن أن الذكاء الاصطناعي يمكن أن يُثبت أنه «أخطر بكثير من الصواريخ».
تكنولوجيا الذكاء الاصطناعي لدى «غوغل» تعزز مشاريع عدة، بدءاً من المشروع الصيني المثير للجدل وصولاً إلى فيديوهات الكراهية وتلك المؤامراتية على «يوتيوب» التابعة لها. مشكلةٌ وعد بيشاي بالتطرق لها السنة المقبلة.
تبع نداء بيشاي للتنظيم الذاتي في هذا المجال، شهادته في الكونغرس، حيث هدد محامون بفرض حدود على هذه التكنولوجيا في رد فعل على إساءة استخدامها، بما في ذلك على سلوك نشر المعلومات المضللة وخطاب الكراهية. بيشاي قال، في المقابلة مع الصحيفة، إن محامين حول العالم يحاولون فهم تأثيرات الذكاء الاصطناعي والحاجة المحتملة إلى التنظيم الحكومي: «أحياناً أقلق من كون الناس يقللون من شأن نطاق التغيير الممكن على المدى المتوسّط والطويل، وأعتقد أن الأسئلة معقّدة جداً». عمالقة آخرون في التكنولوجيا، بما فيهم «مايكروسوفت»، تبنّوا أخيراً تنظيم الذكاء الاصطناعي ــ من قِبل الشركات التي تخلقها والحكومات التي تراقب استخدامها.
وأوضح بيشاي أنه إذا تم التعاطي بشكل صحيح مع الذكاء الاصطناعي، يمكن أن تكون له إيجابيات عظيمة، بما في ذلك مساعدة الأطباء على اكتشاف أمراض عبر فحوصات آلية لبيانات الصحة. «تنظيم تكنولوجيا في أيامها الأولى أمرٌ صعب، ولكنني أعتقد أن الشركات عليها أن تنظّم ذلك بشكل ذاتيّ»، قال بيشاي. مضيفاً: «لهذا حاولنا جاهدين جمع مجموعة من مبادئ الذكاء الاصطناعي. ربما لم نحصل على كل شيء بشكل صحيح، ولكننا فكّرنا أنه مهم أن نبدأ بنقاش».
بيشاي، الذي انضم إلى «غوغل» عام 2004 وأصبح مديراً تنفيذياً بعد 11 سنة، وصف الذكاء الاصطناعي في كانون الثاني/ يناير الماضي بكونه «واحداً من الأشياء المهمة التي تعمل عليها الإنسانية»، وقال «إن بإمكانها أن تثبت أنها أكثر عمقاً للمجتمع الإنساني من الكهرباء أو النار».
وكانت «غوغل» قد واجهت انتقادات كبيرة في وقت سابق هذا العام، بسبب عملها على عقد مع وزارة الدفاع يشمل الذكاء الاصطناعي الذي يمكن بشكل آلي أن يشير (Tag) إلى السيارات، العمارات وأشياء أخرى لكي تستخدم في الدرونز العسكرية. بعض الموظفين استقالوا بسبب ما سمّوه «استفادة غوغل من بيزنس الحرب».
في حزيران/ يونيو الماضي، بعد إعلان «غوغل» أنها لن تجدد هذا العقد السنة المقبلة، كشف بيشاي مجموعة من مبادئ أخلاقية للذكاء الاصطناعي تضم ممنوعات عامة مفروضة على أنظمة التطوير التي يمكن أن يتم استخدامها للتسبّب بأذى، والإضرار بحقوق الإنسان أو تساعد في انتهاكات الرقابة حول العالم.
بيشاي قال إنه مع الوقت، وفيما تتقدم هذه التكنولوجيا: «أعتقد بأنه من المهم أن نفتح نقاشات حول الأخلاقيات والتحيّز والاستمرار في التقدم في الوقت نفسه».
وكان آلاف العاملين في التكنولوجيا، ومن بينهم ممثلون عن «غوغل»، قد وقّعوا في تموز/ يوليو الماضي على تعهّد ضد تطوير أدوات الذكاء الاصطناعي التي يمكن أن تبرمِج القتل.