منذ إصدار «تشات جي بي تي» في أواخر عام 2022، تستمر أدوات الذكاء الاصطناعي (AI) في إدهاشنا يومياً. لكن هذه القفزة التكنولوجية المتسارعة بشكل كبير، بدأت تبعث قلقاً يشعر به مستخدموها من شركات وحكومات وأفراد، بسبب قدرتها على تسهيل صناعة المعلومات المضللة ونشرها، بالإضافة إلى مخاوف تتعلق بتنامي قدرات أنظمة الـ AI بشكل يقربها من المستويات البشرية.وانطلاقاً من هذه المخاوف، تعهّدت كبرى الشركات الرائدة في الذكاء الاصطناعي، أمس الثلاثاء بتقديم التزامات طوعية لضمان التطوير الآمن لهذه التكنولوجيا، خلال قمة «سيول لسلامة الذكاء الاصطناعي»، بالشراكة بين الحكومتين الكورية الجنوبية والبريطانية.
وستُجبر هذه الشركات على تحديد المخاطر التي «لا يمكن التغاضي عنها» والخطوات التي ستتبعها لضمان عدم تجاوز هذه السقوف، وفقاً للبيان. كما سيحدّد سقفاً واضحاً لهذه الالتزامات قبل القمة المقبلة في عام 2025 في فرنسا.
وقال رئيس الوزراء البريطاني، ريشي سوناك، في بيان صادر عن «المعهد البريطاني للعلوم والابتكار والتكنولوجيا»، إنّ الاتفاقية تتضمّن التزام شركات الذكاء الاصطناعي الرائدة في العالم بالشفافية والقابلية للمساءلة بشأن خططها لتطوير AI آمن.
والتزمت بهذه القواعد الأمنية 16 شركة، أبرزها «مايكروسوفت»، و«أمازون»، و«آي بي إم»، و«ميتا»، و«غوغل» و«أوبن إيه آي»، إلى جانب شركات صينية بما في ذلك Zhipu.ai المدعومة من «علي بابا»، و«تينسينت»، و«شاومي». فضلاً عن «سامسونغ» من كوريا الجنوبية، و«معهد الابتكار التكنولوجي» في الإمارات، وشركة «ميسترال» الفرنسية للذكاء الاصطناعي.