SEOUL، كوريا الجنوبية (AP) - قدمت الشركات الرائدة في مجال الذكاء الاصطناعي التزامًا جديدًا في قمة صغيرة يوم الثلاثاء بتطوير الذكاء الاصطناعي بشكل آمن، بينما وافق قادة العالم على بناء شبكة من معاهد السلامة المدعومة من قبل الجمهور للتقدم في البحث واختبار التكنولوجيا.
كانت غوغل وميتا و OpenAI من بين الشركات التي قدمت التزامات سلامة طوعية في قمة سيول للذكاء الاصطناعي، بما في ذلك إيقاف أنظمتها المتقدمة إذا لم يتمكنوا من السيطرة على المخاطر الأقصى.
تعتبر هذه الاجتماعات على مدى يومين استمرارًا لقمة السلامة للذكاء الاصطناعي التي جرت في نوفمبر في حديقة بليتشلي في المملكة المتحدة، وتأتي وسط مجموعة من الجهود التي تبذلها الحكومات والهيئات العالمية لتصميم حواجز مؤمنة للتكنولوجيا بسبب المخاوف من الأخطار التي تشكلها على حياة الناس اليومية وعلى الإنسانية.
سيقوم قادة من 10 دول والاتحاد الأوروبي بـ 'وضع فهم مشترك لسلامة الذكاء الاصطناعي ومواءمة أعمالهم في البحث عن الذكاء الاصطناعي'، وفقًا لبيان صدر عن الحكومة البريطانية، التي شاركت في تنظيم الحدث. وسيتضمن شبكة المعاهد السلامية تلك التي تم تأسيسها بالفعل من قبل المملكة المتحدة والولايات المتحدة واليابان وسنغافورة منذ اجتماع بليتشلي، كما ذكر البيان.
\nقال الأمين العام للأمم المتحدة أنطونيو غوتيريش في اللقاء الافتتاحي إنه بعد سبعة أشهر من اجتماع بليتشلي - نحن نشهد تقدمات تكنولوجية تعكس تغييرًا في الحياة ومخاطر جديدة - من تضليل الناس إلى المراقبة الجماعية إلى احتمالية الأسلحة الذاتية القاتلة".
\n\nوقال الأمين العام للأمم المتحدة في رسالة فيديو أنه يحتاج إلى أسوار حماية عالمية وحوار منتظم حول الذكاء الاصطناعي. "لا يمكننا أن نسير نائمين نحو مستقبل ديستوبي حيث يتحكم قوة الذكاء الاصطناعي في قليل من الناس - أو بالأحرى بواسطة خوارزميات لا تفهمها الإنسان،" قال.
\nالشركات الـ 16 المتخصصة في الذكاء الاصطناعي التي وقعت على التزامات السلامة تشمل أيضًا أمازون ومايكروسوفت وسامسونج واي بي إم و xAI وشركة ميسترال للذكاء الاصطناعي في فرنسا، وزيبو.اتش آي في الصين، و جي 42 من الإمارات العربية المتحدة. تعهدوا بضمان سلامة نماذجهم الأكثر تقدمًا في الذكاء الاصطناعي مع وعود بالحوكمة المسؤولة والشفافية العامة.
\nلم تكن هذه هي المرة الأولى التي قدمت فيها شركات الذكاء الاصطناعي التزامات سلامة طوعية تبدو جامحة. كانت أمازون وغوغل وميتا ومايكروسوفت من بين المجموعة التي وقّعت العام الماضي على الحواجز الطوعية التي تم توسيطها من قبل البيت الأبيض لضمان أن منتجاتهم آمنة قبل إطلاقها.
تأتي قمة سيول وهذه الشركات تقوم بإطلاق النسخ الأحدث من نماذجها للذكاء الاصطناعي.
يشمل التعهد بالسلامة نشر الأطر العامة التي تحدد كيفية قياس المخاطر المتعلقة بنماذجهم. في حالات الطوارئ حيث تكون المخاطر شديدة و "لا تُحتمل"، ستضطر شركات الذكاء الاصطناعي إلى الضغط على زر الإيقاف وإيقاف تطوير أنظمتهم ونماذجهم إذا لم يستطيعوا التخفيف من المخاطر.
منذ اجتماع المملكة المتحدة العام الماضي، تركزت صناعة الذكاء الاصطناعي "بشكل متزايد على القضايا الأكثر ضغطًا، بما في ذلك الإعلام اليساري والتضليل، وأمان البيانات، والانحياز والاحتفاظ بالبشر في الدورة،" وفقًا لعيدن جوميز الرئيس التنفيذي لـ Cohere، إحدى الشركات المتخصصة في الذكاء الاصطناعي التي وقعت على الاتفاق. "من الضروري مواصلة النظر في جميع المخاطر المحتملة، مع التركيز على الجهود التي من المحتمل أن تخلق مشاكل إذا لم يتم التعامل معها بشكل صحيح".
\nلقد كانت الحكومات في جميع أنحاء العالم يتسابقون لوضع تشريعات للذكاء الاصطناعي حتى وهو التكنولوجيا تحقق تقدمًا سريعًا ومستعدة لتحويل العديد من جوانب الحياة اليومية، من التعليم ومكان العمل إلى حقوق الطبع والنشر والخصوصية. هناك مخاوف من أن تقدمات الذكاء الاصطناعي يمكن أن تقضي على الوظائف، تنتشر الاعلام الضليل أو تُستخدم لإنشاء أسلحة حيوية جديدة.
هذا الاجتماع لهذا الأسبوع ليس سوى واحد من سلسلة من الجهود المبذولة على حوكمة الذكاء الاصطناعي. وافقت الجمعية العامة للأمم المتحدة على قرارها الأول بشأن الاستخدام الآمن لأنظمة الذكاء الاصطناعي، بينما عقدت الولايات المتحدة والصين محادثات عالية المستوى لأول مرة حول الذكاء الاصطناعي وقرار الاتحاد الأوروبي، الأولى في العالم، قانون الذكاء الاصطناعي مقرر للدخول حيز التنفيذ في وقت لاحق من هذا العام.
__
ساهم تشان في هذا التقرير من لندن. ساهم الكاتب الصحفي لوكالة الصحافة الأمريكية إديث ام. ليدير من الأمم المتحدة.