لإعطاء الأكاديميات النساء المتخصصات في مجال الذكاء الاصطناعي وغيرهن الوقت الذي يستحقنه - والذي تأخر وقته - في الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء الملهمات اللواتي ساهمن في ثورة الذكاء الاصطناعي. سننشر عدة مقالات خلال العام مع استمرار ازدهار الذكاء الاصطناعي، مسلطين الضوء على الأعمال الرئيسية التي غالبًا ما تظل غير معترف بها. اقرأ المزيد من الملفات الشخصية هنا.
براندي نونيك هي المديرة المؤسسة لمعهد CITRIS Policy Lab، الذي يتخذ مقره في جامعة كاليفورنيا بيركلي، والذي يدعم البحوث متعددة التخصصات للتعامل مع الأسئلة المتعلقة بدور التنظيم في تعزيز الابتكار. كما تشارك نونيك في إدارة مركز بيركلي للقانون والتكنولوجيا، حيث تقود مشاريع حول الذكاء الاصطناعي، والمنصات والمجتمع، ومبادرة هبي الذكاء الاصطناعي في جامعة كاليفورنيا، مبادرة لتدريب الباحثين على تطوير أطر حوكمة الذكاء الاصطناعي الفعالة والسياساتية.
في أوقات فراغها، تستضيف نونيك سلسلة فيديو وبودكاست، TecHype، التي تحلل السياسات والتشريعات التكنولوجية الناشئة، وتقدم رؤى حول الفوائد والمخاطر وتحديد الاستراتيجيات لاستغلال التكنولوجيا للخير.
سؤال وجواب
باختصار، كيف بدأت في مجال الذكاء الاصطناعي؟ ما الذي جذبك إلى هذا المجال؟
لقد عملت في مجال حوكمة الذكاء الاصطناعي المسؤولة لمدة تقارب عقد من الزمان. جذبني شغفي بالتكنولوجيا والسياسة العامة وتقاطعهما مع التأثيرات الاجتماعية إلى هذا المجال. يتغلغل الذكاء الاصطناعي بالفعل في حياتنا ويؤثر فيها بعمق - سواء للأفضل أو للأسوأ. من المهم بالنسبة لي المساهمة بشكل معنوي في قدرة المجتمع على استغلال هذه التكنولوجيا للخير بدلاً من الوقوف على الهامش.
ما هي الأعمال التي تفخر بها في مجال الذكاء الاصطناعي؟
أنا فخورة جدًا بشيئين احتفظنا بهما. أولاً، كانت جامعة كاليفورنيا أول جامعة ترسخ مبادئ الذكاء الاصطناعي المسؤول وهيكل حوكمة لضمان الحصول على التكنولوجيا الذكية بطريقة مسؤولة. نحن نأخذ التزامنا بخدمة الجمهور بطريقة مسؤولة على محمل الجد. كان لي شرف تشارك في رئاسة الفريق العامل الرئاسي لجامعة كاليفورنيا للذكاء الاصطناعي والمجلس الدائم للذكاء الاصطناعي الذي تلته. من خلال هذه الأدوار، تمكنت من الحصول على تجربة مباشرة في التفكير بأفضل الطرق لجعل مبادئ الذكاء الصناعي المسؤول فعالة لتأمين هيئة التدريس والموظفين والطلاب والمجتمعات الأوسع التي نخدمها. ثانيًا، أعتقد أنه من الأمور الحرجة أن يفهم الجمهور التكنولوجيات الناشئة وفوائدها ومخاطرها الحقيقية. قمنا بإطلاق TecHype، سلسلة فيديو وبودكاست توضح التكنولوجيات الناشئة وتقدم إرشادات حول التدخلات التقنية والسياسية الفعالة.
كيف تتحدى التحديات التي تواجه الصناعة التكنولوجية التي تهيمن عليها الذكور، وبالتالي صناعة الذكاء الاصطناعي التي تهيمن عليها الذكور؟
كن فضوليًا، ومستمرًا، وغير مرتبكًا بمتلازمة الانحراف. وجدت أن من الضروري أن أبحث عن من يعززون التنوع والشمول، وأن أقدم نفس الدعم للآخرين الذين يدخلون المجال. بناء مجتمعات شاملة في التكنولوجيا كان وسيلة قوية لتبادل التجارب والنصائح والتشجيع.
ما النصيحة التي تقدميها للنساء اللاتي يسعين للدخول إلى مجال الذكاء الاصطناعي؟
بالنسبة للنساء اللاتي يدخلن مجال الذكاء الاصطناعي، النصيحة التي أقدمها ثلاثية: اسعي لاكتساب المعرفة بلا كلل، حيث يعد الذكاء الاصطناعي مجالًا يتطور بسرعة. تبنَّي الشبكات، حيث ستفتح لك العلاقات أبواب الفرص وتقدم لك الدعم اللازم. ودافع عن نفسك وغيرك، حيث أن صوتك ضروري في تشكيل مستقبل شامل ومتساوٍ للذكاء الاصطناعي. تذكر، يثري وجهات نظرك الفريدة وتجاربك المجال ويدفع الابتكار.
ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي مع تطوره؟
أعتقد أن واحدة من أبرز القضايا التي تواجه الذكاء الاصطناعي مع تطوره هو عدم التمسك بدورات النقد الأخيرة. نرى ذلك الآن مع الذكاء الاصطناعي الإنتاجي. بالتأكيد، يقدم الذكاء الاصطناعي الإنتاجي تطورات هامة وسيكون له تأثير هائل - سواء كان جيدًا أو سيئًا. ولكن هناك أشكال أخرى من تعلّم الآلة في الاستخدام اليومي تتخذ قرارات تؤثر مباشرة على قدرة الجميع على ممارسة حقوقهم. بدلاً من التركيز على عجائب تعلم الآلة الأحدث، من الأهم أن نركز على كيفية وأين يتم تطبيق تعلم الآلة بغض النظر عن قدرته التكنولوجية.
ما هي بعض القضايا التي يجب على مستخدمي الذكاء الاصطناعي أن يكونوا على علم بها؟
يجب على مستخدمي الذكاء الاصطناعي أن يكونوا على علم بالقضايا المتعلقة بخصوصية البيانات وأمانها، وإمكانية وجود تحيز في اتخاذ القرارات بالذكاء الاصطناعي وأهمية الشفافية في كيفية عمل النظم الذكية واتخاذ القرارات. فهم هذه القضايا يمكنهم من المطالبة بأنظمة ذكاء اصطناعي أكثر مساءلة وعادلة.
ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟
بناء الذكاء الاصطناعي بشكل مسؤول ينطوي على دمج الاعتبارات الأخلاقية في كل مرحلة من مراحل التطوير والنشر. يشمل ذلك مشاركة أصحاب المصلحة المتنوعين، والمنهجيات الشفافة، واستراتيجيات إدارة التحيز، وتقييمات الأثر المستمرة. يعد التركيز على المصلحة العامة وضمان تطوير تقنيات الذكاء الاصطناعي بمراعاة حقوق الإنسان، والعدالة، والشمولية جوهريًا.
كيف يمكن للمستثمرين دفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟
هذا سؤال مهم جدًا! لفترة طويلة لم نتحدث صراحة عن دور المستثمرين. لا أستطيع التعبير بما فيه الكفاية عن مدى تأثير المستثمرين! أعتقد أن المثال "التنظيم يعيق الابتكار" مبالغ فيه وغالبًا ما يكون غير صحيح. بدلاً من ذلك، أعتقد بقوة أن الشركات الصغيرة يمكن أن تحظى بميزة متأخرة وتتعلم من الشركات الكبرى في مجال الذكاء الاصطناعي التي كانت تطوع الممارسات المسؤولة للذكاء الاصطناعي والإرشاد الناشئ من الأكاديمية ومنظمات المجتمع المدني والحكومة. المستثمرون لديهم القوة لتوجيه اتجاه الصناعة من خلال جعل ممارسات الذكاء الاصطناعي المسؤولة عاملًا أساسيًا في قرارات الاستثمار الخاصة بهم. يشمل ذلك دعم المبادرات التي تركز على معالجة التحديات الاجتماعية من خلال الذكاء الاصطناعي، وتعزيز التنوع والشمولية داخل قوى العمل الخاصة بالذكاء الاصطناعي، والدعوة إلى استراتيجيات حوكمة وتقنية قوية تساعد على ضمان استفادة تقنيات الذكاء الاصطناعي الجماعة بأرضية سليمة.