على إثر المشاكل المستمرة حول كيفية استيلاء شركات التكنولوجيا الكبيرة على بيانات الأفراد والشركات في تدريب خدمات الذكاء الاصطناعي ، تجتاح عاصفة بين مستخدمي Slack الذين يشعرون بالاستياء من طريقة تطلع هذه المنصة للدردشة التابعة لـ Salesforce برؤيتها للذكاء الاصطناعي.
\nتستخدم الشركة، مثل العديد من الشركات الأخرى، بيانات المستخدمين الخاصة بها لتدريب بعض خدمات الذكاء الاصطناعي الجديدة. ومع ذلك، يتضح أنه إذا كنت لا ترغب في استخدام بياناتك من قبل Slack ، فيتعين عليك إرسال بريد إلكتروني إلى الشركة للاختيار بالخروج.
\nوتكمن شروط هذا التعامل في ما يبدو كونها بسيطة وغير مفهومة في سياسة الخصوصية التي لم يكن أحد يولي انتباها. وكانت هذه الحالة مع Slack، حتى قام شخص منزعج بنشر نقاش حولها على موقع جماهيري للغاية بين المطورين ، ثم انتشر هذا المنشور... وهو ماحدث هنا.
\nبدأ كل شيء الليلة الماضية، عندما أشار ملاحظة على Hacker News إلى مسألة كيفية تدريب Slack لخدماتها الذكاء الاصطناعي، من خلال رابط مباشر إلى مبادئ الخصوصية الخاصة به، ولم يكن هناك حاجة لتعليق إضافي. وهذه المشاركة بدأت محادثة أطول - وما يبدو كخبر لمستخدمي Slack الحاليين - أن Slack يقوم باختيار المستخدمين تلقائيًا للموافقة على تدريبها على الذكاء الاصطناعي، وأنه يجب عليك إرسال بريد إلكتروني إلى عنوان معين للاختيار بالخروج.
\nأثارت هذه المشاركة على Hacker News عدة محادثات وتساؤلات على منصات أخرى: هناك منتج جديد بالاسم العام "Slack AI" يتيح للمستخدمين البحث عن الإجابات وتلخيص خيوط المحادثات، بين أشياء أخرى، ولكن لماذا لم يُذكر ذلك مرة واحدة على صفحة مبادئ الخصوصية بأي شكل، حتى لو كان الهدف واضحًا إذا كانت تنطبق عليها سياسة الخصوصية؟ ولماذا يشير Slack إلى 'نماذج عالمية' و 'نماذج ذكاء اصطناعي'؟
\nبين الناس الذين يشعرون بالارتباك حول أين يُطبق Slack مبادئ الخصوصية في تطويرها للذكاء الاصطناعي، والذي يندهشون ويزعجون مما يتعين عليهم إرسال بريد للاختيار بالخروج - في شركة تُعلن بشكل كبير عن تشجيعها لـ "تحكمك في بياناتك" - لا يبدو Slack بأفضل حال.
\nقد تكون الصدمة جديدة، ولكن التعابير ليست كذلك. وفقًا للصفحات على الأرشيف الإنترنت، كانت الشروط سارية المفعول منذ سبتمبر 2023 على الأقل. (لقد طلبنا من الشركة تأكيد ذلك.)
\nبموجب سياسة الخصوصية، يستخدم Slack بيانات العملاء بشكل خاص لتدريب "النماذج العالمية"، التي يستخدمها Slack لتشغيل توصيات القناة والإيموجي ونتائج البحث. يقول Slack لنا إن استخدامه للبيانات لديه حدود محددة.
\nقال متحدث باسم الشركة لـ TechCrunch: “يوجد لدى Slack نماذج ذكاء اصطناعي على مستوى البلاطة لأشياء مثل توصيات القناة والإيموجي ونتائج البحث. لا نبني أو ندرب هذه النماذج بطريقة تمكنها من تعلم أو حفظ أو تكرار جزء من بيانات العميل.” ومع ذلك، لا يبدو أن السياسة تعالج نطاق النطاق الشامل وخطط الشركة الأوسع لتدريب نماذج الذكاء الاصطناعي.
\nوفقًا للشروط، يقول Slack إنه إذا اختار العملاء عدم تدريب البيانات، سيرتاحون لـ “نماذج الذكاء الاصطناعي/تعلم الآلة المدربة على مستوى عالمي”. ولكن مرة أخرى، في هذه الحالة، ليس واضحًا لماذا تستخدم الشركة بيانات العملاء في المقام الأول لتشغيل ميزات مثل توصيات الإيموجي.
\nوقالت الشركة أيضًا إنها لا تستخدم بيانات العملاء لتدريب Slack AI.
\n“Slack AI هو إضافة تم شراؤها بشكل منفصل تستخدم نماذج لغة كبيرة (LLMs) ولكنها لا تدرب تلك LLMs على بيانات العملاء. يستخدم Slack AI LLMs المستضافة مباشرة داخل بنية Slack في Amazon Web Services ، بحيث تبقى البيانات الخاصة بالعميل داخل الشركة ولا تتم مشاركتها مع أي مزود LLM. يضمن هذا أن تبقى بيانات العميل تحت سيطرة تلك المؤسسة وحصريًا لاستخدام تلك المؤسسة،” قال متحدث باسم الشركة.
\nمن المرجح أن يتم معالجة بعض الارتباك في وقتٍ أقرب من التأخير. في رد على تعليق نقدي على Threads من قبل مهندس وكاتب جيرجلي أوروسز ، أقر مهندس Slack آرون ماور شركة الحاجة إلى تحديث الصفحة لعكس “كيف تلعب هذه المبادئ الخصوصية مع Slack AI”.
\nأضاف ماور أن تلك الشروط تمت كتابتها في الوقت الذي لم يكون فيه لدى الشركة Slack AI، وتعكس هذه القواعد عمل الشركة حول البحث والتوصيات. سيكون من الجدير بالنظر في الشروط لتحديثات المستقبل ، نظرًا للارتباك حول ما يقوم به Slack حاليًا مع الذكاء الاصطناعي.
\nالمشاكل في Slack تذكر بشكل حاسم أنه في عالم تطوير الذكاء الاصطناعي السريع الحركة ، يجب ألا تكون خصوصية المستخدم بعد النظرة الثانية ويجب أن توضح شروط خدمة الشركة بوضوح كيفية استخدام البيانات ومتى يتم استخدامها أو عدم استخدامها.