يوئيل روث، الذي كان سابقًا رئيس الثقة والسلامة في تويتر، وهو الآن في ماتش، يعبر عن مخاوفه بشأن مستقبل الويب الاجتماعي المفتوح وقدرته على مكافحة المعلومات المضللة، والبريد العشوائي، والمحتوى غير القانوني الآخر، مثل المواد المتعلقة بإساءة معاملة الأطفال الجنسية (CSAM). في مقابلة حديثة، أعرب روث عن قلقه بشأن نقص أدوات الاعتدال المتاحة للفيدرية – الويب الاجتماعي المفتوح الذي يتضمن تطبيقات مثل ماسوودون، وثريدز، وبيكسلفيد، وغيرها، بالإضافة إلى منصات مفتوحة أخرى مثل بلو سكاى.
كما تذكر لحظات رئيسية في الثقة والسلامة في تويتر، مثل قرارها بحظر الرئيس ترامب من المنصة، وانتشار المعلومات المضللة من قبل مزارع الروبوت الروسية، وكيف وقع مستخدمو تويتر، بما في ذلك الرئيس التنفيذي جاك دورسي، فريسة للروبوتات.
في البودكاست revolution.social مع @Rabble، أشار روث إلى أن الجهود المبذولة لبناء مجتمعات عبر الإنترنت تديرها الديمقراطيات بشكل أكبر عبر الويب الاجتماعي المفتوح هي أيضًا تلك التي تملك أقل الموارد عندما يتعلق الأمر بأدوات الاعتدال.
“… عند النظر إلى ماسوودون، وعند النظر إلى خدمات أخرى مبنية على بروتوكول ActivityPub، وعند النظر إلى بلو سكاى في أيامه الأولى، ثم النظر إلى ثريدز عندما بدأت ميتا بتطويره، ما رأيناه هو أن العديد من الخدمات التي كانت تميل بقوة إلى السيطرة المجتمعية أعطت مجتمعاتها أقل الأدوات التقنية لتكون قادرة على إدارة سياساتها”، قال روث.
كما رأى “تراجعًا كبيرًا” في الويب الاجتماعي المفتوح عندما يتعلق الأمر بالشفافية وشرعية القرار التي كانت تمتلكها تويتر في السابق. بينما، يمكن القول، أن الكثيرين في ذلك الوقت اختلفوا مع قرار تويتر بحظر ترامب، أوضحت الشركة مبرراتها للقيام بذلك. الآن، الشركات المقدمة لوسائل التواصل الاجتماعي قلقة جدًا بشأن منع العناصر السيئة من استغلالها لدرجة أنها نادرًا ما تشرح نفسها.
وفي الوقت نفسه، في العديد من المنصات الاجتماعية المفتوحة، لن يتلقى المستخدمون إشعارًا بشأن منشوراتهم المحظورة، وستختفي منشوراتهم ببساطة – لم يكن هناك حتى مؤشر للآخرين على أن المنشور كان موجودًا من قبل.
“لا ألوم الشركات الناشئة لكونها ناشئة، أو البرامج الجديدة على عدم احتوائها على جميع الميزات، ولكن إذا كانت النقطة الرئيسية من المشروع هي زيادة الشرعية الديمقراطية للحكم، وما فعلناه هو اتخاذ خطوة إلى الوراء في الحكم، إذًا، هل نجح هذا بالفعل؟” يتساءل روث.
حدث Techcrunch
سان فرانسيسكو
|
27-29 أكتوبر 2025
اقتصاديات الاعتدال
كما تناول القضايا المتعلقة باقتصاديات الاعتدال وكيف أن النهج الفيدرالي لم يكن مستدامًا بعد في هذا الجانب.
على سبيل المثال، كانت هناك منظمة تدعى IFTAS (ثقة وسلامة فيدرالية مستقلة) تعمل على بناء أدوات اعتدال للفيدرية، بما في ذلك تزويد الفيدرية بأدوات لمكافحة CSAM، لكنها نفدت من المال واضطرت إلى إغلاق العديد من مشاريعها في وقت سابق من عام 2025.
“رأينا ذلك قادمًا قبل عامين. كانت IFTAS ترى ذلك قادمًا. الجميع الذين يعملون في هذا المجال يتطوعون بشكل كبير، وهذا لا يستمر لفترة طويلة، لأنه في مرحلة ما، لدى الناس عائلات ويحتاجون إلى دفع الفواتير، وتتكاليف الحوسبة تتزايد إذا كنت بحاجة لتشغيل نماذج ML لاكتشاف أنواع معينة من المحتوى السيء”، أوضح. “هذا كله يصبح باهظًا، واقتصاديات هذا النهج الفيدرالي للثقة والسلامة لم تتوازن أبدًا. وفي رأيي، لا تزال كذلك.”
من ناحية أخرى، اختارت بلو سكاى توظيف مشرفين والتوظيف في الثقة والسلامة، لكنها تقتصر على الاعتدال في تطبيقها الخاص. بالإضافة إلى ذلك، يقدمون أدوات تسمح للناس بتخصيص تفضيلات اعتدالهم الخاصة.
“إنهم يقومون بهذا العمل على نطاق واسع. هناك بالطبع مجال للتحسين. أحب أن أراهم يكونوا أكثر شفافية. ولكن، في الأساس، هم يقومون بالأشياء الصحيحة”، قال روث. ومع ذلك، كلما زادت لا مركزية الخدمة، ستواجه بلو سكاى أسئلة حول متى تكون مسؤوليتها في حماية الفرد مقابل احتياجات المجتمع، كما أشار.
على سبيل المثال، مع الدوكسيغ، من الممكن أن شخصًا ما لن يرى أن معلوماته الشخصية تُنشر عبر الإنترنت بسبب كيفية تكوين أدوات اعتداله. لكن يجب أن تكون مسؤولية شخص ما تطبيق تلك الحمايات، حتى لو لم يكن المستخدم على التطبيق الرئيسي لبلو سكاى.
أين أرسم الخط على الخصوصية
مشكلة أخرى تواجه الفيدرية هي أن القرار لتفضيل الخصوصية يمكن أن يعيق محاولات الاعتدال. بينما حاولت تويتر عدم تخزين البيانات الشخصية التي لم تكن بحاجة إليها، إلا أنها لا تزال تجمع أمورًا مثل عنوان IP الخاص بالمستخدم، ومتى وصلوا إلى الخدمة، ومعرفات الأجهزة، وأكثر. لقد ساعدت هذه في الشركة عندما تحتاج إلى إجراء تحليل جنائي لشيء مثل مزرعة الترويج الروسية.
وفي الوقت نفسه، قد لا يقوم مسؤولو الفيدرية حتى بجمع السجلات الضرورية أو لن ينظروا إليها إذا كانوا يعتقدون أنها انتهاك لخصوصية المستخدم.
لكن الحقيقة هي أنه بدون بيانات، يصبح من الصعب تحديد من هو الروبوت الحقيقي.
قدم روث بعض الأمثلة من أيام تويتر الخاصة به، مشيرًا إلى كيف أصبحت موضة للمستخدمين الرد بكلمة “روبوت” على أي شخص يختلفون معه. يقول إنه أنشأ في البداية تنبيهًا واستعرض جميع هذه المنشورات يدويًا، فحصًا لمئات من حالات الاتهامات بالروبوت، ولم يكن أحد على حق. حتى مؤسس تويتر السابق والرئيس التنفيذي جاك دورسي وقع ضحية، حيث أعاد تغريد منشورات من ممثل روسي ادعى أنه كريستال جونسون، امرأة سوداء من نيويورك.
“الرئيس التنفيذي للشركة أعجب بهذا المحتوى، وعززه، ولم يكن لديه أي وسيلة لمعرفة كمستخدم أن كريستال جونسون كانت في الواقع قزمًا روسيًا”، قال روث.
دور الذكاء الاصطناعي
كان أحد المواضيع ذات الصلة للنقاش هو كيفية تغير الذكاء الاصطناعي للمنظر. أشار روث إلى بحث حديث من جامعة ستانفورد وجد أنه، في سياق سياسي، يمكن أن تكون النماذج اللغوية الكبيرة (LLMs) أكثر إقناعًا من البشر عندما تم ضبطها بشكل صحيح.
وهذا يعني أن الحل الذي يعتمد فقط على تحليل المحتوى ليس كافيًا.
بدلاً من ذلك، تحتاج الشركات إلى تتبع إشارات سلوكية أخرى – مثل إذا كان هناك كيان ما ينشئ حسابات متعددة، باستخدام الأتمتة للنشر، أو النشر في أوقات غير عادية تتوافق مع مناطق زمنية مختلفة، كما اقترح.
“هذه إشارات سلوكية تكون كامنة حتى في المحتوى المقنع حقًا. وأعتقد أن هنا يجب أن تبدأ”، قال روث. “إذا كنت تبدأ بالمحتوى، فأنت في سباق تسلح ضد النماذج الرائدة في الذكاء الاصطناعي وقد خسرت بالفعل.”
