التصنيف: شاشوف تِك

  • ديب مايند تعتقد أن نموذج “جينيس 3” الجديد يمثل خطوة نحو الذكاء الاصطناعي العام (AGI)

    كشفت شركة جوجل ديب مايند عن جيني 3، أحدث نموذج عالمي قاعدي لديها يمكن استخدامه لتدريب وكلاء ذكيين عامين، وهو ما تصفه مختبر الذكاء الاصطناعي بأنه خطوة حاسمة نحو “الذكاء الاصطناعي العام”، أو الذكاء الشبيه بالبشر.

    قال شلومو فروختر، مدير الأبحاث في ديب مايند، خلال مؤتمر صحفي: “جيني 3 هو أول نموذج عالمي تفاعلي عام في الوقت الحقيقي”. “إنه يتجاوز النماذج العالمية الضيقة التي كانت موجودة من قبل. إنه ليس محددًا لأي بيئة معينة. يمكنه توليد عوالم واقعية وصور خيالية، وكل شيء بينهما.”

    لا يزال جيني 3 في مرحلة الاختبار البحثي وليس متاحًا للجمهور، ويت builds على سلفه جيني 2 (الذي يمكنه توليد بيئات جديدة للوكلاء) وعلى نموذج فيديو الجيل الأحدث لدى ديب مايند فيو 3 (الذي يقال إنه يمتلك فهمًا عميقًا للفيزياء).

    حقوق الصورة:جوجل ديب مايند

    بتحفيز نصي بسيط، يمكن لجيني 3 توليد عدة دقائق من البيئات التفاعلية ثلاثية الأبعاد بدقة 720 بكسل بمعدل 24 إطارًا في الثانية — وهو قفزة كبيرة مقارنة بـ 10 إلى 20 ثانية التي كان بإمكان جيني 2 إنتاجها. ويتميز النموذج أيضًا بـ “أحداث العالم القابلة للتحفيز”، أو القدرة على استخدام التحفيز لتغيير العالم الذي تم توليده.

    ربما الأهم من ذلك، أن محاكاة جيني 3 تبقى متسقة جسديًا بمرور الوقت، حيث يمكن للنموذج تذكر ما تم توليده سابقًا — قدرة يقول ديب مايند إن باحثيها لم يبرمجوا بشكل صريح في النموذج.

    قال فروختر إنه في حين أن لجيني 3 تأثيرات على التجارب التعليمية، والألعاب، أو نمذجة المفاهيم الإبداعية، فإن الفتح الحقيقي سيكون في تدريب الوكلاء على المهام العامة، وهو ما قال إنه ضروري للوصول إلى AGI.

    قال جاك باركر-هولدر، عالم أبحاث في فريق الانفتاح لدى ديب مايند، خلال المؤتمر: “نعتقد أن نماذج العالم هي المفتاح في الطريق إلى AGI، وبشكل خاص لوكلاء الجسد، حيث أن محاكاة سيناريوهات العالم الحقيقي تكون تحديًا بشكل خاص.”

    حدث تك كرانش

    سان فرانسيسكو
    |
    27-29 أكتوبر 2025

    حقوق الصورة:جوجل ديب مايند

    من المفترض أن جيني 3 مصمم لحل ذلك الاختناق. مثل فيو، إنه لا يعتمد على محرك فيزياء مشفر بشكل صارم؛ بدلاً من ذلك، تقول ديب مايند إن النموذج يعلم نفسه كيف يعمل العالم – كيف تتحرك الأشياء وتسقط وتتفاعل – من خلال تذكر ما قام بتوليده والتفكير على مدى زمني طويل.

    قال فروختر لتك كرانش في مقابلة: “النموذج يعتمد على التراجع الذاتي، مما يعني أنه يولد إطارًا واحدًا في كل مرة”. “يجب أن ينظر إلى الوراء في ما تم توليده سابقًا ليقرر ما سيحدث بعد ذلك. هذا جزء رئيسي من الهيكلية.”

    تلك الذاكرة، كما تقول الشركة، تضيف إلى الاتساق في العوالم المحاكية لجيني 3، مما يسمح له بتطوير فهم للفيزياء، مماثل لكيفية فهم البشر أن كأسًا يتأرجح على حافة الطاولة على وشك السقوط، أو أنه يجب عليهم الانحناء لتجنب جسم يسقط.

    يجدر بالذكر أن ديب مايند تقول إن النموذج لديه أيضًا القدرة على دفع الوكلاء الذكاء الاصطناعي إلى حدودهم – مما يجبرهم على التعلم من تجربتهم الخاصة، مثلما يتعلم البشر في العالم الحقيقي.

    كمثال، شاركت ديب مايند في اختبار جيني 3 مع إصدار حديث من وكيلها متعدد العوالم القابل للتعليم (SIMA)، مع التوجيه للقيام بمجموعة من الأهداف. في بيئة مستودع، طلبوا من الوكيل أداء مهام مثل “الاقتراب من ضاغط القمامة الأخضر اللامع” أو “المشي نحو رافعة الشوكة الحمراء المعبأة.”

    قال باركر-هولدر: “في كل الحالات الثلاث، يتمكن وكيل SIMA من تحقيق الهدف”. “إنه يتلقى فقط الإجراءات من الوكيل. لذا الوكيل يأخذ الهدف، ويرى العالم المحاكى من حوله، ثم ينفذ الإجراءات في العالم. جيني 3 يحاكي إلى الأمام، وحقيقة أنه قادر على تحقيق ذلك هو بسبب أن جيني 3 يبقى متسقًا.”

    حقوق الصورة:جوجل ديب مايند

    ومع ذلك، فإن جيني 3 له قيود. على سبيل المثال، بينما يدعي الباحثون أنه يمكنه فهم الفيزياء، فإن العرض التوضيحي الذي يظهر متزلجًا يتجه أسفل الجبل لم يعكس كيفية حركة الثلج بالنسبة للمتزلج.

    بالإضافة إلى ذلك، فإن نطاق الإجراءات التي يمكن أن يتخذها الوكيل محدود. على سبيل المثال، تسمح أحداث العالم القابلة للتحفيز بنطاق واسع من التدخلات البيئية، لكنها لا تتم بالضرورة من قِبل الوكيل نفسه. وما زال من الصعب نمذجة التفاعلات المعقدة بدقة بين عدة وكلاء مستقلين في بيئة مشتركة.

    يمكن لجيني 3 أيضًا دعم بضع دقائق فقط من التفاعل المستمر، بينما سيكون من الضروري ساعات للتدريب بشكل مناسب.

    ومع ذلك، يقدم النموذج خطوة مثيرة نحو تعليم الوكلاء لتجاوز التفاعل مع المدخلات، مما يسمح لهم بالتخطيط، الاستكشاف، البحث عن عدم اليقين، والتحسين من خلال التجربة والخطأ — وهو نوع من التعلم الذاتي المدفوع بالجسد الذي يقول الكثيرون إنه مفتاح الانتقال نحو الذكاء العام.

    قال باركر-هولدر: “لم نحصل بعد على لحظة Move 37 لوكلاء الجسد، حيث يمكنهم فعل إجراءات جديدة في العالم الحقيقي”، مشيرًا إلى اللحظة الأسطورية في مباراة Go لعام 2016 بين وكيل الذكاء الاصطناعي AlphaGo من ديب مايند وبطل العالم لي سيدول، التي لعب فيها Alpha Go حركة غير تقليدية رائعة أصبحت رمزية لقدرة الذكاء الاصطناعي على اكتشاف استراتيجيات جديدة تتجاوز فهم البشر.

    قال: “لكن الآن، يمكننا أن نستهل حقبة جديدة محتملة”.


    المصدر

  • روكو تطلق “هاودي”، خدمة بث خالية من الإعلانات مقابل 2.99 دولار

    تطلق شركة Roku خدمة بث اشتراك خالية من الإعلانات تسمى Howdy. تكلف الخدمة 2.99 دولارًا شهريًا وتتميز بمكتبة تحتوي على ما يقرب من 10,000 ساعة من المحتوى من شركائها، بما في ذلك Lionsgate وWarner Bros. Discovery وFilmRise، إلى جانب مجموعة مختارة من عناوين Roku الأصلية.

    تقول الشركة إن المشتركين سيتمكنون من مشاهدة عناوين مثل “Mad Max: Fury Road” و”The Blind Side” و”Weeds” و”Kids in the Hall”، بالإضافة إلى الكوميديا الرومانسية، الدراما الطبية، والكوميديا التي تعود إلى التسعينات وغيرها.

    قال مؤسس Roku ومديرها التنفيذي أنتوني وود في بيان صحفي: “يعد Howdy خدمة خالية من الإعلانات ومصممة لتكمل، وليس تنافس، الخدمات المميزة.”

    وتأتي هذه الخطوة بعد شهرين من دفع Roku 185 مليون دولار للاستحواذ على Frndly TV، وهي خدمة بث تقدم التلفاز المباشر والفيديو عند الطلب وDVR المعتمد على السحابة.

    ينضم Howdy إلى قناة Roku الخاصة بالشركة، وهي خدمة بث مجانية مدعومة بالإعلانات (FAST). أفاد تقرير حديث أن قناة Roku هي أكثر خدمة FAST شعبية، متفوقةً على المنافسين Tubi وPluto TV. تقول Roku إن أكثر من 125 مليون شخص يستخدمون المنصة يوميًا.

    ستكون القدرة الطبيعية للتوسع واحدة من المحركات الرئيسية لنمو Howdy – قالت الشركة في وقت سابق من هذا العام إنها تجاوزت 90 مليون أسرة تستخدم البث.

    أبلغت Roku الأسبوع الماضي عن نتائجها المالية للربع الثاني، حيث حققت نموًا في الإيرادات أفضل من المتوقع بنسبة 15%، حيث كانت ساعات البث على المنصة 35.4 مليار، بزيادة قدرها 5.2 مليار ساعة عن العام السابق.

    حدث Techcrunch

    سان فرانسيسكو
    |
    27-29 أكتوبر 2025


    المصدر

  • ترامب يقول إنه سيعلن عن رسوم على الرقاقات والشرائح الإلكترونية

    تستمر سنة الصناعة الإلكترونية في تقلباتها مع تطور كبير آخر.

    قال الرئيس دونالد ترامب في برنامج سكواك بوكس على قناة CNBC يوم الثلاثاء إن إدارته تخطط للإعلان عن رسوم جمركية على أشباه الموصلات والرقائق في أقرب وقت الأسبوع المقبل. ومع ذلك، تبقى تفاصيل هذه الرسوم غامضة.

    يمكن أن تتسبب مثل هذه الرسوم في حدوث اضطرابات كبيرة لشركات الأجهزة والذكاء الاصطناعي الأمريكية. عندما تم توقيع قانون شرائح الولايات المتحدة والعلوم في عام 2022 – الذي يوفر 52 مليار دولار في شكل دعم لتعزيز صناعة الرقائق المحلية – أنتجت الولايات المتحدة حوالي 10% فقط من الرقائق العالمية. على الرغم من هذا footprint التصنيعي الصغير، إلا أن أكثر من نصف الشركات العالمية في مجال أشباه الموصلات تتخذ من الولايات المتحدة مقراً لها.

    منذ ذلك الحين، تم إحراز بعض التقدم نحو تعزيز صناعة الرقائق المحلية. حصل كل من Intel وشركة تايوان لتصنيع أشباه الموصلات (TSMC) على تمويل من قانون شرائح الولايات المتحدة. كما التزمت TSMC بإنفاق “ما لا يقل عن” 100 مليار دولار على مصانع تصنيع الرقائق في الولايات المتحدة خلال السنوات الأربع المقبلة.

    لكن إنشاء مصانع تصنيع الرقائق يستغرق وقتًا. أعلنت Intel مؤخرًا أنها تؤجل بناء منشأتها في ولاية أوهايو لتصنيع الرقائق، مما يبرز مرة أخرى التحديات المتعلقة بتسريع الإنتاج.

    يأتي الإعلان عن الرسوم الجمركية بينما ينتظر القطاع قرار الإدارة بشأن القيود المفروضة على تصدير رقائق الذكاء الاصطناعي – القواعد التي تتحكم في البلدان التي يمكنها شراء أشباه الموصلات المتقدمة المستخدمة في أنظمة الذكاء الاصطناعي.

    ألغت إدارة ترامب رسميًا قواعد تصدير رقائق الذكاء الاصطناعي الخاصة بإدارة بايدن في مايو. وقد وضعت تلك القواعد نهجًا متعدد المستويات حسب الدولة لتقييد تصدير الرقائق استنادًا إلى مخاوف الأمن القومي. بعد ذلك، أصدرت إدارة ترامب خطة العمل الخاصة بالذكاء الاصطناعي في يوليو، والتي أكدت على حاجة الولايات المتحدة لتنفيذ قيود على تصدير الرقائق لكنها كانت خفيفة في التفاصيل حول كيف يمكن أن يبدو ذلك.

    حدث تك كرانش

    سان فرانسيسكو
    |
    27-29 أكتوبر 2025

    وفقًا لتقارير من سمفور نقلاً عن مصادر في الصناعة، فإن إدارة ترامب تناقش الآن ما إذا كان ينبغي عليها المضي قدمًا في خطتها لإلغاء واستبدال قواعد تصدير الذكاء الاصطناعي التي وضعها بايدن.

    لمزيد من المعلومات حول السنة المضطربة لصناعة أشباه الموصلات، قمنا بإعداد جدول زمني يتم تحديثه بانتظام لأخبار السوق منذ بداية عام 2025.


    المصدر

  • ليندا يكارينو تنضم إلى منصة التكنولوجيا الصحية eMed كمديرة تنفيذية بعد مغادرتها X

    دور ليندا يكارينو التالي بعد مغادرتها X كمديرة تنفيذية سيكون في دور رئيسي آخر في eMed Population Health، وهي شركة ناشئة في مجال الذكاء الاصطناعي تبني منصة تقنية للمرضى باستخدام GLP-1s.

    كانت يكارينو مديرة إعلانات لفترة طويلة في NBCUniversal لكنها رحلت للانضمام إلى X كمديرة تنفيذية لمدة عامين، حيث تمكنت من تحقيق تأثير إيجابي على نموذج عائدات الإعلانات المضطرب في الشبكة الاجتماعية، على الرغم من نهجها ومشتركتها مع إيلون ماسك في تقليل رقابة المحتوى.

    على الرغم من أن يكارينو ليس لديها خبرة في تقنيات الصحة، قالت eMed في بيان صحفي إنها سعت إليها بسبب “قدرتها التي لا يمكن إنكارها على التفاوض بشأن شراكات جديدة” — ومن المؤكد أن فترة عملها في X جعلتها مشهورة في عالم التكنولوجيا، مما جذب المزيد من الانتباه نحو الشركة الناشئة.

    سبق أن أنتجت eMed منصة تقنية مصممة للاستخدام مع اختبارات COVID-19 السريعة المنزلية، حيث توجه المستخدمين خلال عملية إجراء هذه الاختبارات بشكل صحيح. الآن تركز eMed على GLP-1s، وهي فئة من الأدوية مثل Ozempic، والتي يمكن استخدامها لإدارة الوزن وعلاج داء السكري من النوع الثاني.

    قالت يكارينو في بيان صحفي: “لكي تكون رائدًا في سوق الرعاية الصحية اليوم، يجب أن تتمتع الشركات بجرأة لا تقهر تسمح لها بالنمو، وأيضًا أن تكون جريئة بما يكفي للتقدم وإعادة تعريف صناعة بأكملها.” “نحن في وضع جيد للغاية لنكون ذلك القائد المتحمس، ساعين نحو هدفنا النهائي المتمثل في تحسين نتائج الرعاية الصحية العالمية من خلال خدماتنا ومنصاتنا الرائدة.”


    المصدر

  • واتساب يضيف ميزات جديدة للحماية من الاحتيال

    أعلنت شركة واتساب يوم الثلاثاء عن تقديم ميزات جديدة لمساعدة الأشخاص في اكتشاف عمليات الاحتيال على خدمة المراسلة. كما ذكرت الشركة أنها أغلقت أكثر من 6.8 مليون حساب واتساب مرتبط بمراكز عمليات احتيال تستهدف الناس في جميع أنحاء العالم.

    تم تصميم الميزات الجديدة لمساعدة في اكتشاف الاحتيالات في كل من محادثات المجموعات والأفراد على المنصة المملوكة لمتا.

    بالنسبة لمحادثات المجموعات، يقوم واتساب بإطلاق ميزة نظرة عامة على الأمان ستظهر عندما يقوم شخص ليس في قائمة جهات الاتصال الخاصة بك بإضافتك إلى مجموعة جديدة قد لا تعرفها. ستتضمن نظرة الأمان معلومات رئيسية عن المجموعة، إلى جانب نصائح للبقاء آمنًا.

    على سبيل المثال، سترى إذا كان الشخص الذي أضافك هو واحد من جهات الاتصال الخاصة بك، وإذا كان أي عضو في المجموعة هو أحد جهات الاتصال لديك.

    إذا قررت أنك قد تعرف المجموعة، يمكنك اختيار رؤية المحادثة للحصول على مزيد من السياق. في كلتا الحالتين، سيتم كتم الإشعارات من المحادثة حتى تحدد أنك تريد البقاء في المجموعة.

    مصادر الصورة:واتساب

    أما بالنسبة لمحادثات الأفراد، تشير واتساب إلى أن المحتالين قد يحاولون بدء محادثات معك في مكان آخر على الإنترنت قبل أن يطلبوا منك المراسلة على خدمات المراسلة الخاصة مثل واتساب. لحماية نفسك من هذه الخطة، تختبر التطبيق طرقًا جديدة لتنبيه الناس قبل بدء حديث مع شخص قد يحاول خداعهم.

    على سبيل المثال، إنها تعمل على تحذير المستخدمين عندما يبدأون محادثة مع شخص غير موجود في جهات الاتصال الخاصة بهم من خلال إظهار سياق إضافي عن من يتواصلون معه.

    كما شاركت واتساب معلومات حول كيفية تعاونها مع OpenAI لتعطيل جهود الاحتيال التي تتبع إلى مركز احتيال في كمبوديا.

    قالت واتساب في منشور مدونة: “تراوحت هذه المحاولات بين تقديم مدفوعات مقابل إعجابات وهمية إلى تجنيد الآخرين في مخطط هرم لاستئجار الدراجات، أو إغراء الناس للاستثمار في العملات الرقمية.”

    أوضحت واتساب: “كما أفادت OpenAI، استخدم المحتالون ChatGPT لتوليد الرسالة النصية الأولية التي تحتوي على رابط الى محادثة واتساب، ثم وجهوا الهدف بسرعة إلى تيليجرام، حيث تم تكليفهم بمهمة إعجاب بالفيديوهات على تيك توك. حاول المحتالون بناء الثقة في مخططهم من خلال مشاركة مقدار ما ‘كسبه’ الهدف نظريًا، قبل أن يطلبوا منهم إيداع أموال في حساب عملة مشفرة كالمهمة التالية.”

    تقول واتساب إن بإمكان المستخدمين حماية أنفسهم من الاحتيالات من خلال أخذ وقتهم قبل الرد للتفكير حول ما إذا كانت الرسالة تبدو كأنها مهمة مشروعة. ثم يجب عليهم التساؤل عما إذا كانت الطلبات منطقية وإذا كانوا يتعجلونهم في اتخاذ إجراء. إذا ادعوا أنهم صديق أو فرد من العائلة، فيجب استخدام وسيلة تواصل أخرى للتحقق من هويتهم.


    المصدر

  • يهدف قانون الذكاء الاصطناعي في الاتحاد الأوروبي إلى خلق بيئة تنافسية متساوية للابتكار في الذكاء الاصطناعي: إليك ما هو عليه

    لقد وصفت المفوضية الأوروبية قانون الذكاء الاصطناعي في الاتحاد الأوروبي، المعروف بقانون الذكاء الاصطناعي الأوروبي، بأنه “أول قانون شامل للذكاء الاصطناعي في العالم.” بعد سنوات من التحضير، أصبح هذا القانون تدريجيًا جزءًا من الواقع لـ450 مليون شخص يعيشون في 27 دولة تشكل الاتحاد الأوروبي.

    ومع ذلك، فإن قانون الذكاء الاصطناعي الأوروبي هو أكثر من مجرد مسألة أوروبية. إنه ينطبق على الشركات المحلية والأجنبية، ويمكن أن يؤثر على كل من مزودي ونشر أنظمة الذكاء الاصطناعي؛ تقتبس المفوضية الأوروبية أمثلة عن كيفية تطبيقه على مطور أداة فرز السير الذاتية وعلى بنك يقوم بشراء تلك الأداة. الآن، جميع هذه الأطراف لديها إطار قانوني يحدد أساس استخدامهم للذكاء الاصطناعي.

    لماذا يوجد قانون الذكاء الاصطناعي الأوروبي؟

    كما هو الحال مع التشريعات الأوروبية، يوجد قانون الذكاء الاصطناعي الأوروبي للتأكد من أن هناك إطار قانوني موحد ينطبق على موضوع معين عبر دول الاتحاد الأوروبي — والموضوع هذه المرة هو الذكاء الاصطناعي. الآن بعد أن أصبح التنظيم ساريًا، يجب أن “يضمن حرية الحركة، عبر الحدود، للسلع والخدمات القائمة على الذكاء الاصطناعي” دون تباينات محلية محددة.

    مع التنظيم في الوقت المناسب، يسعى الاتحاد الأوروبي إلى خلق بيئة تنافسية متكافئة عبر المنطقة وتعزيز الثقة، مما قد يخلق أيضًا فرصًا للشركات الناشئة. ومع ذلك، فإن الإطار الشائع الذي اعتمده ليس بالضرورة متساهلاً: على الرغم من المرحلة المبكرة نسبيًا من تبني الذكاء الاصطناعي على نطاق واسع في معظم القطاعات، يحدد قانون الذكاء الاصطناعي الأوروبي معايير مرتفعة لما يجب أن يفعله الذكاء الاصطناعي وما لا يجب أن يفعله لصالح المجتمع بشكل أوسع.

    ما هو هدف قانون الذكاء الاصطناعي الأوروبي؟

    وفقًا للمشرعين الأوروبيين، فإن الهدف الرئيسي من الإطار هو “تعزيز استخدام الذكاء الاصطناعي الموجه نحو الإنسان والموثوق مع ضمان مستوى عالٍ من حماية الصحة والسلامة والحقوق الأساسية كما هو منصوص عليه في ميثاق الحقوق الأساسية للاتحاد الأوروبي، بما في ذلك الديمقراطية، وسيادة القانون وحماية البيئة، لحماية من الآثار الضارة لأنظمة الذكاء الاصطناعي في الاتحاد، ودعم الابتكار.”

    نعم، هذا مليء بالتفاصيل، ولكنه يستحق التمحيص بعناية. أولاً، لأن الكثير سيعتمد على كيفية تعريفك لـ “الذكاء الاصطناعي الموجه نحو الإنسان” و “الموثوق.” وثانيًا، لأنه يعطي انطباعًا جيدًا عن التوازن الدقيق الذي يجب الحفاظ عليه بين الأهداف المتباينة: الابتكار مقابل الوقاية من الأضرار، بالإضافة إلى استخدام الذكاء الاصطناعي مقابل حماية البيئة. كما هو الحال دائمًا مع التشريعات الأوروبية، سيكون الشيطان في التفاصيل.

    كيف يوازن قانون الذكاء الاصطناعي الأوروبي أهدافه المختلفة؟

    لتوازن الوقاية من الأضرار مقابل الفوائد المحتملة للذكاء الاصطناعي، اعتمد قانون الذكاء الاصطناعي الأوروبي نهجًا قائمًا على المخاطر: حيث تم حظر عدد قليل من حالات الاستخدام “غير المقبولة”، وتم وضع مجموعة من الاستخدامات “عالية المخاطر” التي تتطلب تنظيمًا صارم، وتطبيق التزامات أخف على السيناريوهات “منخفضة المخاطر”.

    حدث تكنولوجيا كرانش

    سان فرانسيسكو
    |
    27-29 أكتوبر 2025

    هل دخل قانون الذكاء الاصطناعي الأوروبي حيز التنفيذ؟

    نعم ولا. بدأ تنفيذ قانون الذكاء الاصطناعي الأوروبي في 1 أغسطس 2024، لكنه سيصبح ساريًا فقط من خلال سلسلة من المواعيد النهائية المتدرجة للامتثال. في معظم الحالات، سيكون أيضًا ساريًا بشكل أسرع على المشاركين الجدد مقارنة بالشركات التي تقدم بالفعل منتجات وخدمات الذكاء الاصطناعي في الاتحاد الأوروبي.

    دخلت الموعد النهائي الأول حيز التنفيذ في 2 فبراير 2025، وركزت على فرض الحظر على عدد محدود من الاستخدامات المحظورة للذكاء الاصطناعي، مثل جمع بيانات الصور الوجوه من الإنترنت أو كاميرات المراقبة لبناء أو توسيع قواعد البيانات. سيأتي العديد من المواعيد الأخرى، ولكن ما لم يتغير الجدول، ستنطبق معظم الأحكام بحلول منتصف عام 2026.

    ما الذي تغير في 2 أغسطس 2025؟

    منذ 2 أغسطس 2025، ينطبق قانون الذكاء الاصطناعي الأوروبي على “نماذج الذكاء الاصطناعي العامة ذات المخاطر النظامية.”

    نماذج الذكاء الاصطناعي العامة هي نماذج ذكاء اصطناعي تم تدريبها باستخدام كمية كبيرة من البيانات، ويمكن استخدامها لمجموعة واسعة من المهام. هنا تأتي عنصر المخاطر. وفقًا لقانون الذكاء الاصطناعي الأوروبي، يمكن أن تأتي نماذج الذكاء الاصطناعي العامة مع مخاطر نظامية — “على سبيل المثال، من خلال خفض الحواجز لتطوير الأسلحة الكيميائية أو البيولوجية، أو مشاكل التحكم غير المقصودة على نماذج الذكاء الاصطناعي العامة المستقلة.”

    قبل الموعد النهائي، نشرت المفوضية الأوروبية إرشادات لمقدمي نماذج الذكاء الاصطناعي العامة، والتي تشمل كل من الشركات الأوروبية واللاعبين غير الأوروبيين مثل Anthropic وGoogle وMeta وOpenAI. ولكن بما أن هذه الشركات لديها بالفعل نماذج في السوق، سيكون لديها أيضًا حتى 2 أغسطس 2027 للامتثال، على عكس المشاركين الجدد.

    هل يمتلك قانون الذكاء الاصطناعي الأوروبي قوة قانونية؟

    يأتي قانون الذكاء الاصطناعي الأوروبي مع عقوبات أراد المشرعون أن تكون “فعالة، متناسبة، ورادعة” — حتى بالنسبة للاعبين العالميين الكبار.

    سيتم وضع التفاصيل من قبل دول الاتحاد الأوروبي، ولكن التنظيم يحدد الروح العامة — أن العقوبات ستختلف حسب مستوى المخاطر المعتبر — وكذلك الحدود لكل مستوى. تؤدي الانتهاكات على تطبيقات الذكاء الاصطناعي المحظورة إلى أعلى عقوبة تصل إلى “35 مليون يورو أو 7% من إجمالي العائد السنوي العالمي للعام المالي السابق (أيها الأعلى).”

    يمكن أن تفرض المفوضية الأوروبية أيضًا غرامات تصل إلى 15 مليون يورو أو 3% من العائد السنوي على مقدمي نماذج الذكاء الاصطناعي العامة.

    ما مدى سرعة التزام اللاعبين الحاليين؟

    يعد المبدأ التطوعي لمدونة الممارسات لنماذج الذكاء الاصطناعي العامة، بما في ذلك الالتزامات مثل عدم تدريب النماذج على المحتوى المسروق، مؤشرًا جيدًا على كيفية تفاعل الشركات مع قانون الإطار الاجتماعي حتى يُضطروا للقيام بذلك.

    في يوليو 2025، أعلنت Meta أنها لن توقع على مدونة الممارسات التطوعية لنماذج الذكاء الاصطناعي العامة التي تهدف إلى مساعدة مثل هؤلاء المزودين في الامتثال لقانون الذكاء الاصطناعي الأوروبي. ومع ذلك، أكدت Google بعد ذلك بقليل أنها ستوقع، رغم وجود تحفظات.

    تتضمن التوقيعات حتى الآن Aleph Alpha وAmazon وAnthropic وCohere وGoogle وIBM وMicrosoft وMistral AI وOpenAI، من بين آخرين. ولكن كما رأينا مع مثال Google، فإن التوقيع لا يعادل تأييدًا كاملًا.

    لماذا كانت (بعض) شركات التكنولوجيا تقاوم هذه القواعد؟ 

    بينما أعلنت في منشور مدونة أن Google ستوقع على مدونة الممارسات التطوعية لنماذج الذكاء الاصطناعي العامة، كان لرئيسها للشؤون العالمية، كينت والكر، تحفظات. “نظل قلقين من أن قانون الذكاء الاصطناعي والمدونة قد يبطئان تطوير ونشر الذكاء الاصطناعي في أوروبا”، كتب.

    كانت Meta أكثر راديكالية، حيث ذكر مسؤولها الكبير للشؤون العالمية، جويل كابلان، في منشور على LinkedIn أن “أوروبا تسير في الاتجاه الخطأ بشأن الذكاء الاصطناعي.” واصفًا تنفيذ الاتحاد الأوروبي لقانون الذكاء الاصطناعي بأنه “تجاوز”، صرح أن مدونة الممارسات “تintroduce عددًا من الشكوك القانونية لمطوري النماذج، بالإضافة إلى تدابير تتجاوز بكثير نطاق قانون الذكاء الاصطناعي.”

    أعربت الشركات الأوروبية أيضًا عن قلقها. كان أرثر مانش، الرئيس التنفيذي لشركة الذكاء الاصطناعي الفرنسية Mistral AI، جزءًا من مجموعة من الرؤساء التنفيذيين الأوروبيين الذين وقعوا رسالة مفتوحة في يوليو 2025 تدعو بروكسل إلى “إيقاف الساعة” لمدة عامين قبل أن تدخل الالتزامات الرئيسية لقانون الذكاء الاصطناعي الأوروبي حيز التنفيذ.

    هل سيتغير الجدول الزمني؟

    في أوائل يوليو 2025، استجابت الاتحاد الأوروبي سلبًا لجهود الضغط التي تدعو إلى وقف، قائلة إنها ستلتزم بجدولها الزمني لتنفيذ قانون الذكاء الاصطناعي الأوروبي. proceeded with the August 2, 2025 deadline as planned, and we will update this story if anything changes.


    المصدر

  • أوبن إيه آي تطلق نموذجين من نماذج الذكاء الاصطناعي “المفتوحة” للتفكير المنطقي

    أعلنت شركة OpenAI يوم الثلاثاء عن إطلاق نموذجين مفتوحين للذكاء الاصطناعي بوزن مفتوح وبقدرات مشابهة لسلسلة o. وكشفت الشركة أن كلا النموذجين متاحان للتنزيل مجانًا من منصة المطورين عبر الإنترنت، هوجينغ فيس، مشيرةً إلى أن النماذج تعد “حديثة” عند قياسها عبر عدة معايير لمقارنة النماذج المفتوحة.

    تأتي النماذج بحجمين: نموذج gpt-oss-120b الأكبر والأكثر قدرة الذي يمكن أن يعمل على وحدة معالجة الرسوميات Nvidia واحدة، ونموذج gpt-oss-20b الأخف وزناً الذي يمكن أن يعمل على جهاز كمبيوتر محمول للمستهلك ذا ذاكرة 16 جيجابايت.

    يعتبر هذا الإطلاق أول نموذج ‘مفتوح’ للغة من OpenAI منذ نموذج GPT-2، الذي تم إصداره قبل أكثر من خمس سنوات.

    في إحاطة إعلامية، قالت OpenAI إن نماذجها المفتوحة ستكون قادرة على إرسال استفسارات معقدة إلى نماذج الذكاء الاصطناعي في السحابة، كما ذكرت TechCrunch سابقًا. وهذا يعني أنه إذا لم يكن النموذج المفتوح قادرًا على إتمام مهمة معينة، مثل معالجة صورة، يمكن للمطورين ربط النموذج المفتوح مع إحدى نماذج الشركة المغلقة الأكثر قدرة.

    بينما قامت OpenAI بفتح مصدر نماذج الذكاء الاصطناعي في بداياتها، فضلت الشركة عمومًا نهج تطوير مغلق وملكية. وقد ساعدت هذه الاستراتيجية OpenAI في بناء عمل كبير يبيع الوصول إلى نماذجها عبر واجهة برمجة التطبيقات للمؤسسات والمطورين.

    ومع ذلك، قال الرئيس التنفيذي سام التمان في يناير إنه يعتقد أن OpenAI كانت “على الجانب الخطأ من التاريخ” فيما يتعلق بفتح مصدر تقنيّاتها. تواجه الشركة اليوم ضغوطًا متزايدة من مختبرات الذكاء الاصطناعي الصينية — بما في ذلك DeepSeek و Qwen من Alibaba و Moonshot AI — التي طورت العديد من النماذج المفتوحة الأكثر قدرة وشعبية في العالم. (بينما كانت Meta تهيمن سابقًا على مساحة الذكاء الاصطناعي المفتوح، إلا أن نماذج Llama AI الخاصة بها قد تراجعت في العام الماضي.)

    في يوليو، حثت إدارة ترامب أيضًا مطوري الذكاء الاصطناعي في الولايات المتحدة على فتح مصدر المزيد من التقنيات لتعزيز الاعتماد العالمي للذكاء الاصطناعي المتوافق مع القيم الأمريكية.

    حدث Techcrunch

    سان فرانسيسكو
    |
    27-29 أكتوبر 2025

    من خلال إصدار gpt-oss، تأمل OpenAI في كسب ود المطورين وإدارة ترامب على حد سواء، وكلاهما شهد صعود مختبرات الذكاء الاصطناعي الصينية إلى الصدارة في مجال المصدر المفتوح.

    قال سام التمان، الرئيس التنفيذي لشركة OpenAI في بيان تم مشاركته مع TechCrunch: “منذ البداية في عام 2015، كانت مهمة OpenAI هي ضمان AGI يعود بالنفع على جميع الإنسانية”. “لهذا الغرض، نحن متحمسون لأن يتوجه العالم نحو بناء مجموعة ذكاء اصطناعي مفتوحة تم إنشاؤها في الولايات المتحدة، بناءً على القيم الديمقراطية، ومتاحًة مجانًا للجميع ولصالح الجميع.”

    (الصورة بواسطة توموهيرو أوهسومي / جيتي إيمجز)حقوق الصورة:توموهيرو أوهسومي / جيتي إيمجز

    كيف أدت النماذج

    استهدفت OpenAI جعل نموذجها المفتوح رائدًا بين غيره من نماذج الذكاء الاصطناعي ذات الأوزان المفتوحة، وتزعم الشركة أنها حققت ذلك.

    على منصة Codeforces (المعروفة بأدواتها)، سجل نموذجا gpt-oss-120b و gpt-oss-20b 2622 و 2516 على التوالي، متفوقين على نموذج DeepSeek’s R1 بينما لم يؤديا كما هو متوقع مقابل o3 و o4-mini.

    أداء النموذج المفتوح لـ OpenAI على Codeforces (الائتمان: OpenAI).

    على اختبار “امتحان البشرية الأخير”، وهو اختبار تحدي مستند لأسئلة جماعية عبر مجموعة متنوعة من المواضيع (مع أدوات)، سجل gpt-oss-120b و gpt-oss-20b 19% و 17.3% على التوالي. وبالمثل، فإن هذا الأداء أقل من أداء o3 ولكنه يتفوق على النماذج المفتوحة الرائدة من DeepSeek و Qwen.

    أداء النموذج المفتوح لشركة OpenAI على HLE (الائتمان: OpenAI).

    ومن الجدير بالذكر أن نماذج OpenAI المفتوحة تخطئ بشكل أكبر بكثير من نماذجها الأخيرة للذكاء الاصطناعي، o3 و o4-mini.

    تزايدت الأخطاء في نماذج OpenAI الأخيرة للذكاء الاصطناعي، وقد ذكرت الشركة سابقًا أنها لا تفهم تمامًا السبب. في ورقة بيضاء، تقول OpenAI إن هذا “متوقع، حيث أن النماذج الأصغر تملك معرفة أقل بالعالم من النماذج الكبيرة الرائدة وتميل إلى أن تخطئ أكثر.”

    وجدت OpenAI أن gpt-oss-120b و gpt-oss-20b أخطأا في 49% و 53% من الأسئلة على PersonQA، المعيار الداخلي للشركة لقياس دقة معرفة النموذج عن الأشخاص. وهذا يزيد عن ثلاثة أضعاف معدل الأخطاء لنموذج o1 الخاص بشركة OpenAI، الذي سجل 16%، وأعلى من نموذج o4-mini الخاص بها، الذي سجل 36%.

    تدريب النماذج الجديدة

    تقول OpenAI إن نماذجها المفتوحة تم تدريبها بعمليات مشابهة لتلك المستخدمة في نماذجها الملكية. وتقول الشركة إن كل نموذج مفتوح يستفيد من مزيج من الخبراء (MoE) للوصول إلى عدد أقل من المعلمات لأي سؤال معين، مما يجعله يعمل بشكل أكثر كفاءة. بالنسبة ل gpt-oss-120b، الذي يحتوي على 117 مليار معلمة إجمالية، تقول OpenAI إن النموذج ينشط فقط 5.1 مليار معلمة لكل رمز.

    تقول الشركة أيضًا إن نموذجها المفتوح تم تدريبه باستخدام التعلم المعزز العالي الحساب (RL) – وهو عملية ما بعد التدريب لتعليم نماذج الذكاء الاصطناعي ما هو الصحيح وما هو الخطأ في البيئات المُحاكة باستخدام مجموعات كبيرة من وحدات معالجة الرسوميات Nvidia. وقد تم استخدام هذا أيضًا لتدريب سلسلة نماذج o لـ OpenAI، وللنماذج المفتوحة سلسلة تفكير مشابهة حيث تأخذ وقتًا وموارد حسابية إضافية للتفكير في إجاباتها.

    نتيجة لعملية ما بعد التدريب، تقول OpenAI إن نماذج الذكاء الاصطناعي المفتوحة لديها قدرة فائقة على تمكين وكلاء الذكاء الاصطناعي، وقادرة على استدعاء أدوات مثل البحث عبر الإنترنت أو تنفيذ كود بايثون كجزء من عملية التفكير. ومع ذلك، تقول OpenAI إن نماذجها المفتوحة نصية فقط، مما يعني أنها لن تكون قادرة على معالجة أو إنشاء صور أو صوت مثل نماذج الشركة الأخرى.

    تقوم OpenAI بإصدار gpt-oss-120b و gpt-oss-20b بموجب ترخيص Apache 2.0، الذي يُعتبر عمومًا من الأكثر مرونة. سيسمح هذا الترخيص للمؤسسات بتوليد إيرادات من نماذج OpenAI المفتوحة بدون الحاجة لدفع أو الحصول على إذن من الشركة.

    ومع ذلك، على عكس العروض المفتوحة بالكامل من مختبرات الذكاء الاصطناعي مثل AI2، تقول OpenAI إنها لن تقوم بإصدار بيانات التدريب المستخدمة في إنشاء نماذجها المفتوحة. لا يُعتبر هذا القرار مفاجئًا نظرًا لوجود عدة دعاوى قضائية نشطة ضد مزودي نماذج الذكاء الاصطناعي، بما في ذلك OpenAI، تُدعي أن هذه الشركات قامت بتدريب نماذجها بشكل غير ملائم على أعمال محمية بحقوق النشر.

    أجّلت OpenAI إطلاق نماذجها المفتوحة عدة مرات في الأشهر الأخيرة، جزئيًا لمعالجة مخاوف السلامة. بالإضافة إلى السياسات الشائعة للسلامة لدى الشركة، تقول OpenAI في ورقة بيضاء إنها أيضًا قامت بالتحقيق في ما إذا كان بإمكان الجهات السيئة ضبط نماذج gpt-oss لتكون أكثر فائدة في الهجمات الإلكترونية أو في إنشاء أسلحة بيولوجية أو كيميائية.

    بعد الاختبارات من OpenAI ومقيمين خارجيين، تقول الشركة إن gpt-oss قد يزيد بشكل طفيف من القدرات البيولوجية. ومع ذلك، لم تعثر على دليل على أن هذه النماذج المفتوحة يمكن أن تصل إلى عتبة “القدرة العالية” للخطر في هذه المجالات، حتى بعد ضبطها.

    بينما يبدو نموذج OpenAI أنه الأكثر تطورًا بين النماذج المفتوحة، يتطلع المطورون بشغف إلى إصدار DeepSeek R2، نموذجها القادم للذكاء الاصطناعي، بالإضافة إلى نموذج مفتوح جديد من مختبر السوبر انتليجانس الجديد لشركة Meta.


    المصدر

  • تنشر TMC دراسة الجدوى المبدئية لمشروع Nori-D للمعادن المتعددة

    أصدرت TMC ، وهي مطورة للمعادن الحرجة ، ملخص التقرير الفني لدراسة ما قبل الجدوى (PFS) فيما يتعلق بمشروع عقيدات النوري-D ، الموجود في منطقة Clarion Clipperton Zone (CCZ) في المحيط الهادئ.

    يعد هذا PFS ملحوظًا لأنه أول إعلان على الإطلاق من الاحتياطيات المعدنية المحتملة للعقيدات المتعددة المعدنية في أعماق البحار ، التي تم إعدادها في الامتثال للمادة الفرعية 1300 من SEC SK.

    بالإضافة إلى ذلك ، نشرت TMC تقييمًا أوليًا فيما يتعلق بالموارد المتبقية في كتل Nori و Toml داخل CCZ.

    تتبع هذه التقارير طلب TMC USA المقدم في أبريل 2025 للحصول على تصريح استرداد تجاري بموجب قانون موارد المعادن الصلبة في قاع البحر في الولايات المتحدة ، إلى جانب طلبين لترخيص الاستكشاف.

    يتزامن نشر هذه التقارير مع “استثمار استراتيجي” من كوريا زنك ، وهي شركة متورطة في صهر المعادن غير الحديدية.

    يقال إن هذه التطورات تؤكد على موقف TMC في استكشاف رواسب كبيرة غير متطورة للمعادن الحرجة.

    تعكس هذه الخطوة اهتمامًا متزايدًا بالإمكانات الاقتصادية والتنمية لمشروع NORI-D وسط جهود مستمرة لتعزيز سلاسل التوريد المعدنية الحرجة في الدول الأمريكية والولائية.

    وقال رئيس مجلس إدارة TMC والرئيس التنفيذي لشركة Gerard Barron: “يجب أن تمنح القيمة الحالية الصافية البالغة 23.6 مليار دولار من الدراستين المستثمرين فكرة أفضل عن الإمكانات الاقتصادية لإجمالي موردنا المقدر.

    “يأخذ PFS اقتصاديات Nori-D Project في منحنى الثقة ويحتوي على إعلان الاحتياطيات المعدنية-فهذه هي أول أكثر من 50 مليون طن مع مسار محتمل قابل للتطبيق تجاريًا للإنتاج ، مع متابعة المزيد مع تقدمنا في أعمال التخطيط الخاصة بنا.

    “سوف تستهدف خطة تطوير المشروع على مراحل الإنتاج الأولي من جوهرة خفية السفينة ، مع ما يقدر بنحو 113 مليون دولار من النفقات الرأسمالية التنموية لكل من TMC و Allseas. يتم استهداف الإنتاج الأول لـ Q4 [fourth quarter] 2027.

    “هذه PFS تقربنا خطوة واحدة من الإنتاج المسؤول ، وربما فتح الباب أمام مجموعات جديدة من رأس المال من المصادر الاستراتيجية والحكومية ، ويعزز قيادة TMC في هذه الصناعة الناشئة.”

    <!– –>

    جوائز التميز في تكنولوجيا التعدين – فوائد الدخول

    اكتساب الاعتراف الذي تستحقه! ال جوائز التميز في تكنولوجيا التعدين الاحتفال بالابتكار والقيادة والتأثير. من خلال الدخول ، يمكنك عرض إنجازاتك ، ورفع ملفك الشخصي في الصناعة ، ووضع نفسك بين كبار القادة الذين يقودون صناعة التقدم في الصناعة. لا تفوت فرصتك لتبرز – احصل على دخولك اليوم!

    رشح الآن



    المصدر

  • بعض الأشخاص يدافعون عن “Perplexity” بعد أن قامت “Cloudflare” بتسميته وإدانته

    عندما اتهمت Cloudflare محرك البحث القائم على الذكاء الاصطناعي Perplexity بسرقة المواقع بشكل سري يوم الاثنين، مع تجاهل طرق المحددة لمنعها، لم تكن هذه حالة واضحة من زاحف ويب للذكاء الاصطناعي خرج عن السيطرة.

    دافع كثير من الناس عن Perplexity. حيث argued بأن وصول Perplexity إلى المواقع رغم رغبات مالك الموقع، بينما هو مثير للجدل، يعد مقبولًا. وهذه مسألة من المؤكد أنها ستزداد مع تدفق وكلاء الذكاء الاصطناعي على الإنترنت: هل ينبغي معاملة وكيل يزور موقعًا نيابة عن مستخدمه مثل الروبوت؟ أم مثل إنسان يقوم بنفس الطلب؟

    تشتهر Cloudflare بتقديم خدمات الحماية من زحف الروبوتات وغيرها من خدمات الأمان لملايين المواقع. في الأساس، كانت حالة اختبار Cloudflare تتعلق بإعداد موقع جديد مع مجال جديد لم يتم زحفه من قبل أي روبوت، وإعداد ملف robots.txt الذي يحظر بشكل محدد زحف الروبوتات المعروفة لـ Perplexity، ثم طرح السؤال على Perplexity حول محتوى الموقع. وأجاب Perplexity على السؤال.

    وجد باحثو Cloudflare أن محرك البحث القائم على الذكاء الاصطناعي استخدم “متصفحًا عامًا يهدف إلى محاكاة Google Chrome على macOS” عندما تم حظر زاحف الويب الخاص به. نشر الرئيس التنفيذي لشركة Cloudflare، ماثيو برينس، البحث على X، كاتبًا: “بعض الشركات المعروفة بأنها ‘ذات سمعة طيبة’ تتصرف كما لو كانت هاكرز كوريين شماليين. حان الوقت لتسمية، وخجل، ومنعهم بشدة.”

    لكن كثير من الناس اختلفوا مع تقييم برينس بأن هذا كان سلوكًا سيئًا. حيث أشار من دافعوا عن Perplexity في مواقع مثل X وHacker News إلى أن ما بدا أن Cloudflare وثقته كان وصول الذكاء الاصطناعي إلى موقع عام محدد عندما طلب مستخدمه معلومات عن هذا الموقع المحدد.

    “إذا كنت كإنسان أطلب موقعًا، فعليّ أن أتمكن من رؤية المحتوى”، كتب شخص ما على Hacker News، مضيفًا، “لماذا يجب أن يكون وصول LLM إلى الموقع نيابة عني في فئة قانونية مختلفة عن متصفح Firefox الخاص بي؟”

    نفى المتحدث باسم Perplexity في وقت سابق لموقع TechCrunch أن تكون الروبوتات تخص الشركة، واصفًا منشور Cloudflare بأنه ترويج لمنتجات Cloudflare. ثم يوم الثلاثاء، نشرت Perplexity مدونة في دفاعها (وعمومًا ضد Cloudflare)، قائلة إن التصرف كان نتيجة خدمة طرف ثالث تستخدمها بين الحين والآخر.

    حدث Techcrunch

    سان فرانسيسكو
    |
    27-29 أكتوبر 2025

    لكن جوهر منشور Perplexity قدم جاذبية مشابهة لما فعله المدافعون عنها عبر الإنترنت.

    “الفرق بين الزحف التلقائي والاسترداد المدفوع من قبل المستخدم ليس فنيًا فحسب – بل يتعلق بمن يُسمح له بالوصول إلى المعلومات على الويب المفتوح”، جاء في المنشور. “تظهر هذه الجدل أن أنظمة Cloudflare غير كافية بشكل أساسي للتمييز بين المساعدين الذكاء الاصطناعي الشرعيين والتهديدات الفعلية.”

    اتهامات Perplexity ليست عادلة تمامًا أيضًا. أحد الحجج التي استخدمها برينس وCloudflare لاستدعاء أساليب Perplexity كانت أن OpenAI لا تتصرف بنفس الطريقة.

    “OpenAI هي مثال على شركة رائدة في الذكاء الاصطناعي تتبع هذه الممارسات الجيدة. إنها تحترم robots.txt ولا تحاول التهرب من توجيه robots.txt أو حظر الشبكة. ووكيل ChatGPT يقوم بتوقيع طلبات http باستخدام معيار Web Bot Auth الجديد المقترح”، كتب برينس في منشوره. 

    Web Bot Auth هو معيار مدعوم من Cloudflare يتم تطويره بواسطة مجموعة مهام هندسة الإنترنت، والتي تأمل في إنشاء طريقة تشفيرية لتحديد طلبات الويب من وكلاء الذكاء الاصطناعي.

    تأتي هذه المناقشة في الوقت الذي يعيد فيه نشاط الروبوتات تشكيل الإنترنت. كما ذكرت TechCrunch سابقًا، فإن الروبوتات التي تسعى لسرقة كميات هائلة من المحتوى لتدريب نماذج الذكاء الاصطناعي أصبحت تهديدًا، خاصة للمواقع الأصغر. 

    لأول مرة في تاريخ الإنترنت، يتجاوز نشاط الروبوتات حاليًا نشاط البشر على الإنترنت، حيث تشكل حركة مرور الذكاء الاصطناعي أكثر من 50%، وفقًا لتقرير Imperva عن الروبوتات الضارة الصادر الشهر الماضي. معظم تلك النشاطات تأتي من LLMs. لكن التقرير وجد أيضًا أن الروبوتات الخبيثة تشكل الآن 37% من إجمالي حركة الإنترنت. هذا النشاط يشمل كل شيء من السروقات المستمرة إلى محاولات الدخول غير المصرح بها.

    حتى LLMs، كان الإنترنت يقبل عمومًا أنه يمكن ويجب على المواقع حظر معظم نشاط الروبوتات نظرًا لمدى تكرار كونه ضارًا من خلال استخدام CAPTCHAs وغيرها من الخدمات (مثل Cloudflare). كما كان لدى المواقع حافز واضح للعمل مع جهات معينة جيدة، مثل Googlebot، توجهه بشأن ما لا يجب أن يخزن عبر robots.txt. كانت Google تقوم بفهرسة الإنترنت، مما أرسل حركة المرور إلى المواقع.

    الآن، تتناول LLMs جزءًا متزايدًا من تلك الحركة. تتوقع شركة Gartner أن ينخفض ​​حجم محركات البحث بنسبة 25% بحلول عام 2026. الآن، يميل البشر إلى النقر على روابط المواقع من LLMs في الوقت الذي تكون فيه الأكثر قيمة للموقع، وهو عندما يكونون مستعدين لإجراء معاملة.

    لكن إذا اعتمد البشر على الوكلاء كما تتوقع صناعة التكنولوجيا أنهم سيفعلون – لترتيب سفرنا، وحجز حجوزات العشاء، والتسوق نيابة عنا – هل ستؤذي المواقع مصالحها التجارية من خلال حظرهم؟ لقد لخصت المناقشة على X المعضلة بشكل مثالي:

    “أريد من Perplexity زيارة أي محتوى عام نيابة عني عندما أعطيه طلبًا/مهمة!” كتب شخص ردًا على استدعاء Cloudflare لPerplexity.

    “ماذا لو لم يرغب مالكو المواقع في ذلك؟ إنهم يريدونك [لتقوم] بزيارة الصفحة الرئيسية مباشرة، ورؤية محتواهم” جادل آخر، مشيرًا إلى أن مالك الموقع الذي أنشأ المحتوى يريد الحركة والإيرادات المحتملة من الإعلانات، وليس السماح لـ Perplexity بأخذها.

    “لهذا السبب لا أعتقد أن ‘التصفح الوكيل’ سينجح حقًا – إنه مشكلة أصعب بكثير مما يعتقد الناس. معظم مالكي المواقع سوف يقومون فقط بحظر ذلك”، توقع شخص ثالث.


    المصدر

  • تعتزم Google تقديم NotebookLM للمستخدمين الأصغر سناً وسط تزايد المنافسة في مجال التعليم المدعوم بالذكاء الاصطناعي.

    تطبيق جوجل الذكي لتدوين الملاحظات مفتوح الآن للمستخدمين الأصغر سنًا، بعدما كان محدودًا سابقًا للمستخدمين الذين تزيد أعمارهم عن 18 عامًا. أعلنت عملاقة التكنولوجيا أن NotebookLM متاح لمستخدمي Google Workspace للتعليم من أي عمر وللمستهلكين الذين تتراوح أعمارهم بين 13 عامًا وما فوق.

    تهدف إزالة القيود العمرية إلى توفير إمكانية الوصول لأداة البحث الذكائي للطلاب الأصغر سنًا، مما يسمح لهم بفهم مواد دراستهم بشكل أفضل. الآن، يمكن للطلاب الوصول إلى ميزات مثل القدرة على تحويل الملاحظات إلى ملخصات صوتية شبيهة بالبودكاست، وتلخيص الأفكار بصريًا باستخدام خرائط ذهنية تفاعلية، والمزيد. أطلق NotebookLM مؤخرًا ملخصات فيديو تسمح للمستخدمين بتحويل الملاحظات وملفات PDF والصور إلى عروض تقديمية بصرية.

    تأتي هذه التوسعة في ظل تزايد القلق بشأن استخدام الذكاء الاصطناعي في التعليم فيما يتعلق بخصوصية البيانات وإمكانية سوء الاستخدام. تقول جوجل إن NotebookLM يفرض سياسات محتوى أكثر صرامة بالنسبة للمستخدمين تحت 18 عامًا لمنع الردود غير المناسبة، وأن محادثات المستخدمين ورفع الملفات لا يتم مراجعتها من قبل البشر أو استخدامها لتدريب الذكاء الاصطناعي.

    يأتي توفر NotebookLM للمستخدمين الأصغر سنًا بعد تقديم OpenAI لوضع الدراسة لـ ChatGPT، مما يشير إلى أن الشركات تزيد من تنافسها في قطاع التعليم بالذكاء الاصطناعي.


    المصدر

Exit mobile version