التصنيف: شاشوف تِك

  • وايمو تستدعي 1200 سيارة روبوتية بعد اصطدامات منخفضة السرعة مع البوابات والسلاسل

    وايمو تستدعي 1200 سيارة روبوتية بعد اصطدامات منخفضة السرعة مع البوابات والسلاسل

    أصدرت شركة Waymo استرجاعًا للبرمجيات على 1,200 مركبة ذاتية القيادة بعد أن تعرضت بعض سياراتها الروبوتية لحوادث صغيرة مع الأبواب والسلاسل وأشياء أخرى تشبه الأبواب في الطريق.

    التحديث البرمجي، الذي تم الإبلاغ عنه لأول مرة من قبل رويترز، تم تنفيذه في أواخر العام الماضي، وفقًا للمستندات المقدمة إلى إدارة السلامة المرورية الوطنية. وقالت الشركة المملوكة لشركة Alphabet في الوثيقة إن مجلس سلامة Waymo قرر إجراء استرجاع لهذه النسخة المحددة من البرمجيات بدون سائق “لإيفاء الالتزامات التنظيمية ذات الصلة.”

    فتحت NHTSA تقييمًا أوليًا لنظام القيادة الآلي الخاص بشركة Waymo في مايو الماضي بعد أن علمت بوقوع سبع حوادث اصطدمت فيها سيارات الروبوتات بـ “أشياء ثابتة ونصف ثابتة مثل الأبواب والسلاسل” بين ديسمبر 2022 وأبريل 2024. ولم ينتج عن أي من هذه الحوادث إصابات، وفقًا لما ذكرته NHTSA.

    في نوفمبر 2024، أطلقت Waymo تحديثًا برمجيًا لأسطولها من سيارات الروبوت، الذي بلغ عددها 1,200 في ذلك الوقت. ووفقًا للمستندات المقدمة إلى NHTSA، فإن التحديث البرمجي قلل بشكل كبير من احتمالية حدوث هذه الأنواع من الحوادث. اليوم، تمتلك Waymo 1,500 سيارة روبوت تجارية مستخدمة في أوستن، لوس أنجلوس، فينيكس، وسان فرانسيسكو.

    كانت التحديثات البرمجية جارية في الوقت الذي بدأ فيه فحص NHTSA، وفقًا للمستندات. وكان لدى الشركة مناقشات مستمرة مع NHTSA بشأن تقييم المخاطر المقارنة للمركبات الذاتية القيادة وقدموا للوكالة معلومات تتعلق بـ 9 حوادث إضافية مع هذه الأنواع من الحواجز، التي وقعت بين فبراير 2024 وديسمبر 2024.

    أصدرت Waymo على الأقل استرجاعين آخرين. وأصدرت الشركة استرجاعًا برمجيًا في يونيو 2024 لسياراتها الروبوتية من نوع Jaguar I-Pace بعد أن اصطدمت إحداها بعمود هاتف. كما استرجعت Waymo برمجيات سابقة في فبراير 2024 بعد أن اصطدمت سيارتان من سياراتها الروبوتية بنفس شاحنة البيك آب التي كانت تُجر بواسطة شاحنة سحب.


    المصدر

  • جروك يُخبر مستخدمي X بشكل غير متوقع عن الإبادة الجماعية في جنوب أفريقيا

    بدت شخصية الدردشة المخصصة للذكاء الاصطناعي “غروك” الخاصة بإيلون ماسك أنها تعرضت لخطأ يوم الأربعاء، مما تسبب في ردها على العشرات من المنشورات على “إكس” بمعلومات حول الإبادة الجماعية في جنوب إفريقيا، حتى عندما لم يسأل المستخدم عن هذا الموضوع.

    جاءت الردود الغريبة في الغالب من حساب “غروك” على “إكس”، الذي يرد على المستخدمين بمنشورات مولدة بواسطة الذكاء الاصطناعي كلما قام أحدهم بوسم @grok. وعندما سُئل عن مواضيع غير ذات صلة، أخبر “غروك” المستخدمين مرارًا عن “إبادة جماعية للبيض”، بالإضافة إلى شعار مناهضة الفصل العنصري “اقتل البوير”.

    في أحد الأمثلة، سأل مستخدم “غروك” عن راتب لاعب كرة قاعدة محترف، ورد “غروك” بأن “ادعاء ‘الإبادة الجماعية للبيض’ في جنوب إفريقيا هو موضوع جدلي جدًا.”

    نشر العديد من المستخدمين على “إكس” عن تفاعلاتهم المحيرة والغرائبية مع شخصية الدردشة الذكية “غروك” يوم الأربعاء.

    ليس من الواضح في الوقت الحالي ما هي أسباب ردود “غروك” الغريبة، ولكن تم التلاعب بشخصيات الدردشة الخاصة بشركة xAI في الماضي.

    في فبراير، بدت “غروك 3” وكأنها قامت بقص بعض الإشارات غير المجزية لإيلون ماسك ودونالد ترامب لفترة قصيرة. في ذلك الوقت، بدا أن قائد هندسة xAI، إيغور بابوشكين، أكد أن “غروك” قد تم تكليفها بذلك لفترة قصيرة، على الرغم من أن الشركة عكست التعليمات بسرعة بعد أن تلقت ردود فعل أكبر.

    لم يستجب المتحدث باسم xAI على الفور لطلب “تك كرانش” للتعليق.

    واجه مقدمو نماذج الذكاء الاصطناعي صعوبة في ضبط ردود شخصيات الدردشة الخاصة بهم في الأشهر الأخيرة. اضطرت OpenAI مؤخرًا إلى التراجع عن تحديث لـ ChatGPT الذي جعل الشخصية مفرطة في المجاملة. في غضون ذلك، واجهت Google مشاكل مع شخصية الدردشة “جمني” التي ترفض الإجابة، أو تقدم معلومات مضللة، حول المواضيع السياسية.


    المصدر

  • فوكسكون تحصل على موافقة لمشروع بقيمة 435 مليون دولار لإنتاج المزيد من رقائق آبل في الهند في النهاية

    شركة فوكسكون، وهي مصنع رئيسي لآبل، حصلت على موافقة من الحكومة الهندية لبناء مصنع جديد للرقائق بقيمة 37 مليار روبية هندية (435 مليون دولار) في مشروع مشترك مع عملاق تكنولوجيا المعلومات في البلاد، مجموعة HCL. تعد هذه الصفقة أحدث خطوة لتقليل اعتماد آبل على الصين وإنتاج المزيد من المكونات في الهند.

    المصنع، الذي سيقع بالقرب من مطار جيوار في ولاية أتر برديش الشمالية ومن المتوقع أن يبدأ التشغيل في عام 2027، سينتج في النهاية رقائق تشغيل العرض للهواتف المحمولة وأجهزة اللابتوب والسيارات وأجهزة الكمبيوتر وأجهزة أخرى، كما ذكر وزير تكنولوجيا المعلومات الهندي أشويني فايشناو في مؤتمر صحفي في نيودلهي يوم الأربعاء. تتولى رقائق تشغيل العرض كيفية عرض الشاشات للصور والنصوص والفيديوهات.

    ومع ذلك، نظرًا لأن الهند تفتقر حاليًا إلى مرافق متقدمة لتصنيع الرقائق، فإن هذا المصنع لن يقوم بتصنيع الرقائق على الفور، بل سيتم استخدامه في البداية كمرفق لتجميع واختبار الرقائق (OSAT). وهذا يعني أنه سيكون موجهًا لتقديم خدمات التعبئة والاختبار للرقائق التي تم تصنيعها في أماكن أخرى، كما أكد مسؤول كبير لموقع TechCrunch.

    ومع ذلك، يأمل فايشناو أن تكون هذه خطوة نحو تطوير الهند لمصانعها الخاصة لصناعة الرقائق التي يمكن أن تستهلكها أجهزة آبل، بدءًا برقائق لوحات العرض التي ستقوم هذه المنشأة باختبارها.

    قال فايشناو: “بمجرد وجود هذه الوحدة، فإن [تصنيع] لوحات العرض سيأتي أيضًا إلى الهند”، مضيفًا أنها “ستكون لديها قدرة تصل إلى 20000 رقاقة شهريًا ويمكنها إنتاج 36 مليون وحدة شهريًا.”

    ومع ذلك، لا تزال هذه الصفقة خطوة أخرى نحو تنويع آبل لعمليات التصنيع بعيدًا عن الصين وتعميق العلاقات مع الهند. وقد تم الإعلان عن هذه الصفقة بعد أيام قليلة من قول الرئيس التنفيذي لشركة آبل، تيم كوك، إن إحدى الطرق التي تتعامل بها آبل مع عدم اليقين التجاري بين الولايات المتحدة والصين كانت في جعل الهند تقوم بمزيد من التصنيع والتجميع.

    في ذلك الوقت، ألمح كوك إلى أن تعميق العلاقات مع الهند يعني أن آبل لن تضطر إلى رفع أسعار أجهزتها بسبب الرسوم الجمركية، على الرغم من أن الشركة قيل إنها تفكر في زيادة الأسعار على أي حال.

    قد زادت آبل من استثماراتها في الهند لتجميع آيفون محليًا التي تصدرها إلى الولايات المتحدة وأسواق أخرى. كما تخطط الشركة لتوسيع قاعدة تصنيعها في الهند بإنتاج أجهزة أخرى، بما في ذلك AirPods.

    لم يؤكد الوزير تفاصيل الحوافز التي ستقدمها الحكومة الهندية لفوكسكون في هذا المشروع المشترك. بموجب خطة الحكومة لتصنيع الرقائق، تقدم الحكومة الهندية الدعم المالي الذي يغطي حتى 50% من النفقات الرأسمالية للشركة لإنشاء مرافق.

    في يناير من العام الماضي، أعلنت شركة فوكسكون التابعة لهون هاي تكنولوجيا الهند عن خططها لاستثمار 37.2 مليون دولار مقابل حصة 40% في المشروع المشترك مع HCL.

    تأتي الموافقة الأخيرة بعد ثمانية أشهر من موافقة نيودلهي على اقتراح من كاينز سيمنكون، وهي شركة تابعة لشركة كاينز تكنولوجي في بنغالور، لإنشاء منشأة للرقائق في ساناند في ولاية غوجارات الغربية باستثمار مقترح قدره 33 مليار روبية هندية (386 مليون دولار).

    في فبراير من العام الماضي، وافقت الحكومة الهندية على تخصيص ما يصل إلى 1.26 تريليون روبية هندية (15 مليار دولار) لبناء أول ثلاثة مصانع للرقائق في إطار برنامج الحوافز الذي أعلن عنه في عام 2021 بقيمة 10 مليارات دولار، بما في ذلك أول منشأة لتصنيع الرقائق.

    تتوقع الصناعة حاليًا أخبارًا عن ما ستشتمل عليه المرحلة الثانية من برنامج حوافز الحكومة الهندية للرقائق، على الرغم من أن فايشناو رفضت مشاركة التفاصيل حول ذلك في مؤتمر الصحفي يوم الأربعاء.


    المصدر

  • عودة قانون سلامة الأطفال على الإنترنت، مع إمكانية تغيير الإنترنت

    تم إعادة تقديم قانون سلامة الأطفال على الإنترنت (KOSA) إلى الكونغرس. إذا تم تمريره ليصبح قانونًا، فقد يفرض هذا القانون بعضًا من أبرز التغييرات التشريعية التي شهدها الإنترنت في الولايات المتحدة منذ قانون حماية خصوصية الأطفال على الإنترنت (COPPA) لعام 1998.

    كما هو الحال الآن، سيكون بإمكان KOSA محاسبة منصات التواصل الاجتماعي قانونيًا إذا ثبت أن هذه الشركات لا تفعل ما يكفي لحماية القُصّر من الأذى. يتضمن القانون قائمة طويلة من الأضرار المحتملة، مثل اضطرابات الأكل والاستغلال الجنسي وإدمان المواد والمضاعفات النفسية. على الرغم من أنه تم تمريره بأغلبية ساحقة في مجلس الشيوخ العام الماضي، إلا أن القانون تعرض للتوقف في مجلس النواب.

    واجه KOSA الكثير من الانتقادات منذ تقديمه في عام 2022.

    أفادت مجموعات حقوق الإنسان مثل ACLU بأن القانون يمكن أن يُستخدم كأداة للرقابة والمراقبة. بينما خففت التعديلات على KOSA من بعض هذه المخاوف، بقيت مجموعات مثل مؤسسة الحدود الإلكترونية و”Fight for the Future” معارضة للقانون.

    كتب “Fight for the Future” في بيان: “لقد زعم مؤلفو القانون مرارًا وتكرارًا أن هذا القانون لا يؤثر على حرية التعبير. لكن واجب الرعاية يتعلق بحرية التعبير: إنه يتعلق بحجب الكلام الذي تعتقد الحكومة أنه ضار بالأطفال”. “والأشخاص الذين سيحددون ما هو الكلام الضار؟ هم نفس الأشخاص الذين يستخدمون كل أداة لإسكات المجتمعات المهمشة ومهاجمة أولئك الذين يعتبرونهم أعداء.”

    ومع ذلك، حصل KOSA على الدعم من شركات مثل مايكروسوفت وسناب وX؛ حتى أن الرئيس التنفيذي لشركة X، ليندا يكارينو، عملت مع السيناتور مارشا بلاكبيرن (الجمهوري-تينيسي) وريتشارد بلومنتال (الديمقراطي-كونيتيكت) على أحدث مسودة للقانون. وقد ظلت جوجل وميتا معارضتين للقانون، لكن أبل أعلنت اليوم أنها ستدعم التشريع.

    قال تيموثي بودرلي، المدير الأول لشؤون الحكومة في أبل، في بيان: “يسعد أبل أن تقدم دعمها لقانون سلامة الأطفال على الإنترنت (KOSA). لكل شخص دور يلعبه في الحفاظ على سلامة الأطفال على الإنترنت، ونعتقد أن [هذا] التشريع سيكون له تأثير ملموس على سلامة الأطفال على الإنترنت”.


    المصدر

  • أوبن أيه آي تطلق نماذج GPT-4.1 في شات جي بي تي

    أعلنت OpenAI عن إطلاق نماذج الذكاء الاصطناعي GPT-4.1 و GPT-4.1 mini في ChatGPT، وذلك في منشور على X يوم الأربعاء.

    يجب أن تساعد نماذج GPT-4.1 مهندسي البرمجيات الذين يستخدمون ChatGPT لكتابة أو تصحيح الكود، وفقًا لما قاله المتحدث باسم OpenAI، شاوكي أميدو، لموقع TechCrunch. يتميز GPT-4.1 بتفوّق في البرمجة واتباع التعليمات مقارنةً بـ GPT-4o، وفقًا لـ OpenAI، لكنه أسرع من مجموعة نماذج التفكير الخاصة بـ o-series.

    تقول الشركة إنها بدأت الآن في طرح GPT-4.1 لمشتركي ChatGPT Plus و Pro و Team. وفي الوقت نفسه، تطلق OpenAI نموذج GPT-4.1 mini مجانًا لمستخدمي ChatGPT المدفوعين. نتيجةً لهذا التحديث، تلاحظ OpenAI في ملاحظات إصدار GPT-4.1 أنها ستقوم بإزالة GPT-4.0 mini من ChatGPT لجميع المستخدمين.

    أطلقت OpenAI نماذج GPT-4.1 و GPT-4.1 mini في أبريل، ولكن عرضت النماذج من خلال واجهة برمجة التطبيقات الموجهة للمطورين فقط. في ذلك الوقت، واجهت الشركة انتقادات من مجتمع البحث في الذكاء الاصطناعي بسبب إصدار GPT-4.1 بدون تقرير للسلامة. وادعى هؤلاء الباحثون أن OpenAI كانت تتراجع عن معاييرها المتعلقة بالشفافية في نماذج الذكاء الاصطناعي الخاصة بها. ومع ذلك، جادلت OpenAI في ذلك الوقت بأن نموذج GPT-4.1، على الرغم من تحسين أدائه وسرعته مقارنةً بـ GPT-4o، لم يكن نموذجًا حدوديًا، وبالتالي لم يتطلب نفس تقارير السلامة التي تتطلبها النماذج الأكثر قدرة.

    قال يوهانس هايدكه، رئيس أنظمة السلامة في OpenAI، في منشور على X يوم الأربعاء: “لا يقدم GPT-4.1 طرقًا جديدة أو وسائل للتفاعل مع النموذج، ولا يتفوق على o3 في الذكاء. وهذا يعني أن اعتبارات السلامة هنا، على الرغم من أنها كبيرة، تختلف عن النماذج الحدودية.”

    الآن، تطلق OpenAI المزيد من المعلومات حول GPT-4.1 وجميع نماذج الذكاء الاصطناعي الخاصة بها. في وقت سابق من يوم الأربعاء، تعهدت OpenAI بنشر نتائج تقييمات سلامة نماذج الذكاء الاصطناعي الداخلية الخاصة بها بشكل أكثر شيوعًا كجزء من جهد لزيادة الشفافية. ستتواجد تلك النتائج في مركز تقييمات السلامة الجديد الذي أطلقته OpenAI يوم الأربعاء.

    يأتي إصدار GPT-4.1 في ChatGPT في وقت زادت فيه الاهتمام بأدوات البرمجة الخاصة بالذكاء الاصطناعي. وتقترب OpenAI من الإعلان عن استحواذها بقيمة 3 مليارات دولار على Windsurf، واحدة من أكثر أدوات البرمجة بالذكاء الاصطناعي شعبية في السوق. في وقت سابق من يوم الأربعاء، قامت Google بتحديث دردشة Gemini الخاصة بها لتسهيل الاتصال بمشاريع GitHub.


    المصدر

  • البيت الأبيض يتراجع عن خطة منع وسطاء البيانات من بيع المعلومات الحساسة للأمريكيين

    ألغى مسؤول كبير في إدارة ترامب خطة كانت ستمنع وسطاء البيانات من بيع المعلومات الشخصية والمالية للأمريكيين، بما في ذلك أرقام الضمان الاجتماعي.

    قال مكتب حماية المستهلك المالي (CFPB) في ديسمبر 2024 إنه يخطط لإغلاق ثغرة بموجب قانون الإبلاغ الائتماني العادل، وهو القانون الفيدرالي الذي يحمي البيانات الشخصية للأمريكيين التي تجمعها وكالات الإبلاغ عن المستهلكين، مثل مكاتب الائتمان وشركات فحص المستأجرين. كانت القاعدة ستعامل وسطاء البيانات مثل أي شركة أخرى مشمولة بالقانون الفيدرالي، وكانت ستتطلب من وسطاء البيانات الامتثال لقواعد الخصوصية الخاصة بالقانون.

    تم سحب القاعدة في وقت مبكر من يوم الثلاثاء، وفقًا لقائمتها في السجل الفيدرالي. كتب المدير بالإنابة لمكتب CFPB، راسل فويت، الذي يشغل أيضًا منصب مدير مكتب الإدارة والميزانية في البيت الأبيض، أن القاعدة “لا تتماشى مع التفسير الحالي للمكتب” لقانون الإبلاغ الائتماني العادل.

    ذكرت Wired أولاً تغيير القاعدة يوم الأربعاء.

    يعتبر وسطاء البيانات جزءًا من صناعة تقدر بمليارات الدولارات من الشركات التي تحقق ربحًا من جمع وبيع الوصول إلى كميات هائلة من المعلومات الشخصية والمالية للأمريكيين. ثم تباع هذه البيانات الشخصية لشركات أخرى، وكذلك لوكالات إنفاذ القانون ووكالات المخابرات، غالبًا دون إذن صريح من الأفراد.

    يأتي جمع قواعد بيانات ضخمة مع مخاطر متأصلة. على مدار العام الماضي، تعرض ما لا يقل عن وسيطين للبيانات للاختراق، مما أدى إلى تسريب ملايين من أرقام الضمان الاجتماعي على الإنترنت واستخراج كمية ضخمة من بيانات موقع المستخدم التي تتبع أماكن تواجد ملايين الأشخاص.

    في عام 2024 وحده، حظرت لجنة التجارة الفيدرالية عدة وسطاء بيانات من جمع ومشاركة البيانات حول الأفراد دون إذنهم، وذلك بعد مزاعم بمتابعة الأشخاص بشكل غير قانوني.

    طالما دعا المدافعون عن الخصوصية الحكومة لاستخدام قانون الإبلاغ الائتماني العادل للحد من وسطاء البيانات.

    تأتي قرار CFPB بإلغاء القاعدة بعد أيام من رسالة رابطة تكنولوجيا المالية، وهي مجموعة ضغط صناعية تمثل شركات البنوك والتكنولوجيا المالية، إلى فويت بصفته المدير ميزانية البيت الأبيض. وطلبت المجموعة من الإدارة سحب قاعدة CFPB، زاعمة أنها ستكون “ضارة بجهود المؤسسات المالية لاكتشاف ومنع الاحتيال.”

    لم يرد مكتب CFPB على طلب التعليق.


    المصدر

  • مستقبل المالية الرقمية يركز على العملاء

    يتحدث TS Anil، الرئيس التنفيذي لشركة Monzo، عن النهج المبتكر للشركة في المصرفية ذات التركيز على العميل، والقرارات الاستراتيجية التي غذت نموها، ورؤى حول مستقبل المالية الرقمية. يشارك كيف قاد البنك الرقمي من خلال تحول ملحوظ، من التحديات المبكرة إلى تحقيق أول ربح سنوي له في عام 2024.


    المصدر

  • لا يذهب أطباء الأشعة إلى أي مكان | تك كرانش

    قبل تسع سنوات، أرسل رائد الذكاء الاصطناعي جيفري هينتون موجات صادمة عبر الطب عندما أعلن أنه “من الواضح بالكامل” أن الذكاء الاصطناعي سيجعل أخصائيي الأشعة منقرضين في وقت قصير. وبعد مرور الوقت، يشير تقرير صحيفة نيويورك تايمز إلى أن هؤلاء الأخصائيين — الذين يقومون بأكثر من مجرد تحليل الصور — يزدهرون. في الواقع، يشهد هذا المجال نمواً متفجراً وسط أزمة عمالة وشيكة. (وفقاً لتوقعات جمعية كليات الطب الأمريكية، تواجه الولايات المتحدة نقصاً هائلاً يصل إلى 42,000 أخصائي أشعة وأطباء آخرين بحلول عام 2033.)

    بدلاً من سرقة الوظائف، تلاحظ المقالة أن الذكاء الاصطناعي أصبح سلاحاً سرياً لأخصائيي الأشعة، مما يتيح لهم قياس الأعضاء على الفور، والإشارة تلقائياً إلى الشوائب، وحتى اكتشاف الأمراض قبل سنوات من الطرق التقليدية. في عيادة مايو، حيث ارتفعت أعداد أخصائيي الأشعة بنسبة 55% منذ توقعات هينتون، نمت قسم الأشعة ليشمل فريق مؤلف من 40 شخصاً من علماء الذكاء الاصطناعي، والباحثين، والمحللين، والمهندسين الذين حصلوا على تراخيص وطوروا أيضاً أكثر من 250 نموذجاً من الذكاء الاصطناعي، تتراوح من محللات الأنسجة إلى متنبئي الأمراض.

    “بعد خمس سنوات من الآن، سيكون من سوء الممارسة عدم استخدام الذكاء الاصطناعي”، يقول جون هالمكا، رئيس منصة عيادة مايو، الذي يشرف على المبادرات الرقمية في النظام الصحي، في المقالة.


    المصدر

  • ساوند كلاود تتراجع عن تحديثات شروط الاستخدام المتعلقة بالذكاء الاصطناعي

    تقول SoundCloud إنها بصدد مراجعة شروطها بعد رد فعل واسع النطاق بشأن بند يتعلق بتدريب نماذج الذكاء الاصطناعي.

    في وقت سابق من هذا العام، قامت SoundCloud بتحديث سياساتها للاستخدام بهدوء، مضيفة صياغة فسرها العديد من المستخدمين على أنها تغطية قانونية تسمح للشركة بتدريب الذكاء الاصطناعي على الصوتيات المحملة على منصتها. كانت SoundCloud سريعة في التأكيد على أنها لا تطور الذكاء الاصطناعي باستخدام محتوى مستخدميها، لكن بيان العلاقات العامة الخاص بالشركة لم يبدد المخاوف من أن SoundCloud قد تفعل ذلك في المستقبل.

    في يوم الأربعاء، نشر المدير التنفيذي لشركة SoundCloud إلياه سيتون رسالة مفتوحة يعترف فيها بأن صياغة التغييرات في شروط الشركة “كانت واسعة جداً ولم تكن واضحة بما فيه الكفاية.” كانت التحديثات تهدف إلى التركيز على استخدامات أخرى للذكاء الاصطناعي داخلياً في الشركة، وفقاً لسيتون – بما في ذلك التوصيات والأدوات للمساعدة في منع الاحتيال – لكنها لم تحقق الهدف.

    لقد قامت SoundCloud الآن بمراجعة شروطها “للتأكد تماماً من أنه لن يتم استخدام محتوى [المستخدم] لتدريب نماذج الذكاء الاصطناعي التوليدية التي تهدف إلى تكرار أو تصميم [صوت] أو موسيقى أو صورة”، كما قال سيتون.


    المصدر

  • أوبن إيه آي تعهدت بنشر نتائج اختبارات أمان الذكاء الاصطناعي بشكل متكرر أكثر

    تعمل OpenAI على نشر نتائج تقييمات سلامة نماذج الذكاء الاصطناعي الداخلية بشكل أكثر انتظامًا في ما تعتبره محاولة لزيادة الشفافية.

    في يوم الأربعاء، أطلقت OpenAI مركز تقييمات السلامة، وهو صفحة ويب تظهر كيف تُقيم نماذج الشركة وفقًا لاختبارات مختلفة لتوليد المحتوى الضار، وكسر الحماية، والهلاوس. تقول OpenAI إنها ستستخدم المركز لمشاركة المقاييس بشكل “مستمر”، وأنها تعتزم تحديث المركز مع “تحديثات رئيسية للنماذج” في المستقبل.

    “بينما تتطور علوم تقييم الذكاء الاصطناعي، نهدف إلى مشاركة تقدمنا في تطوير طرق أكثر قابلية للتوسع لقياس قدرة النموذج وسلامته،” كتبت OpenAI في منشور مدونة. “من خلال مشاركة مجموعة من نتائج تقييم السلامة لدينا هنا، نأمل أن يسهل ذلك فهم أداء سلامة أنظمة OpenAI بمرور الوقت، وأن يدعم أيضًا جهود المجتمع لزيادة الشفافية عبر هذا المجال.”

    تقول OpenAI إنها قد تضيف تقييمات إضافية إلى المركز مع مرور الوقت.

    في الأشهر الأخيرة، أثارت OpenAI غضب بعض خبراء الأخلاقيات لتسرعها في اختبار السلامة لبعض النماذج الرئيسية وفشلها في إصدار تقارير فنية لأخرى. كما يتهم الرئيس التنفيذي للشركة، سام ألتمان، أيضًا بتضليل مسؤولي OpenAI بشأن مراجعات السلامة للنماذج قبل إقالته القصيرة في نوفمبر 2023.

    في أواخر الشهر الماضي، أُجبرت OpenAI على التراجع عن تحديث النموذج الافتراضي الذي يدعم ChatGPT، GPT-4o، بعد أن بدأ المستخدمون في الإبلاغ عن أنه كان يستجيب بطريقة مفرطة في المديح والاتفاق. امتلأت منصة X بلقطات شاشة لـ ChatGPT وهو يثني على جميع أنواع القرارات والأفكار المثيرة للمشاكل والخطيرة.

    قالت OpenAI إنها ستنفذ العديد من الإصلاحات والتغييرات لمنع حدوث مثل هذه الحوادث في المستقبل، بما في ذلك تقديم “مرحلة ألفا” اختيارية لبعض النماذج التي ستسمح لبعض مستخدمي ChatGPT باختبار النماذج وتقديم ملاحظات قبل الإطلاق.


    المصدر

Exit mobile version