عودة قانون سلامة الأطفال على الإنترنت، مع إمكانية تغيير الإنترنت

The app for TikTok on a phone screen. Cabinet Office minister Oliver Dowden, has confirmed TikTok will be banned on Government devices following a review. Picture date: Thursday March 16, 2023. (Photo by Yui Mok/PA Images via Getty Images)

تم إعادة تقديم قانون سلامة الأطفال على الإنترنت (KOSA) إلى الكونغرس. إذا تم تمريره ليصبح قانونًا، فقد يفرض هذا القانون بعضًا من أبرز التغييرات التشريعية التي شهدها الإنترنت في الولايات المتحدة منذ قانون حماية خصوصية الأطفال على الإنترنت (COPPA) لعام 1998.

كما هو الحال الآن، سيكون بإمكان KOSA محاسبة منصات التواصل الاجتماعي قانونيًا إذا ثبت أن هذه الشركات لا تفعل ما يكفي لحماية القُصّر من الأذى. يتضمن القانون قائمة طويلة من الأضرار المحتملة، مثل اضطرابات الأكل والاستغلال الجنسي وإدمان المواد والمضاعفات النفسية. على الرغم من أنه تم تمريره بأغلبية ساحقة في مجلس الشيوخ العام الماضي، إلا أن القانون تعرض للتوقف في مجلس النواب.

واجه KOSA الكثير من الانتقادات منذ تقديمه في عام 2022.

أفادت مجموعات حقوق الإنسان مثل ACLU بأن القانون يمكن أن يُستخدم كأداة للرقابة والمراقبة. بينما خففت التعديلات على KOSA من بعض هذه المخاوف، بقيت مجموعات مثل مؤسسة الحدود الإلكترونية و”Fight for the Future” معارضة للقانون.

كتب “Fight for the Future” في بيان: “لقد زعم مؤلفو القانون مرارًا وتكرارًا أن هذا القانون لا يؤثر على حرية التعبير. لكن واجب الرعاية يتعلق بحرية التعبير: إنه يتعلق بحجب الكلام الذي تعتقد الحكومة أنه ضار بالأطفال”. “والأشخاص الذين سيحددون ما هو الكلام الضار؟ هم نفس الأشخاص الذين يستخدمون كل أداة لإسكات المجتمعات المهمشة ومهاجمة أولئك الذين يعتبرونهم أعداء.”

ومع ذلك، حصل KOSA على الدعم من شركات مثل مايكروسوفت وسناب وX؛ حتى أن الرئيس التنفيذي لشركة X، ليندا يكارينو، عملت مع السيناتور مارشا بلاكبيرن (الجمهوري-تينيسي) وريتشارد بلومنتال (الديمقراطي-كونيتيكت) على أحدث مسودة للقانون. وقد ظلت جوجل وميتا معارضتين للقانون، لكن أبل أعلنت اليوم أنها ستدعم التشريع.

قال تيموثي بودرلي، المدير الأول لشؤون الحكومة في أبل، في بيان: “يسعد أبل أن تقدم دعمها لقانون سلامة الأطفال على الإنترنت (KOSA). لكل شخص دور يلعبه في الحفاظ على سلامة الأطفال على الإنترنت، ونعتقد أن [هذا] التشريع سيكون له تأثير ملموس على سلامة الأطفال على الإنترنت”.


المصدر

أوبن أيه آي تطلق نماذج GPT-4.1 في شات جي بي تي

The ChatGPT logo appears on a smartphone screen

أعلنت OpenAI عن إطلاق نماذج الذكاء الاصطناعي GPT-4.1 و GPT-4.1 mini في ChatGPT، وذلك في منشور على X يوم الأربعاء.

يجب أن تساعد نماذج GPT-4.1 مهندسي البرمجيات الذين يستخدمون ChatGPT لكتابة أو تصحيح الكود، وفقًا لما قاله المتحدث باسم OpenAI، شاوكي أميدو، لموقع TechCrunch. يتميز GPT-4.1 بتفوّق في البرمجة واتباع التعليمات مقارنةً بـ GPT-4o، وفقًا لـ OpenAI، لكنه أسرع من مجموعة نماذج التفكير الخاصة بـ o-series.

تقول الشركة إنها بدأت الآن في طرح GPT-4.1 لمشتركي ChatGPT Plus و Pro و Team. وفي الوقت نفسه، تطلق OpenAI نموذج GPT-4.1 mini مجانًا لمستخدمي ChatGPT المدفوعين. نتيجةً لهذا التحديث، تلاحظ OpenAI في ملاحظات إصدار GPT-4.1 أنها ستقوم بإزالة GPT-4.0 mini من ChatGPT لجميع المستخدمين.

أطلقت OpenAI نماذج GPT-4.1 و GPT-4.1 mini في أبريل، ولكن عرضت النماذج من خلال واجهة برمجة التطبيقات الموجهة للمطورين فقط. في ذلك الوقت، واجهت الشركة انتقادات من مجتمع البحث في الذكاء الاصطناعي بسبب إصدار GPT-4.1 بدون تقرير للسلامة. وادعى هؤلاء الباحثون أن OpenAI كانت تتراجع عن معاييرها المتعلقة بالشفافية في نماذج الذكاء الاصطناعي الخاصة بها. ومع ذلك، جادلت OpenAI في ذلك الوقت بأن نموذج GPT-4.1، على الرغم من تحسين أدائه وسرعته مقارنةً بـ GPT-4o، لم يكن نموذجًا حدوديًا، وبالتالي لم يتطلب نفس تقارير السلامة التي تتطلبها النماذج الأكثر قدرة.

قال يوهانس هايدكه، رئيس أنظمة السلامة في OpenAI، في منشور على X يوم الأربعاء: “لا يقدم GPT-4.1 طرقًا جديدة أو وسائل للتفاعل مع النموذج، ولا يتفوق على o3 في الذكاء. وهذا يعني أن اعتبارات السلامة هنا، على الرغم من أنها كبيرة، تختلف عن النماذج الحدودية.”

الآن، تطلق OpenAI المزيد من المعلومات حول GPT-4.1 وجميع نماذج الذكاء الاصطناعي الخاصة بها. في وقت سابق من يوم الأربعاء، تعهدت OpenAI بنشر نتائج تقييمات سلامة نماذج الذكاء الاصطناعي الداخلية الخاصة بها بشكل أكثر شيوعًا كجزء من جهد لزيادة الشفافية. ستتواجد تلك النتائج في مركز تقييمات السلامة الجديد الذي أطلقته OpenAI يوم الأربعاء.

يأتي إصدار GPT-4.1 في ChatGPT في وقت زادت فيه الاهتمام بأدوات البرمجة الخاصة بالذكاء الاصطناعي. وتقترب OpenAI من الإعلان عن استحواذها بقيمة 3 مليارات دولار على Windsurf، واحدة من أكثر أدوات البرمجة بالذكاء الاصطناعي شعبية في السوق. في وقت سابق من يوم الأربعاء، قامت Google بتحديث دردشة Gemini الخاصة بها لتسهيل الاتصال بمشاريع GitHub.


المصدر

البيت الأبيض يتراجع عن خطة منع وسطاء البيانات من بيع المعلومات الحساسة للأمريكيين

a close up shot of several Social Security cards on a chequered mat.

ألغى مسؤول كبير في إدارة ترامب خطة كانت ستمنع وسطاء البيانات من بيع المعلومات الشخصية والمالية للأمريكيين، بما في ذلك أرقام الضمان الاجتماعي.

قال مكتب حماية المستهلك المالي (CFPB) في ديسمبر 2024 إنه يخطط لإغلاق ثغرة بموجب قانون الإبلاغ الائتماني العادل، وهو القانون الفيدرالي الذي يحمي البيانات الشخصية للأمريكيين التي تجمعها وكالات الإبلاغ عن المستهلكين، مثل مكاتب الائتمان وشركات فحص المستأجرين. كانت القاعدة ستعامل وسطاء البيانات مثل أي شركة أخرى مشمولة بالقانون الفيدرالي، وكانت ستتطلب من وسطاء البيانات الامتثال لقواعد الخصوصية الخاصة بالقانون.

تم سحب القاعدة في وقت مبكر من يوم الثلاثاء، وفقًا لقائمتها في السجل الفيدرالي. كتب المدير بالإنابة لمكتب CFPB، راسل فويت، الذي يشغل أيضًا منصب مدير مكتب الإدارة والميزانية في البيت الأبيض، أن القاعدة “لا تتماشى مع التفسير الحالي للمكتب” لقانون الإبلاغ الائتماني العادل.

ذكرت Wired أولاً تغيير القاعدة يوم الأربعاء.

يعتبر وسطاء البيانات جزءًا من صناعة تقدر بمليارات الدولارات من الشركات التي تحقق ربحًا من جمع وبيع الوصول إلى كميات هائلة من المعلومات الشخصية والمالية للأمريكيين. ثم تباع هذه البيانات الشخصية لشركات أخرى، وكذلك لوكالات إنفاذ القانون ووكالات المخابرات، غالبًا دون إذن صريح من الأفراد.

يأتي جمع قواعد بيانات ضخمة مع مخاطر متأصلة. على مدار العام الماضي، تعرض ما لا يقل عن وسيطين للبيانات للاختراق، مما أدى إلى تسريب ملايين من أرقام الضمان الاجتماعي على الإنترنت واستخراج كمية ضخمة من بيانات موقع المستخدم التي تتبع أماكن تواجد ملايين الأشخاص.

في عام 2024 وحده، حظرت لجنة التجارة الفيدرالية عدة وسطاء بيانات من جمع ومشاركة البيانات حول الأفراد دون إذنهم، وذلك بعد مزاعم بمتابعة الأشخاص بشكل غير قانوني.

طالما دعا المدافعون عن الخصوصية الحكومة لاستخدام قانون الإبلاغ الائتماني العادل للحد من وسطاء البيانات.

تأتي قرار CFPB بإلغاء القاعدة بعد أيام من رسالة رابطة تكنولوجيا المالية، وهي مجموعة ضغط صناعية تمثل شركات البنوك والتكنولوجيا المالية، إلى فويت بصفته المدير ميزانية البيت الأبيض. وطلبت المجموعة من الإدارة سحب قاعدة CFPB، زاعمة أنها ستكون “ضارة بجهود المؤسسات المالية لاكتشاف ومنع الاحتيال.”

لم يرد مكتب CFPB على طلب التعليق.


المصدر

مستقبل المالية الرقمية يركز على العملاء

يتحدث TS Anil، الرئيس التنفيذي لشركة Monzo، عن النهج المبتكر للشركة في المصرفية ذات التركيز على العميل، والقرارات الاستراتيجية التي غذت نموها، ورؤى حول مستقبل المالية الرقمية. يشارك كيف قاد البنك الرقمي من خلال تحول ملحوظ، من التحديات المبكرة إلى تحقيق أول ربح سنوي له في عام 2024.


المصدر

لا يذهب أطباء الأشعة إلى أي مكان | تك كرانش

قبل تسع سنوات، أرسل رائد الذكاء الاصطناعي جيفري هينتون موجات صادمة عبر الطب عندما أعلن أنه “من الواضح بالكامل” أن الذكاء الاصطناعي سيجعل أخصائيي الأشعة منقرضين في وقت قصير. وبعد مرور الوقت، يشير تقرير صحيفة نيويورك تايمز إلى أن هؤلاء الأخصائيين — الذين يقومون بأكثر من مجرد تحليل الصور — يزدهرون. في الواقع، يشهد هذا المجال نمواً متفجراً وسط أزمة عمالة وشيكة. (وفقاً لتوقعات جمعية كليات الطب الأمريكية، تواجه الولايات المتحدة نقصاً هائلاً يصل إلى 42,000 أخصائي أشعة وأطباء آخرين بحلول عام 2033.)

بدلاً من سرقة الوظائف، تلاحظ المقالة أن الذكاء الاصطناعي أصبح سلاحاً سرياً لأخصائيي الأشعة، مما يتيح لهم قياس الأعضاء على الفور، والإشارة تلقائياً إلى الشوائب، وحتى اكتشاف الأمراض قبل سنوات من الطرق التقليدية. في عيادة مايو، حيث ارتفعت أعداد أخصائيي الأشعة بنسبة 55% منذ توقعات هينتون، نمت قسم الأشعة ليشمل فريق مؤلف من 40 شخصاً من علماء الذكاء الاصطناعي، والباحثين، والمحللين، والمهندسين الذين حصلوا على تراخيص وطوروا أيضاً أكثر من 250 نموذجاً من الذكاء الاصطناعي، تتراوح من محللات الأنسجة إلى متنبئي الأمراض.

“بعد خمس سنوات من الآن، سيكون من سوء الممارسة عدم استخدام الذكاء الاصطناعي”، يقول جون هالمكا، رئيس منصة عيادة مايو، الذي يشرف على المبادرات الرقمية في النظام الصحي، في المقالة.


المصدر

ساوند كلاود تتراجع عن تحديثات شروط الاستخدام المتعلقة بالذكاء الاصطناعي

SoundCloud icon

تقول SoundCloud إنها بصدد مراجعة شروطها بعد رد فعل واسع النطاق بشأن بند يتعلق بتدريب نماذج الذكاء الاصطناعي.

في وقت سابق من هذا العام، قامت SoundCloud بتحديث سياساتها للاستخدام بهدوء، مضيفة صياغة فسرها العديد من المستخدمين على أنها تغطية قانونية تسمح للشركة بتدريب الذكاء الاصطناعي على الصوتيات المحملة على منصتها. كانت SoundCloud سريعة في التأكيد على أنها لا تطور الذكاء الاصطناعي باستخدام محتوى مستخدميها، لكن بيان العلاقات العامة الخاص بالشركة لم يبدد المخاوف من أن SoundCloud قد تفعل ذلك في المستقبل.

في يوم الأربعاء، نشر المدير التنفيذي لشركة SoundCloud إلياه سيتون رسالة مفتوحة يعترف فيها بأن صياغة التغييرات في شروط الشركة “كانت واسعة جداً ولم تكن واضحة بما فيه الكفاية.” كانت التحديثات تهدف إلى التركيز على استخدامات أخرى للذكاء الاصطناعي داخلياً في الشركة، وفقاً لسيتون – بما في ذلك التوصيات والأدوات للمساعدة في منع الاحتيال – لكنها لم تحقق الهدف.

لقد قامت SoundCloud الآن بمراجعة شروطها “للتأكد تماماً من أنه لن يتم استخدام محتوى [المستخدم] لتدريب نماذج الذكاء الاصطناعي التوليدية التي تهدف إلى تكرار أو تصميم [صوت] أو موسيقى أو صورة”، كما قال سيتون.


المصدر

أوبن إيه آي تعهدت بنشر نتائج اختبارات أمان الذكاء الاصطناعي بشكل متكرر أكثر

Open AI Chief Executive Officer Sam Altman speaks during the Kakao media day in Seoul.

تعمل OpenAI على نشر نتائج تقييمات سلامة نماذج الذكاء الاصطناعي الداخلية بشكل أكثر انتظامًا في ما تعتبره محاولة لزيادة الشفافية.

في يوم الأربعاء، أطلقت OpenAI مركز تقييمات السلامة، وهو صفحة ويب تظهر كيف تُقيم نماذج الشركة وفقًا لاختبارات مختلفة لتوليد المحتوى الضار، وكسر الحماية، والهلاوس. تقول OpenAI إنها ستستخدم المركز لمشاركة المقاييس بشكل “مستمر”، وأنها تعتزم تحديث المركز مع “تحديثات رئيسية للنماذج” في المستقبل.

“بينما تتطور علوم تقييم الذكاء الاصطناعي، نهدف إلى مشاركة تقدمنا في تطوير طرق أكثر قابلية للتوسع لقياس قدرة النموذج وسلامته،” كتبت OpenAI في منشور مدونة. “من خلال مشاركة مجموعة من نتائج تقييم السلامة لدينا هنا، نأمل أن يسهل ذلك فهم أداء سلامة أنظمة OpenAI بمرور الوقت، وأن يدعم أيضًا جهود المجتمع لزيادة الشفافية عبر هذا المجال.”

تقول OpenAI إنها قد تضيف تقييمات إضافية إلى المركز مع مرور الوقت.

في الأشهر الأخيرة، أثارت OpenAI غضب بعض خبراء الأخلاقيات لتسرعها في اختبار السلامة لبعض النماذج الرئيسية وفشلها في إصدار تقارير فنية لأخرى. كما يتهم الرئيس التنفيذي للشركة، سام ألتمان، أيضًا بتضليل مسؤولي OpenAI بشأن مراجعات السلامة للنماذج قبل إقالته القصيرة في نوفمبر 2023.

في أواخر الشهر الماضي، أُجبرت OpenAI على التراجع عن تحديث النموذج الافتراضي الذي يدعم ChatGPT، GPT-4o، بعد أن بدأ المستخدمون في الإبلاغ عن أنه كان يستجيب بطريقة مفرطة في المديح والاتفاق. امتلأت منصة X بلقطات شاشة لـ ChatGPT وهو يثني على جميع أنواع القرارات والأفكار المثيرة للمشاكل والخطيرة.

قالت OpenAI إنها ستنفذ العديد من الإصلاحات والتغييرات لمنع حدوث مثل هذه الحوادث في المستقبل، بما في ذلك تقديم “مرحلة ألفا” اختيارية لبعض النماذج التي ستسمح لبعض مستخدمي ChatGPT باختبار النماذج وتقديم ملاحظات قبل الإطلاق.


المصدر

إستقرار الذكاء الاصطناعي تطلق نموذجاً لتوليد الصوت يمكن تشغيله على الهواتف الذكية

A robot reading music

أطلقت شركة الذكاء الاصطناعي الناشئة Stability AI نموذج Stable Audio Open Small، وهو نموذج لتوليد الصوت “ستيريو” تدّعي الشركة أنه الأسرع في السوق – وفعال بما يكفي ليعمل على الهواتف الذكية.

Stable Audio Open Small هو ثمرة تعاون بين Stability AI و Arm، الشركة المصنعة للرقائق التي تنتج العديد من المعالجات داخل الأجهزة اللوحية والهواتف والأجهزة المحمولة الأخرى. بينما يمكن لعدد من التطبيقات المعتمدة على الذكاء الاصطناعي مثل Suno و Udio توليد الصوت، يعتمد معظمها على معالجة السحاب، مما يعني أنها لا يمكن استخدامها في وضع عدم الاتصال.

تدعي Stability أيضًا أن مجموعة تدريب Stable Audio Open Small تتكون بالكامل من أغاني من مكتبات الصوت الخالية من حقوق الملكية Free Music Archive و Freesound. وذلك على عكس مجموعات تدريب Suno و Udio المذكورة أعلاه، التي تحتوي على محتوى محمي بحقوق الطبع والنشر، مما يشكل خطرًا على الملكية الفكرية.

يحتوي Stable Audio Open Small على 341 مليون معلمة وهو مُحسن للعمل على معالجات Arm. (المعلمات، والتي يشار إليها أحيانًا بالأوزان، هي المكونات الداخلية لنموذج توجه سلوكه.) تم تصميمه لتوليد عينات صوتية قصيرة وتأثيرات صوتية بسرعة (مثل نغمات الطبول والآلات) ، ويمكن لـ Stable Audio Open Small إنتاج ما يصل إلى 11 ثانية من الصوت على الهاتف الذكي في أقل من 8 ثوانٍ، بحسب ما تدعي Stability AI.

إليك عينة مولّدة بواسطة Stable Audio Open Small:

وهنا واحدة أخرى:

لكن النموذج ليس خاليًا من القيود. يدعم Stable Audio Open Small فقط الطلبات المكتوبة باللغة الإنجليزية، وتشير Stability في وثائقها إلى أن النموذج لا يمكنه توليد أصوات واقعية أو أغاني عالية الجودة. كما تحذر Stability من أن النموذج لا يعمل بشكل جيد عبر الأنماط الموسيقية المختلفة – نتيجة لبيانات التدريب المتحيزة نحو الثقافة الغربية.

في تقييد محتمل آخر للمطورين، يحتوي Stable Audio Open Small على شروط استخدام محددة نوعًا ما. يمكن استخدامه مجانًا للباحثين والهواة والشركات التي يقل دخلها السنوي عن مليون دولار، ولكن يتعين على المطورين والمنظمات التي تتجاوز عائداتها مليون دولار الدفع مقابل ترخيص الشركات من Stability.

تواجه Stability، الشركة المثقلة بالديون وراء نموذج توليد الصور الشهير Stable Diffusion، تحديات مالية وقد حصلت على تمويل جديد العام الماضي مع سعي المستثمرين، بما في ذلك إريك شميت ومؤسس نابستر شون باركر، إلى إنجاح الأعمال التجارية. وقد أُفيد أن عماد مصطفى، co-founder و ex-CEO لـ Stability، قد أساء إدارة الشركة مما أدى إلى افلاسها، مما دفع الموظفين إلى الاستقالة، وسقوط شراكة مع Canva، وزيادة قلق المستثمرين بشأن آفاق الشركة.

في الأشهر الأخيرة، عينت Stability مديرًا تنفيذيًا جديدًا، وعينت المخرج جيمس كاميرون من فيلم تيتانيك في مجلس إدارتها، وأطلقت عدة نماذج جديدة لتوليد الصور.


المصدر

الذهب يتراجع عالميًا.. هل يستمر التأثير على الأسواق المحلية؟

الذهب يتراجع عالميًا.. هل يستمر التأثير على الأسواق المحلية؟

نيويورك، لندن – سجلت أسعار الذهب العالمية تراجعًا ملحوظًا في تعاملات اليوم الأربعاء الموافق 14 مايو 2025، مما يثير تساؤلات حول استمرار هذا الاتجاه وتأثيره المحتمل على الأسواق المحلية في مختلف أنحاء العالم.

ففي المعاملات الفورية، انخفض سعر الذهب ليصل إلى 3231.08 دولار للأونصة الواحدة. كما تراجعت أسعار العقود الأمريكية الآجلة للذهب لتسجل 3234.70 دولار للأونصة.

ويأتي هذا الانخفاض بعد فترة من التذبذب في أسعار المعدن الأصفر، حيث تأثر بتقلبات الدولار الأمريكي، وبيانات التضخم العالمية، والتوقعات بشأن السياسات النقدية للبنوك المركزية الكبرى.

وتجدر الإشارة إلى أن الأونصة العالمية للذهب تعادل حوالي 31.1 جرامًا.

ويراقب المستثمرون والمتعاملون في أسواق الذهب عن كثب العوامل الاقتصادية والجيوسياسية التي قد تؤثر على حركة الأسعار في المدى القريب. وتشمل هذه العوامل أية بيانات اقتصادية جديدة تصدر في الولايات المتحدة وأوروبا، بالإضافة إلى التطورات الجارية في الأوضاع العالمية.

من المتوقع أن يكون لهذا الانخفاض في الأسعار العالمية تأثير على أسعار الذهب في الأسواق المحلية، بما في ذلك أسواق الشرق الأوسط وشمال أفريقيا. وعادة ما تتأثر أسعار الذهب المحلية بتقلبات الأسعار العالمية بالإضافة إلى عوامل العرض والطلب المحلية وسعر صرف العملات.

يبقى أن نرى ما إذا كان هذا التراجع في أسعار الذهب العالمية سيستمر، وما هو حجم التأثير الذي سيتركه على المستهلكين والمستثمرين في الأسواق المحلية خلال الأيام والأسابيع القادمة.

ديب مايند تدعي أن أداتها الجديدة في الذكاء الاصطناعي بارعة في حل مسائل الرياضيات والعلوم

ديب مايند AlphaEvolve

تقول مختبرات الذكاء الاصطناعي في جوجل ديب مايند إنها طورت نظام ذكاء اصطناعي جديد لمعالجة المشاكل بحلول “قابلة للمعالجة بالآلة”.

في التجارب، قال ديب مايند إن النظام، الذي يسمى AlphaEvolve، يمكن أن يساعد في تحسين بعض البنية التحتية التي تستخدمها جوجل لتدريب نماذجها للذكاء الاصطناعي. وتقول الشركة إنها تبني واجهة مستخدم للتفاعل مع AlphaEvolve، وتخطط لإطلاق برنامج الوصول المبكر للأكاديميين المختارين قبل أن يتم طرحه بشكل أوسع.

تتخيل معظم نماذج الذكاء الاصطناعي. نظرًا لهياكلها الاحتمالية، فإنها أحيانًا تخلق أشياء بثقة. في الواقع، نماذج الذكاء الاصطناعي الأحدث مثل نموذج OpenAI o3 تتخيل أكثر من أسلافها، مما يوضح طبيعة المشكلة الصعبة.

يقدم AlphaEvolve آلية ذكية لتقليل التخيلات: نظام تقييم تلقائي. يستخدم النظام نماذج لتوليد وإبداء النقد والوصول إلى مجموعة من الإجابات الممكنة لسؤال ما، ويقوم تلقائيًا بتقييم الدقة وتسجيل الإجابات.

ديب مايند AlphaEvolve
نظام AlphaEvolve من ديب مايند مصمم ليستخدمه خبراء المجال، وفقًا لما يقوله المختبرحقوق الصورة:ديب مايند

AlphaEvolve ليس النظام الأول الذي يتبنى هذا النهج. الباحثون، بما في ذلك فريق في ديب مايند قبل عدة سنوات، طبقوا تقنيات مماثلة في مجالات رياضية متنوعة. لكن ديب مايند تدعي أن استخدام AlphaEvolve لنماذج “حديثة ومتطورة” — تحديدًا نماذج جيميني — يجعلها أكثر قدرة بكثير من حالات سابقة للذكاء الاصطناعي.

لاستخدام AlphaEvolve، يجب على المستخدمين تحفيز النظام بمشكلة، بما في ذلك تفاصيل مثل التعليمات والمعادلات ورموز الكود والأدبيات ذات الصلة. كما يجب عليهم تقديم آلية لتقييم إجابات النظام تلقائيًا على شكل صيغة.

لأن AlphaEvolve يمكنه فقط حل المشكلات التي يمكنه تقييمها ذاتيًا، فإن النظام يمكنه العمل فقط مع أنواع معينة من المشكلات — تحديدًا تلك في مجالات مثل علوم الكمبيوتر وتحسين الأنظمة. في قيود رئيسية أخرى، يمكن لـ AlphaEvolve فقط وصف الحلول كخوارزميات، مما يجعله غير ملائم للمشكلات التي لا تتعلق بالأرقام.

لتقييم AlphaEvolve، جعلت ديب مايند النظام يحاول مجموعة مختارة من حوالي 50 مشكلة رياضية تغطي فروعًا من الهندسة إلى التركيب. تمكن AlphaEvolve من “إعادة اكتشاف” أفضل الإجابات المعروفة للمشكلات في 75% من الوقت واكتشاف حلول محسنة في 20% من الحالات، حسب ادعاءات ديب مايند.

قيمت ديب مايند AlphaEvolve أيضًا على مشكلات عملية، مثل زيادة كفاءة مراكز بيانات جوجل، وتسريع عمليات تدريب النماذج. وفقًا للمختبر، أنشأ AlphaEvolve خوارزمية تستعيد باستمرار 0.7% من موارد معالجة جوجل العالمية في المتوسط. كما اقترح النظام تحسينًا خفض الوقت الإجمالي الذي يستغرقه جوجل لتدريب نماذج جيميني بنسبة 1%.

لتوضيح الأمر، AlphaEvolve لا يحقق اكتشافات رائدة. في تجربة واحدة، تمكن النظام من العثور على تحسين لتصميم شريحة تسريع الذكاء الاصطناعي TPU الخاصة بجوجل التي تم الإشارة إليها بواسطة أدوات أخرى سابقًا.

ومع ذلك، تجعل ديب مايند نفس الحجة التي تقدمها العديد من مختبرات الذكاء الاصطناعي لأنظمتها: إن AlphaEvolve يمكن أن يوفر الوقت بينما يتيح للخبراء التركيز على أعمال أخرى أكثر أهمية.


المصدر