إذًا، لقد سمعت هذه المصطلحات المتعلقة بالذكاء الاصطناعي وأومأت برأسك؛ دعنا نصحح ذلك.
تغير الذكاء الاصطناعي العالم، وفي الوقت نفسه، يبتكر لغة جديدة تمامًا لوصف كيفية حدوث ذلك. اقضِ خمس دقائق في قراءة ما يتعلق بالذكاء الاصطناعي وستصادف LLMs، RAG، RLHF، وعددًا من المصطلحات الأخرى التي يمكن أن تجعل حتى الأشخاص الأذكياء جدًا في عالم التكنولوجيا يشعرون بعدم الأمان. هذا المعجم هو محاولتنا لإصلاح ذلك. نقوم بتحديثه بانتظام مع تطور المجال، لذا اعتبره وثيقة حية، مثل أنظمة الذكاء الاصطناعي التي يصفها.
الذكاء الاصطناعي العام، أو AGI، هو مصطلح غير واضح. ولكنه يشير عمومًا إلى الذكاء الاصطناعي الذي يكون أكثر قدرة من الشخص العادي في العديد من المهام، إن لم تكن معظمها. وصف الرئيس التنفيذي لـ OpenAI، سام ألتمان، AGI ذات مرة بأنه “معادل لإنسان متوسط يمكنك توظيفه كزميل عمل”. في هذه الأثناء، تعرف ميثاق OpenAI AGI بأنه “أنظمة ذاتية الاكتفاء للغاية تتفوق على البشر في معظم الأعمال القيمة اقتصاديًا”. ورؤية Google DeepMind لـ AGI تختلف قليلاً عن هذين التعريفين؛ إذ ترى المختبر AGI على أنه “ذكاء اصطناعي يمتلك ويكون على الأقل بنفس قدرات البشر في معظم المهام المعرفية.” مرتبك؟ لا داعي للقلق – فالخبراء في طليعة أبحاث الذكاء الاصطناعي يشعرون بنفس الشيء.
يشير وكيل الذكاء الاصطناعي إلى أداة تستخدم تقنيات الذكاء الاصطناعي لأداء مجموعة من المهام نيابة عنك – تتجاوز ما يمكن أن يفعله روبوت الدردشة الأساسي – مثل تقديم المصاريف، حجز تذاكر أو طاولة في مطعم، أو حتى كتابة وصيانة الكود. ومع ذلك، كما أوضحنا سابقًا، هناك الكثير من العناصر المتحركة في هذا المجال الناشئ، لذا قد يعني “وكيل الذكاء الاصطناعي” أشياء مختلفة لأشخاص مختلفين. لا يزال يوجد أيضًا بنية تحتية تُبنى لتلبية قدراته المتوقعة. لكن المفهوم الأساسي يعني نظامًا ذاتيًا قد يعتمد على أنظمة ذكاء اصطناعي متعددة لتنفيذ مهام متعددة الخطوات.
فكر في نقاط النهاية API كـ “أزرار” في خلفية برنامج يمكن لبرامج أخرى الضغط عليها لجعله يقوم بأشياء. يستخدم المطورون هذه الواجهات لبناء تكاملات – على سبيل المثال، السماح لتطبيق واحد بسحب البيانات من تطبيق آخر، أو تمكين وكيل الذكاء الاصطناعي من التحكم في خدمات طرف ثالث مباشرة دون الحاجة إلى تدخل بشري في كل واجهة. تمتلك معظم أجهزة المنازل الذكية والمنصات المتصلة هذه الأزرار المخفية المتاحة، حتى لو لم يرها المستخدمون العاديون أو يتفاعلون معها. مع تزايد قدرات وكلاء الذكاء الاصطناعي، أصبحوا قادرين بشكل متزايد على العثور على هذه النقاط واستخدامها بمفردهم، مما يفتح إمكانيات قوية – وأحيانًا غير متوقعة – للأتمتة.
عند طرح سؤال بسيط، يمكن أن يجيب الدماغ البشري بدون الحاجة للتفكير كثيرًا فيه – أشياء مثل “أي حيوان أطول، الزرافة أم القط؟” ولكن في العديد من الحالات، تحتاج غالبًا إلى قلم وورقة لوضع الإجابة الصحيحة لأن هناك خطوات وسيطة. على سبيل المثال، إذا كان لدى مزارع دجاج وابقار، وكانوا معًا لديهم 40 رأسًا و120 ساقًا، قد تحتاج إلى كتابة معادلة بسيطة للإجابة (20 دجاجة و20 بقرة).
في سياق الذكاء الاصطناعي، يعني استدلال سلسلة الأفكار لدى نماذج اللغة الكبيرة تفكيك المشكلة إلى خطوات أصغر ووسطية لتحسين جودة النتيجة النهائية. عادة ما يستغرق الحصول على إجابة وقتًا أطول، لكن من المرجح أن تكون الإجابة صحيحة، خاصة في سياق المنطق أو البرمجة. يتم تطوير نماذج التفكير من نماذج اللغة الكبيرة التقليدية ويتم تحسينها للتفكير في سلسلة الأفكار بفضل التعلم المعزز.
(انظر: نموذج اللغة الكبير)
حدث Techcrunch
سان فرانسيسكو، كاليفورنيا
|
13-15 أكتوبر 2026
هذا مفهوم أكثر تحديدًا من “وكيل الذكاء الاصطناعي”، مما يعني برنامجًا يمكنه اتخاذ إجراءات من تلقاء نفسه، خطوة بخطوة، لإكمال هدف. وكيل البرمجة هو نسخة متخصصة تطبق على تطوير البرمجيات. بدلاً من اقتراح كود بشري للمراجعة واللصق، يمكن لوكيل البرمجة كتابة واختبار وتصحيح الكود بشكل ذاتي، مما يتعامل مع نوع العمل التكراري والتجريبي الذي يستغرق عادةً وقتًا طويلاً من اليوم للمطور. يمكن لهذه الوكلاء العمل عبر قواعد التعليمات البرمجية بالكامل، وتحديد الأخطاء، وتشغيل الاختبارات، ودفع التصحيحات مع الحد الأدنى من الإشراف البشري. فكر في الأمر كأنك تعين متدربًا سريعًا جدًا لا ينام ولا يفقد التركيز – على الرغم من أنه، كما هو الحال مع أي متدرب، لا يزال يتعين على شخص مراجعة العمل.
على الرغم من كونه مصطلحًا متعدد الجوانب إلى حد ما، إلا أن الحوسبة تشير عمومًا إلى القوة الحسابية الحيوية التي تتيح أن تعمل نماذج الذكاء الاصطناعي. هذه النوع من المعالجة يغذي صناعة الذكاء الاصطناعي، مما يعطيها القدرة على تدريب ونشر نماذجها القوية. غالبًا ما يكون المصطلح اختصارًا لأنواع الأجهزة التي توفر القوة الحسابية – مثل وحدات معالجة الرسوم (GPUs)، ووحدات المعالجة المركزية (CPUs)، ووحدات معالجة تنسيق البيانات (TPUs)، وأشكال أخرى من البنية التحتية التي تشكل العمود الفقري لصناعة الذكاء الاصطناعي الحديثة.
مجموعة فرعية من التعلم الآلي الذاتي التحسين حيث تتمتع خوارزميات الذكاء الاصطناعي بتصميم هيكل شبكة عصبونية اصطناعية متعددة الطبقات (ANN). وهذا يسمح لها بعمل ارتباطات أكثر تعقيدًا مقارنةً بالأنظمة الأبسط القائمة على التعلم الآلي، مثل النماذج الخطية أو الأشجار القرارية. تستلهم هيكل خوارزميات التعلم العميق من المسارات المتصلة للعصبونات في الدماغ البشري.
نماذج الذكاء الاصطناعي العميق قادرة على تحديد الخصائص المهمة في البيانات بنفسها، بدلاً من الحاجة إلى مهندسين بشر لتحديد هذه الميزات. كما أن الهيكل يدعم الخوارزميات التي يمكنها التعلم من الأخطاء ومن خلال عملية التكرار والتعديل، تحسين نتائجها الخاصة. ومع ذلك، تتطلب أنظمة التعلم العميق عددًا كبيرًا من نقاط البيانات لتحقيق نتائج جيدة (ملايين أو أكثر). كما أنها عادة ما تأخذ وقتًا أطول للتدريب مقارنةً بخوارزميات التعلم الآلي الأبسط – لذلك تميل تكاليف التطوير إلى أن تكون أعلى.
(انظر: الشبكة العصبية)
يشير الانتشار إلى التقنية التي تقف وراء العديد من نماذج الذكاء الاصطناعي المتعلقة بالفن، الموسيقى، والنصوص. مستوحى من الفيزياء، تقوم أنظمة الانتشار “بتدمير” هيكل البيانات ببطء – على سبيل المثال، الصور، الأغاني، وما إلى ذلك – عن طريق إضافة الضوضاء حتى لا يبقى شيء. في الفيزياء، الانتشار عفوي ولا يمكن عكسه – السكر المذاب في القهوة لا يمكن استعادته إلى شكل مكعب. ولكن تهدف أنظمة الانتشار في الذكاء الاصطناعي إلى تعلم نوع من عملية “الانتشار العكسي” لاستعادة البيانات المدمرة، وكسب القدرة على استعادة البيانات من الضوضاء.
الترميز هو تقنية تُستخدم لاستخراج المعرفة من نموذج AI كبير باستخدام نموذج ‘معلم-طالب’. يرسل المطورون طلبات إلى نموذج المعلم ويسجلون المخرجات. يتم أحيانًا مقارنة الإجابات مع مجموعة بيانات لمعرفة مدى دقتها. ثم تُستخدم هذه المخرجات لتدريب نموذج الطالب، الذي يتم تدريبه لتقريب سلوك المعلم.
يمكن استخدام الترميز لإنشاء نموذج أصغر وأكثر كفاءة استنادًا إلى نموذج أكبر مع فقد ترميز ضئيل. يعتقد أن هذا هو كيف طورت OpenAI GPT-4 Turbo، وهو إصدار أسرع من GPT-4.
بينما تستخدم جميع شركات الذكاء الاصطناعي الترميز داخليًا، قد تكون قد استخدمته أيضًا بعض الشركات AI لتلحق بالنماذج المتقدمة. يعتبر الترميز من منافس عادة ما ينتهك شروط الخدمة الخاصة بـ AI API والمساعدين للدردشة.
تشير هذه العبارة إلى التدريب الإضافي لنموذج الذكاء الاصطناعي لتحسين الأداء لمهمة أو منطقة أكثر تحديدًا مما كانت نقطة التركيز السابقة لتدريبه – عادةً من خلال تغذية بيانات جديدة ومتخصصة (أي موجهة للمهام).
تأخذ العديد من الشركات الناشئة في الذكاء الاصطناعي نماذج اللغة الكبيرة كنقطة انطلاق لبناء منتج تجاري ولكنها تسعى لزيادة الفائدة لقطاع أو مهمة مستهدفة من خلال استكمال دورات التدريب السابقة بفحص دقيق مستند إلى معرفتها وخبرتها الخاصة.
(انظر: نموذج اللغة الكبير [LLM])
GAN، أو الشبكة التنافسية التوليدية، هي نوع من إطار تعلم الآلة الذي يقف وراء بعض التطورات المهمة في الذكاء الاصطناعي التوليدي فيما يتعلق بإنتاج بيانات واقعية – بما في ذلك (ولكن ليس مقتصرًا على) أدوات التزييف العميق. تشمل GANs استخدام زوج من الشبكات العصبية، واحدة منها تعتمد على بيانات التدريب الخاصة بها لإنتاج مخرجات تُمرر إلى النموذج الآخر للتقييم.
تم برمجة النموذجين أساسًا لمحاولة التفوق على بعضهما البعض. يحاول المُنشئ تمرير مخرجاته بالنسبة للمُميز، بينما يعمل المُميز على اكتشاف البيانات التي تم إنتاجها بشكل صناعي. يمكن أن يُحسن هذا التنافس المنظم مخرجات الذكاء الاصطناعي لتكون أكثر واقعية دون الحاجة إلى تدخل بشري إضافي. على الرغم من أن GANs تعمل بشكل أفضل للتطبيقات الضيقة (مثل إنتاج صور أو مقاطع فيديو واقعية)، بدلاً من الذكاء الاصطناعي متعدد الأغراض.
الهذيان هو المصطلح المفضل لصناعة الذكاء الاصطناعي لوصف نماذج الذكاء الاصطناعي التي تصنع أشياء – حرفياً توليد معلومات غير صحيحة. من الواضح أن هذه مشكلة كبيرة لجودة الذكاء الاصطناعي.
تنتج الهلاوس مخرجات GenAI التي يمكن أن تكون مضللة وقد تؤدي حتى إلى مخاطر حقيقية – مع عواقب محتملة خطيرة (فكر في استفسار صحي يعيد نصيحة طبية ضارة).
يعتقد أن مشكلة تصنيع المعلومات من قبل الذكاء الاصطناعي تنشأ نتيجة للفجوات في بيانات التدريب. تسهم الهلاوس في دفع نحو نماذج الذكاء الاصطناعي المتخصصة و / أو الرأسية بشكل متزايد – أي الذكاء الاصطناعي الخاص بمجال معين والذي يتطلب خبرة أضيق – كوسيلة للحد من احتمال حدوث فجوات المعرفة وتقليص مخاطر المعلومات المضللة.
الاستدلال هو العملية التي يتم من خلالها تشغيل نموذج الذكاء الاصطناعي. إنها تعيين نموذج لتحليل أو استنتاج البيانات التي تم رؤيتها مسبقًا. للتوضيح، لا يمكن أن يحدث الاستدلال بدون تدريب؛ يجب على النموذج أن يتعلم الأنماط في مجموعة بيانات قبل أن يتمكن من الاستنتاج بشكل فعال من بيانات التدريب هذه.
يمكن أن تؤدي أنواع متعددة من الأجهزة الاستدلال، بدءًا من معالجات الهواتف الذكية إلى وحدات معالجة الرسوم القوية إلى المعجلات المصممة خصيصًا للذكاء الاصطناعي. ولكن ليس جميعهم قادرون على تشغيل النماذج بشكل جيد. سيتطلب النموذج الكبير جدًا وقتًا طويلاً لإجراء التنبؤات على، على سبيل المثال، لابتوب مقابل خادم سحابي مزود بشريحة AI متطورة.
[انظر: التدريب]
نماذج اللغة الكبيرة، أو LLMs، هي نماذج الذكاء الاصطناعي المستخدمة من قبل المساعدين الشائعين في الذكاء الاصطناعي، مثل ChatGPT، Claude، Gemini من Google، AI Llama من Meta، Microsoft Copilot، أو Le Chat من Mistral. عندما تتحدث مع مساعد ذكاء اصطناعي، تتفاعل مع نموذج لغة كبير يعالج طلبك مباشرةً أو بمساعدة أدوات مختلفة متاحة، مثل تصفح الويب أو مترجمات الكود.
تتكون LLMs من شبكات عصبية عميقة مصنوعة من مليارات المعامل العددية (أو الأوزان، انظر أدناه) التي تتعلم العلاقات بين الكلمات والعبارات وتخلق تمثيلاً للغة، وهو نوع من الخريطة متعددة الأبعاد للكلمات.
تُنشئ هذه النماذج من خلال ترميز الأنماط التي تجدها في مليارات من الكتب والمقالات والنصوص. عندما تطلب من LLM، يقوم النموذج بإنشاء النمط الأكثر احتمالًا الذي يناسب طلبك.
(انظر: الشبكة العصبية)
ذاكرة التخزين المؤقت تشير إلى عملية مهمة تعزز الاستدلال (وهي العملية التي يعمل بها الذكاء الاصطناعي لتوليد استجابة لاستفسار المستخدم). في الجوهر، التخزين المؤقت هو تقنية تحسين، تهدف إلى جعل الاستدلال أكثر كفاءة. يُدفع الذكاء الاصطناعي، بطبيعة الحال، من خلال حسابات رياضية عالية الكثافة، وكل مرة يتم فيها إجراء هذه الحسابات، يتم استهلاك المزيد من الطاقة. تم تصميم التخزين المؤقت لتقليل عدد الحسابات التي قد يحتاج النموذج إلى تشغيلها من خلال حفظ حسابات معينة لاستفسارات وعمليات المستخدم المستقبلية. هناك أنواع مختلفة من التخزين المؤقت، رغم أن أحد المعروف هو التخزين المؤقت لقيم المفتاح (KV). يعمل مستوى التخزين هذا في النماذج المعتمدة على المحولات، ويزيد من الكفاءة، مما يؤدي إلى نتائج أسرع من خلال تقليل الوقت (والعمل الخوارزمي) الذي يستغرقه توليد الإجابات على أسئلة المستخدمين.
(انظر: الاستدلال)
تشير الشبكة العصبية إلى الهيكل الخوارزمي المتعدد الطبقات الذي يقوم على التعلم العميق – وأيضًا، بشكل أوسع، كل هذا الازدهار في أدوات الذكاء الاصطناعي التوليدية بعد ظهور نماذج اللغة الكبيرة.
على الرغم من أن فكرة الاقتداء بالمسارات المتصلة بشكل كثيف في الدماغ البشري كهيكل تصميمي لخوارزميات معالجة البيانات تعود إلى الأربعينيات، إلا أن الزيادة الحديثة في الأجهزة المخصصة لمعالجة الرسوم (GPUs) – من خلال صناعة ألعاب الفيديو – هي التي أفرجت حقًا عن قوة هذه النظرية. أثبتت هذه الشرائح أنها مناسبة تمامًا لتدريب الخوارزميات مع العديد من الطبقات أكثر مما كان ممكنًا في العصور السابقة – مما مكن أنظمة الذكاء الاصطناعي المعتمدة على الشبكات العصبية من تحقيق أداء أفضل بكثير عبر العديد من المجالات، بما في ذلك التعرف على الصوت، التنقل الذاتي، واكتشاف الأدوية.
(انظر: نموذج اللغة الكبير [LLM])
المصدر المفتوح يشير إلى البرمجيات – أو، بشكل متزايد، نماذج الذكاء الاصطناعي – حيث يتم توفير الكود الأساسي بشكل علني لأي شخص لاستخدامه أو فحصه أو تعديله. في عالم الذكاء الاصطناعي، تعتبر عائلة نماذج Llama من Meta مثالًا بارزًا؛ لينكس هو الموازاة التاريخية الشهيرة في أنظمة التشغيل. تتيح الأساليب مفتوحة المصدر للباحثين والمطورين والشركات في جميع أنحاء العالم البناء على أعمال بعضهم البعض، مما يسرع من التقدم ويمكّن من تدقيق السلامة المستقل الذي لا يمكن للنظم المغلقة تقديمه بسهولة. المصدر المغلق يعني أن الكود خاص – يمكنك استخدام المنتج ولكن لا يمكنك رؤية كيفية عمله، كما هو الحال مع نماذج GPT الخاصة بـ OpenAI – وهي تمييز أصبحت واحدة من المناقشات المحددة في صناعة الذكاء الاصطناعي.
التوازي يعني القيام بالعديد من الأشياء في نفس الوقت بدلاً من واحد بعد الآخر – مثل وجود 10 موظفين يعملون على أجزاء مختلفة من مشروع ما في نفس الوقت بدلاً من موظف واحد يقوم بكل شيء تسلسليًا. في الذكاء الاصطناعي، التوازي أساسي لكل من التدريب والاستدلال: تم تصميم وحدات معالجة الرسوم الحديثة لأداء آلاف الحسابات بالتوازي، وهو سبب رئيسي في أنها أصبحت العمود الفقري للأجهزة في الصناعة. مع تزايد تعقيد أنظمة الذكاء الاصطناعي وكبر حجم النماذج، أصبحت القدرة على تنفيذ العمل عبر العديد من الشرائح والعديد من الآلات واحدة من أهم العوامل في تحديد مدى سرعة وفاعلية بناء النماذج ونشرها. أصبح البحث في استراتيجيات التوازي الأفضل الآن مجال دراسة في حد ذاته.
راماجدون هو مصطلح ممتع لوصف اتجاه غير ممتع يجتاح صناعة التكنولوجيا: نقص متزايد باستمرار في ذاكرة الوصول العشوائي، أو شرائح RAM، التي تشغل تقريبًا جميع المنتجات التقنية التي نستخدمها في حياتنا اليومية. مع ازدهار صناعة الذكاء الاصطناعي، تشتري أكبر شركات التكنولوجيا ومختبرات الذكاء الاصطناعي – التي تسعى جميعًا للحصول على أقوى وأعلى كفاءة ذكاء اصطناعي – الكثير من ذاكرة الوصول العشوائي لتشغيل مراكز البيانات الخاصة بها لدرجة أنه لم يبقَ الكثير لبقية منا. وهذا الاختناق في الإمدادات يعني أن ما تبقى يصبح أكثر فأكثر تكلفة.
وهذا يشمل صناعات مثل الألعاب (حيث اضطرت شركات كبرى إلى رفع أسعار أجهزة الألعاب بسبب صعوبة العثور على شرائح الذاكرة لأجهزتها)، والإلكترونيات الاستهلاكية (حيث يمكن أن يتسبب نقص الذاكرة في أكبر انخفاض في شحنات الهواتف الذكية خلال أكثر من عقد)، وحوسبة المؤسسات العامة (لأن تلك الشركات لا تستطيع الحصول على ما يكفي من ذاكرة الوصول العشوائي لمراكز بياناتها الخاصة). من المتوقع أن يتوقف ارتفاع الأسعار فقط بعد انتهاء النقص المرعب، لكن، للأسف، لا توجد عملية تشير إلى أن هذا سيحدث قريبًا.
تعلم التعزيز هو طريقة لتدريب الذكاء الاصطناعي حيث يتعلم النظام من خلال تجربة أشياء وتلقي المكافآت للإجابات الصحيحة – كأنك تدرب حيوانك الأليف المحبوب باستخدام المكافآت، باستثناء “الحيوان الأليف” في هذا السيناريو هو شبكة عصبية و”المكافأة” هي إشارة رياضية تشير إلى النجاح. على عكس التعلم المراقب، حيث يتم تدريب نموذج على مجموعة بيانات ثابتة من الأمثلة الموسومة، يتيح التعلم المعزز للنموذج استكشاف بيئته، اتخاذ إجراءات، وتحديث سلوكه باستمرار بناءً على الردود التي يتلقاها. لقد أثبتت هذه الطريقة أنها قوية بشكل خاص لتدريب الذكاء الاصطناعي على لعب الألعاب، ولعب الروبوتات، ومؤخراً، تحسين قدرة التفكير لدى نماذج اللغة الكبيرة. أصبحت تقنيات مثل التعلم المعزز من ردود الفعل البشرية، أو RLHF، مركزية الآن في كيفية ضبط مختبرات الذكاء الاصطناعي الرائدة نماذجها لتكون أكثر فائدة ودقة وأمانًا.
عندما يتعلق الأمر بالتواصل بين الإنسان والآلة، هناك بعض التحديات الواضحة – فتواصل الناس باستخدام اللغة البشرية، بينما تنفذ برامج الذكاء الاصطناعي المهام من خلال عمليات خوارزمية معقدة مستندة إلى البيانات. الجسيمات تربط تلك الفجوة: فهي اللبنات الأساسية لتواصل الإنسان-الذكاء الاصطناعي، تمثل أجزاء منفصلة من البيانات التي تمت معالجتها أو إنتاجها بواسطة LLM. يتم إنشاؤها من خلال عملية تسمى الترميز، والتي تكسر النص الخام إلى وحدات قابلة للهضم يمكن لنموذج اللغة معالجتها، مشابهًا لكيفية ترجمة المترجمين للغة البشرية إلى كود ثنائي يمكن للحاسوب فهمه. في البيئات التجارية، تحدد الجسيمات أيضًا التكلفة – معظم شركات الذكاء الاصطناعي تتقاضى رسومًا على استخدام LLM بناءً على عدد الجسيمات، مما يعني أنه كلما زاد استخدام الشركة، زادت تكلفتها.
لذا مرة أخرى، الجسيمات هي قطع نص صغيرة – غالبًا أجزاء من الكلمات بدلاً من كلمات كاملة – التي تُقسمها نماذج اللغة الاصطناعية إلى أجزاء قبل معالجتها؛ تشبه تقريبًا “الكلمات” لأغراض فهم أعباء عمل الذكاء الاصطناعي. يُشير المرور إلى مقدار ما يمكن معالجته في فترة زمنية معينة، لذا يُعتبر مرور الجسيمات بشكل أساسي مقياسًا لمدى قدرة نظام الذكاء الاصطناعي على التعامل مع العمل في لحظة واحدة. يعتبر مرور الجسيمات العالي هدفًا رئيسيًا لفِرق البنية التحتية للذكاء الاصطناعي، حيث يحدد عدد المستخدمين الذين يمكن أن يخدمهم نموذج في نفس الوقت وكم من الوقت يستغرق كل منهم للحصول على الرد. وصف الباحث في الذكاء الاصطناعي أندريه كارباتي شعوره بالقلق عندما تكون اشتراكاته في الذكاء الاصطناعي خاملة – مكررًا الشعور الذي كان يشعر به كطالب دراسات عليا عندما كان العتاد الحاسوبية المكلفة لا يتم الاستفادة منه بالكامل – وهو شعور يعبر عن سبب تحول تحقيق مرور الجسيمات الأقصى إلى ما يشبه الهوس في هذا المجال.
تتضمن تطوير الذكاء الاصطناعي للتعلم الآلي عملية تعرف باسم التدريب. ببساطة، تشير هذه العملية إلى إدخال البيانات بحيث يمكن للنموذج أن يتعلم من الأنماط وينتج إخراجات مفيدة. في الأساس، إنها العملية التي تستجيب بها النظام لخصائص البيانات التي تمكنه من تعديل المخرجات نحو هدف محدد – سواء كان ذلك تحديد صور القطط أو إنتاج هايكو عند الطلب.
يمكن أن يكون التدريب مكلفًا لأنه يتطلب الكثير من المدخلات، وقد كانت الأحجام المطلوبة تتجه نحو الزيادة – وهذا هو السبب في أن الأساليب الهجينة، مثل تعديل نموذج يستند إلى القواعد باستخدام بيانات مستهدفة، يمكن أن تساعد في إدارة التكاليف دون الحاجة إلى البدء من الصفر.
[انظر: الاستدلال]
تقنية يتم فيها استخدام نموذج الذكاء الاصطناعي المدرب مسبقًا كنقطة انطلاق لتطوير نموذج جديد لمهمة مختلفة ولكن عادةً ما تكون ذات صلة – مما يسمح بإعادة استخدام المعرفة التي تم اكتسابها في دورات التدريب السابقة.
يمكن أن drives transfer learning على توفير الكفاءة من خلال تسريع تطوير النموذج. قد يكون أيضًا مفيدًا عندما تكون البيانات لمهمة التي يتم تطوير النموذج من أجلها محدودة بعض الشيء. ولكن من المهم ملاحظة أن هذه الطريقة لها قيود. ستتطلب النماذج التي تعتمد على transfer learning للحصول على قدرات عمومية على الأرجح تدريبًا على بيانات إضافية من أجل الأداء بشكل جيد في مجال اهتمامها.
(انظر: التعديل)
الأوزان هي جوهر تدريب الذكاء الاصطناعي، حيث تحدد مقدار الأهمية (أو الوزن) المعطى لميزات مختلفة (أو متغيرات الإدخال) في البيانات المستخدمة لتدريب النظام – مما يشكل مخرجات نموذج الذكاء الاصطناعي.
بالطريقة الأخرى، الأوزان هي معلمات عددية تعرّف ما هو الأكثر بروزًا في مجموعة البيانات لمهمة التدريب المحددة. تحقق وظيفة الأوزان من خلال تطبيق الضرب على المدخلات. عادةً ما يبدأ تدريب النموذج بأوزان يتم تعيينها عشوائيًا، ولكن مع تقدم العملية، تقوم الأوزان بالتعديل حيث يسعى النموذج للوصول إلى مخرجات تتطابق بشكل وثيق مع الهدف.
على سبيل المثال، نموذج الذكاء الاصطناعي لتوقع أسعار المنازل المدرب على بيانات تاريخية للعقارات لموقع مستهدف قد يشمل أوزان لميزات مثل عدد غرف النوم والحمامات، وما إذا كانت العقار منفصلًا أم شبه منفصل، وما إذا كان لديه مواقف، جراج، وما إلى ذلك.
في النهاية، تعكس الأوزان التي يربطها النموذج بكل من هذه المدخلات مقدار ما تؤثر به على قيمة العقار، استنادًا إلى مجموعة البيانات المعطاة.
فقدان التحقق هو رقم يُخبرك بمدى جودة تعلم نموذج الذكاء الاصطناعي خلال التدريب – وكلما كان الرقم أقل كلما كان أفضل. يراقب الباحثون ذلك عن كثب كنوع من تقييم الأداء في الوقت الحقيقي، باستخدامه لتحديد متى يجب إيقاف التدريب، ومتى يجب تعديل معلمات الهايبر، أو ما إذا كان ينبغي التحقيق في مشكلة محتملة. واحدة من القضايا الرئيسية التي يساعد على تنبيهها هي الإفراط في التكييف، وهي حالة يقوم فيها النموذج بتذكُّر بيانات تدريبه بدلاً من تعلم الأنماط التي يمكن تعميمها على مواقف جديدة. فكر في الأمر كما هو الفرق بين طالب يفهم المضمون بشكل حقيقي وواحد حفظ ببساطة امتحان العام الماضي – يساعد فقدان التحقق في كشف أي منهما يبدأ نموذجك في التحول إليه.
يتم تحديث هذه المقالة بانتظام بمعلومات جديدة.
عند الشراء من خلال الروابط في مقالاتنا، قد نكسب عمولة صغيرة. هذا لا يؤثر على استقلاليتنا التحريرية.