من نماذج اللغة الكبيرة إلى الهلوسات، إليك دليل مبسط لمصطلحات الذكاء الاصطناعي الشائعة

الذكاء الاصطناعي هو عالم عميق ومعقد. يعتمد العلماء الذين يعملون في هذا المجال غالبًا على اللغة والمصطلحات الفنية لشرح ما يعملون عليه. نتيجة لذلك، نضطر كثيرًا لاستخدام تلك المصطلحات التقنية في تغطيتنا لصناعة الذكاء الاصطناعي. لهذا السبب اعتقدنا أنه سيكون من المفيد إعداد معجم يحتوي على تعريفات لبعض من أهم الكلمات والعبارات التي نستخدمها في مقالاتنا.

سنقوم بتحديث هذا المعجم بانتظام لإضافة مدخلات جديدة حيث يستمر الباحثون في اكتشاف طرق جديدة لدفع حدود الذكاء الاصطناعي مع تحديد المخاطر الأمنية الناشئة.


الذكاء الاصطناعي العام، أو AGI، هو مصطلح ضبابي. لكنه يشير عمومًا إلى الذكاء الاصطناعي الذي يتمتع بقدرة أكبر من الإنسان العادي في العديد من المهام، إن لم يكن معظمها. وصف الرئيس التنفيذي لشركة OpenAI، سام ألتمان، مؤخرًا AGI بأنه “معادل لإنسان متوسط يمكنك توظيفه كزميل عمل.” في حين أن ميثاق OpenAI يعرف AGI بأنه “أنظمة ذاتية التحكم بدرجة عالية تتفوق على البشر في معظم الأعمال ذات القيمة الاقتصادية.” يختلف فهم Google DeepMind قليلاً عن هذين التعريفين؛ حيث يرى المختبر AGI كـ “ذكاء اصطناعي يعادل على الأقل قدرات البشر في معظم المهام الإدراكية.” هل أنت مرتبك؟ لا تقلق – بل حتى خبراء الخط الأمامي في أبحاث الذكاء الاصطناعي كذلك.

تشير وكيل الذكاء الاصطناعي إلى أداة تستخدم تكنولوجيا الذكاء الاصطناعي لأداء سلسلة من المهام بالنيابة عنك – تتجاوز ما يمكن أن تفعله الدردشة الآلية الأساسية – مثل تقديم المصروفات، حجز التذاكر أو الطاولة في مطعم، أو حتى كتابة وصيانة الشفرات. ومع ذلك، كما أوضحنا من قبل، هناك الكثير من العناصر المتحركة في هذه المساحة الناشئة، لذا فإن “وكيل الذكاء الاصطناعي” قد يعني أشياء مختلفة لأشخاص مختلفين. لا يزال يتم بناء البنية التحتية لتلبية قدراته المرسومة. لكن المفهوم الأساسي يشير إلى نظام مستقل قد يستمد من عدة أنظمة ذكاء اصطناعي لتنفيذ مهام متعددة الخطوات.

بالنظر إلى سؤال بسيط، يمكن للعقل البشري أن يجيب دون الحاجة إلى التفكير كثيرًا في الأمر – أشياء مثل “أي حيوان أطول، الزرافة أم القط؟” ولكن في كثير من الحالات، غالبًا ما تحتاج إلى قلم وورقة للتوصل إلى الإجابة الصحيحة لأن هناك خطوات وسيطة. على سبيل المثال، إذا كان هناك مزارع يملك دجاجًا وأبقارًا، ومعًا لديهم 40 رأسًا و120 ساقًا، فقد تحتاج إلى كتابة معادلة بسيطة للوصول إلى الجواب (20 دجاجة و20 بقرة).

في سياق الذكاء الاصطناعي، يعني التفكير المستند إلى سلسلة من الأفكار للنماذج اللغوية الكبيرة تفكيك المشكلة إلى خطوات أصغر ووسيطة لتحسين جودة النتيجة النهائية. عادة ما يستغرق الأمر وقتًا أطول للحصول على إجابة، لكن من المرجح أن تكون الإجابة صحيحة، خاصة في سياق المنطق أو البرمجة. تم تطوير نماذج التفكير من النماذج اللغوية الكبيرة التقليدية وتحسينها لتناسب التفكير المستند إلى سلسلة من الأفكار بفضل التعلم المعزز.

(انظر: النموذج اللغوي الكبير)

حدث Techcrunch

سان فرانسيسكو، كاليفورنيا
|
13-15 أكتوبر 2026

على الرغم من كونه مصطلح متعدد المعاني إلى حد ما، إلا أن الحوسبة تشير عمومًا إلى القوة الحاسوبية الحيوية التي تسمح لنماذج الذكاء الاصطناعي بالعمل. هذا النوع من المعالجة يمد صناعة الذكاء الاصطناعي بالطاقة، مما يمنحها القدرة على تدريب ونشر نماذجها القوية. غالبًا ما يكون المصطلح اختصارًا لأنواع الأجهزة التي توفر القوة الحاسوبية – أشياء مثل وحدات معالجة الرسوم (GPUs)، وحدات المعالجة المركزية (CPUs)، وحدات معالجة التعلم العميق (TPUs)، وغيرها من أشكال البنية التحتية التي تشكل الأساس لصناعة الذكاء الاصطناعي الحديثة.

مجموعة فرعية من التعلم الآلي الذاتي التحسين حيث يتم تصميم خوارزميات الذكاء الاصطناعي بهيكل شبكة عصبية اصطناعية متعددة الطبقات (ANN). هذا يسمح لها بإجراء ارتباطات أكثر تعقيدًا مقارنة بالأنظمة القائمة على التعلم الآلي البسيط، مثل النماذج الخطية أو أشجار القرارات. يستلهم هيكل الخوارزميات في التعلم العميق من المسارات المترابطة للخلايا العصبية في الدماغ البشري.

نموذج الذكاء الاصطناعي القائم على التعلم العميق قادر على التعرف على الخصائص المهمة في البيانات بنفسه، بدلاً من الحاجة إلى مهندسين بشريين لتعريف هذه الميزات. كما يدعم الهيكل أيضًا الخوارزميات التي يمكن أن تتعلم من الأخطاء، ومن خلال عملية التكرار والتعديل، تحسن نواتجها الخاصة. ومع ذلك، تتطلب أنظمة التعلم العميق الكثير من نقاط البيانات لتحقيق نتائج جيدة (ملايين أو أكثر). كما أنها عادة ما تستغرق وقتًا أطول للتدريب مقارنة بخوارزميات التعلم الآلي الأبسط – لذا فإن تكاليف التطوير تميل إلى أن تكون أعلى.

(انظر: الشبكة العصبية)

الانتشار هو التقنية التي تتواجد في قلب العديد من نماذج الذكاء الاصطناعي التي تقوم بإنتاج فن أو موسيقى أو نصوص. مستوحاة من الفيزياء، تدمر أنظمة الانتشار ببطء هيكل البيانات – على سبيل المثال، الصور، والأغاني، وما إلى ذلك – من خلال إضافة ضوضاء حتى لا يبقى شيء. في الفيزياء، الانتشار عفوي ولا يمكن عكسه – السكر الذي تم نشره في القهوة لا يمكن استعادته إلى شكل مكعب. لكن أنظمة الانتشار في الذكاء الاصطناعي تهدف إلى تعلم نوع من عملية “الانتشار العكسية” لاستعادة البيانات المدمرة، مما يتيح لها القدرة على استرداد البيانات من الضوضاء.

التقطير هو تقنية تُستخدم لاستخراج المعرفة من نموذج ذكاء اصطناعي كبير باستخدام نموذج “المعلم-الطالب”. يقوم المطورون بإرسال طلبات إلى نموذج المعلم وتسجيل المخرجات. يتم أحيانًا مقارنة الإجابات مع مجموعة بيانات لرؤية مدى دقتها. تُستخدم هذه المخرجات لتدريب نموذج الطالب، الذي يُدرب ليحاكي سلوك المعلم.

يمكن استخدام التقطير لإنشاء نموذج أصغر وأكثر كفاءة استنادًا إلى نموذج أكبر مع الحد الأدنى من خسارة التقطير. من المحتمل أن هذه هي الطريقة التي طورت بها OpenAI GPT-4 Turbo، وهو إصدار أسرع من GPT-4.

بينما تستخدم جميع شركات الذكاء الاصطناعي التقطير داخليًا، يمكن أن يكون قد تم استخدامه أيضًا من قبل بعض شركات الذكاء الاصطناعي لمواكبة النماذج الرائدة. يعد التقطير من المنافسين عادةً انتهاكًا لشروط خدمة واجهتي برمجة التطبيقات (API) للذكاء الاصطناعي ومساعدي الدردشة.

يشير هذا إلى المزيد من تدريب نموذج الذكاء الاصطناعي لتحسين الأداء لمهمة أو مجال أكثر تحديدًا مما كان جزءًا من تدريبه السابق – عادة عن طريق إطعام بيانات جديدة متخصصة (أي، بيانات مستندة إلى المهمة).

تأخذ العديد من الشركات الناشئة في مجال الذكاء الاصطناعي نماذج اللغة الكبيرة كنقطة انطلاق لبناء منتج تجاري، لكنها تتنافس لزيادة الفائدة لقطاع أو مهمة معينة من خلال تكملة الدورات التدريبية السابقة بالتعديل بناءً على معرفتها وخبراتها الخاصة في مجالها.

(انظر: النموذج اللغوي الكبير [LLM])

GAN، أو الشبكة التوليدية التنافسية، هي نوع من إطار التعلم الآلي الذي يدعم بعض التطورات الهامة في الذكاء الاصطناعي التوليدي عندما يتعلق الأمر بإنتاج بيانات واقعية – بما في ذلك (ولكن ليس فقط) أدوات التزييف العميق. تتضمن GANs استخدام زوج من الشبكات العصبية، إحداهما تعتمد على بيانات التدريب الخاصة بها لتوليد مخرجات تُمرر إلى النموذج الآخر لتقييمها. ومن ثم فإن هذا النموذج الثاني، نموذج المميز، يلعب دور المصنف على مخرجات المولد – مما يمكّنه من التحسين مع مرور الوقت.

تُعد بنية GAN بمثابة منافسة (ومن هنا جاءت كلمة “تنافسية”) – حيث يتم برمجة النموذجين لمحاولة التفوق على بعضهما البعض: يحاول المولد تجاوز المميز، بينما يعمل المميز على ضمان الكشف عن البيانات المولدة بشكل مصطنع. يمكن أن تعزز هذه المنافسة المنظمة مخرجات الذكاء الاصطناعي لتكون أكثر واقعية دون الحاجة إلى تدخل بشري إضافي. على الرغم من أن GANs تعمل بشكل أفضل لتطبيقات ضيقة (مثل إنتاج صور أو مقاطع فيديو واقعية)، بدلاً من الذكاء الاصطناعي العام.

الهلاوس هو المصطلح المفضل لصناعة الذكاء الاصطناعي لوصف النماذج التي تخلق معلومات غير صحيحة. من الواضح أن هذه مشكلة كبيرة لجودة الذكاء الاصطناعي.

تنتج الهلاوس مخرجات GenAI التي قد تكون مضللة وقد تؤدي حتى إلى مخاطر كبيرة في الحياة الواقعية – مع عواقب محتملة خطيرة (فكر في استفسار صحي يعيد نصائح طبية ضارة). لهذا السبب تحذر المطبوعات الصغيرة لمعظم أدوات GenAI المستخدمين الآن من التحقق من الإجابات المولدة بواسطة الذكاء الاصطناعي، على الرغم من أن هذه التحذيرات عادة ما تكون أقل وضوحًا من المعلومات التي تقدمها الأدوات بضغطة زر.

يُعتقد أن مشكلة إنشاء الذكاء الاصطناعي لمعلومات غير صحيحة ناتجة عن وجود فجوات في بيانات التدريب. بالنسبة للذكاء الاصطناعي العام، يعتبر هذا الأمر صعب الحل. ببساطة، لا توجد بيانات كافية لتدريب نماذج الذكاء الاصطناعي لحل جميع الأسئلة التي يمكن أن نطرحها. مختصر الكلام: لم نخلق الله (بعد).

تساهم الهلاوس في دفع الاتجاه نحو نماذج الذكاء الاصطناعي المتخصصة أو العمودية بشكل متزايد – أي الذكاء الاصطناعي المحدد المجال الذي يتطلب خبرة ضيقة – كوسيلة لتقليل احتمال وجود فجوات معرفية وتقليل مخاطر المعلومات المضللة.

الاستدلال هو العملية التي يتم من خلالها تشغيل نموذج الذكاء الاصطناعي. إنها تعني ترك نموذج ليقوم بإجراء توقعات أو استخلاص استنتاجات من البيانات التي تمت مشاهدتها مسبقًا. للتوضيح، لا يمكن أن يحدث الاستدلال بدون تدريب؛ يجب على النموذج أن يتعلم الأنماط في مجموعة من البيانات قبل أن يتمكن من استخلاصها بشكل فعال.

يمكن أن تؤدي العديد من أنواع الأجهزة الاستدلال، بدءًا من معالجات الهواتف الذكية إلى وحدات معالجة الرسومات القوية إلى المعجلات التي تم تصميمها خصيصًا للذكاء الاصطناعي. لكن ليس كل منها يمكنه تشغيل النماذج بنفس الكفاءة. قد تستغرق النماذج الكبيرة جدًا فترات زمنية طويلة لإجراء توقعات على جهاز كمبيوتر محمول مقارنةً بخادم سحابي مزود بشرائح ذكاء إصطناعي عالية الجودة.

[انظر: التدريب]

النماذج اللغوية الكبيرة، أو LLMs، هي النماذج المستخدمة من قبل مساعدي الذكاء الاصطناعي الشهيرين، مثل ChatGPT وClaude وGoogle’s Gemini وMeta’s AI Llama وMicrosoft Copilot أو Mistral’s Le Chat. عندما تتحدث مع مساعد الذكاء الاصطناعي، فإنك تتفاعل مع نموذج لغوي كبير يعالج طلبك مباشرة أو بمساعدة أدوات متاحة مختلفة، مثل تصفح المواقع أو مفسري الشفرات.

يمكن أن تحمل مساعدات الذكاء الاصطناعي والنماذج اللغوية الكبيرة أسماء مختلفة. على سبيل المثال، GPT هو النموذج اللغوي الكبير لشركة OpenAI وChatGPT هو المنتج المساعد الذكي.

تعتبر LLMs شبكات عصبية عميقة مصنوعة من مليارات المعلمات العددية (أو الأوزان، انظر أدناه) التي تتعلم العلاقات بين الكلمات والعبارات وتخلق تمثيلًا للغة، وهو نوع من الخريطة متعددة الأبعاد للكلمات.

تُنشأ هذه النماذج من ترميز الأنماط التي تجدها في مليارات الكتب والمقالات والنصوص. عندما تطلب من LLM، يقوم النموذج بتوليد النمط الأكثر احتمالاً الذي يتناسب مع الطلب. ثم يقيم الكلمة التالية الأكثر احتمالًا بعد الكلمة الأخيرة استنادًا إلى ما قيل سابقًا. كرر، كرر، وكرر.

(انظر: الشبكة العصبية)

ذاكرة التخزين المؤقت تشير إلى عملية مهمة تعزز الاستدلال (هي العملية التي يعمل بها الذكاء الاصطناعي لتوليد استجابة لاستفسار المستخدم). في جوهرها، يعد التخزين المؤقت تقنية تحسين مصممة لجعل الاستدلال أكثر كفاءة. يتم دفع الذكاء الاصطناعي بالطبع بواسطة حسابات رياضية معقدة وعالية الكفاءة، وكلما تم إجراء تلك الحسابات، تستهلك المزيد من الطاقة. تم تصميم التخزين المؤقت لتقليل عدد الحسابات التي قد يحتاج النموذج إلى إجرائها من خلال حفظ حسابات معينة لتنفيذ استعلامات وعمليات المستخدم المستقبلية. هناك أنواع مختلفة من التخزين المؤقت للذاكرة، على الرغم من أن أحد أكثرها شهرة هو التخزين المؤقت من نوع KV (أو قيمة المفتاح). يعمل التخزين المؤقت من نوع KV في النماذج القائمة على المحولات، ويزيد من الكفاءة، مما يدفع لنتائج أسرع عن طريق تقليل الوقت (والجهد الخوارزمي) اللازم لتوليد الإجابات عن أسئلة المستخدمين.

(انظر: الاستدلال)

الشبكة العصبية تشير إلى البنية الهيكلية متعددة الطبقات التي تدعم التعلم العميق – وبصفة أوسع، الإزدهار الكامل للأدوات الذكية التوليدية بعد ظهور النماذج اللغوية الكبيرة.

على الرغم من أن فكرة أخذ الإلهام من المسارات المترابطة بكثافة في الدماغ البشري كبنية تصميم لوحدات معالجة البيانات تعود إلى الأربعينيات، إلا أن ظهور أجهزة معالجة البيانات الرسومية (GPUs) بشكل حديث (من خلال صناعة ألعاب الفيديو) هو ما أطلق بالفعل قوة هذه النظرية. كانت هذه الشرائح ملائمة للغاية لتدريب الخوارزميات مع الكثير من الطبقات أكثر مما كان ممكنًا في العصور السابقة – مما مكّن أنظمة الذكاء الاصطناعي القائمة على الشبكات العصبية من تحقيق أداء أفضل بكثير عبر العديد من المجالات، بما في ذلك التعرف على الصوت، والتنقل الذاتي، واكتشاف الأدوية.

(انظر: النموذج اللغوي الكبير [LLM])

رمضان هو مصطلح لطيف جديد لم يكن له تأثير مُرَغَّب: نقص متزايد في الذاكرة العشوائية (RAM) ، والتي تُستخدم تقريبًا في جميع التطبيقات التقنية التي نستخدمها في حياتنا اليومية. مع ازدهار صناعة الذكاء الاصطناعي، تقوم أكبر الشركات التكنولوجية ومراكز أبحاث الذكاء الاصطناعي – التي تتسابق جميعها لنيل أقوى وأكفأ ذكاء اصطناعي – بشراء الكثير من ذاكرة الوصول العشوائي لتغذية مراكز بياناتها بحيث لم يتبقَ الكثير للباقين منا. ويعني عنق الزجاجة هذا أن ما تبقى يصبح أكثر تكلفة.

يشمل ذلك صناعات مثل الألعاب (حيث اضطرت شركات كبرى إلى رفع الأسعار على وحدات التحكم لأنها أصبحت أكثر صعوبة في العثور على شرائح الذاكرة لأجهزتها)، والإلكترونيات الاستهلاكية (حيث قد يتسبب نقص الذاكرة في أكبر انخفاض في شحنات الهواتف الذكية منذ أكثر من عقد)، والحوسبة العامة (لأن هذه الشركات لا تستطيع الحصول على ذاكرة كافية لمراكز بياناتها الخاصة). من المتوقع أن تتوقف الزيادة في الأسعار فقط بعد انتهاء النقص المروع، لكن، للأسف، لا يوجد بالفعل أي علامة على حدوث ذلك في أي وقت قريب.

إن تطوير ذكاء اصطناعي يعتمد على التعلم الآلي يتضمن عملية تُعرف باسم التدريب. ببساطة، يشير ذلك إلى إدخال بيانات حتى يتسنى للنموذج التعلم من الأنماط وتوليد مخرجات مفيدة.

يمكن أن تصبح الأمور فلسفية قليلاً في هذه النقطة من تسلسل الذكاء الاصطناعي – نظرًا لأن، قبل التدريب، الهيكل الرياضي المستخدم كنقطة انطلاق لتطوير نظام التعلم هو فقط مجموعة من الطبقات والأرقام العشوائية. إنه فقط من خلال التدريب يأخذ نموذج الذكاء الاصطناعي شكله الحقيقي. يعد ذلك عملية استجابة النظام للخصائص في البيانات المتعلقة بالهدف المرغوب – سواء كان ذلك هو التعرف على صور القطط أو إنتاج هايكو عند الطلب.

من المهم أن نلاحظ أن ليس كل الذكاء الاصطناعي بحاجة إلى تدريب. أنظمة الذكاء الاصطناعي المستندة إلى القواعد التي تم برمجتها للامتثال لتعليمات معرفة يدويًا – على سبيل المثال، مثل الدردشة الآلية الخطية – لا تحتاج إلى الخضوع للتدريب. ومع ذلك، من المحتمل أن تكون هذه الأنظمة أكثر تقييدًا من أنظمة التعلم الذاتي (ذات القدرات العالية).

ومع ذلك، يمكن أن يكون التدريب مكلفًا لأنه يتطلب الكثير من المدخلات – وعادةً، كانت كميات المدخلات المطلوبة لمثل هذه النماذج تميل إلى التزايد.

يمكن أحيانًا استخدام أساليب هجينة للقيام بتسريع تطوير النموذج والمساعدة في إدارة التكاليف. مثل القيام بعمليات تعديل مستندة إلى البيانات للذكاء الاصطناعي القائم على القواعد – مما يعني أن التطوير يتطلب بيانات أقل، وحوسبة، وطاقة، وتعقيد خوارزمي أقل مما لو كان المطور قد بدأ بالبناء من الصفر.

[انظر: الاستدلال]

عندما يتعلق الأمر بالتواصل بين البشر والآلات، هناك بعض التحديات الواضحة. يتواصل الناس باستخدام اللغة البشرية، في حين أن البرامج الذكية العالية الأداء تنفذ المهام وتستجيب للاستفسارات من خلال عمليات خوارزمية معقدة تعتمد على البيانات. في تعريفهم الأكثر بساطة، تمثل الرموز (tokens) الوحدات الأساسية للتواصل بين البشر والذكاء الاصطناعي، كونها أجزاء منفصلة من البيانات التي تم معالجتها أو إنتاجها بواسطة النموذج اللغوي الكبير.

تُنشأ الرموز من خلال عملية تُعرف باسم “التقسيم إلى رموز”، التي تكسر البيانات الخام وتكررها إلى وحدات مميزة يمكن فهمها بواسطة النموذج اللغوي الكبير. مثل كيفية ترجمة مترجم البرمجيات اللغة البشرية إلى أكواد ثنائية يستطيع الكمبيوتر فهمها، يقوم التقسيم إلى رموز بتفسير اللغة البشرية لبرنامج الذكاء الاصطناعي عبر استفسارات المستخدم بحيث يمكنه إعداد استجابة.

هناك عدة أنواع مختلفة من الرموز – بما في ذلك الرموز المدخلة (النوع الذي يجب إنشاؤه استجابة لاستفسار المستخدم البشري)، والرموز الناتجة (النوع الذي يتم إنشاؤه عندما يستجيب النموذج اللغوي الكبير لطلب الإنسان)، ورموز الاستدلال، التي تشمل المهام والعمليات الأطول والأكثر كثافة والتي تحدث كجزء من طلب المستخدم.

مع الذكاء الاصطناعي الخاص بالشركات، تحدد استخدام الرموز أيضًا التكاليف. نظرًا لأن الرموز تعادل كمية البيانات المعالجة بواسطة النموذج، فقد أصبحت أيضًا الوسيلة التي من خلالها تقوم صناعة الذكاء الاصطناعي بتحقيق العائدات من خدماتها. معظم شركات الذكاء الاصطناعي تتقاضى الرسوم وفقًا لاستخدام النموذج اللغوي الكبير بناءً على عدد الرموز. وبالتالي، كلما زادت الرموز التي يستخدمها عمل في برنامج ذكاء اصطناعي (مثل ChatGPT، على سبيل المثال)، زادت الأموال التي سيتعين عليه دفعها لمزود خدمة الذكاء الاصطناعي (OpenAI).

تقنية حيث يُستخدم نموذج ذكاء اصطناعي تم تدريبه سابقًا كنقطة انطلاق لتطوير نموذج جديد لمهمة مختلفة ولكن عادةً ما تكون مرتبطة – مما يسمح بإعادة استخدام المعرفة التي تم اكتسابها في دورات التدريب السابقة.

يمكن أن تدفع التعلم الانتقالي كفاءة التطوير من خلال تسريع عملية تطوير النموذج. يمكن أن يكون أيضًا مفيدًا عندما تكون البيانات لمهمة النموذج المطور محدودة بعض الشيء. ولكن من المهم أن نلاحظ أن هذه الطريقة لها حدود. من المحتمل أن تتطلب النماذج التي تعتمد على التعلم الانتقالي لاكتساب قدرات عامة تدريبًا على بيانات إضافية من أجل الأداء جيدًا في مجال تركيزها.

(انظر: التعديل)

تمثل الأوزان جانبًا أساسيًا في تدريب الذكاء الاصطناعي، حيث تحدد مقدار الأهمية (أو الوزن) الممنوحة لمختلف الميزات (أو المتغيرات المدخلات) في البيانات المستخدمة لتدريب النظام – مما يشكل مخرجات نموذج الذكاء الاصطناعي.

بعبارة أخرى، الأوزان هي معلمات عددية تحدد ما هو الأكثر بروزًا في مجموعة البيانات بالنسبة لمهمة التدريب المعينة. تحقق وظائفها عن طريق تطبيق الضرب على المدخلات. عادة ما يبدأ تدريب النموذج بالأوزان المحددة عشوائيًا، ولكن مع تقدم العملية، تتAdjust الأوزان حيث يسعى النموذج للوصول إلى ناتج يتناسب بشكل أكبر مع الهدف.

على سبيل المثال، قد يتضمن نموذج ذكاء إصطناعي يتنبأ بأسعار المنازل المُدرّب على بيانات العقارات التاريخية لموقع مستهدف، الأوزان للميزات مثل عدد غرف النوم والحمامات، سواء كانت العقار منفصلًا أو شبه منفصل، سواء كان لديه مواقف، جراج، وهكذا.

في النهاية، تعكس الأوزان التي يعينها النموذج لكل من هذه المدخلات مقدار تأثيرها على قيمة العقار، بناءً على مجموعة البيانات المعطاة.

يتم تحديث هذه المقالة بانتظام بمعلومات جديدة.


المصدر