Verbalized SamplingVerbalized Sampling

اكتشف كيف نجح باحثو جامعة Stanford في حل مشكلة “انهيار التنوع” في نماذج الذكاء الاصطناعي مثل ChatGPT باستخدام تقنية بسيطة تُعرف باسم Verbalized Sampling — طريقة مذهلة من ثماني كلمات فقط تعيد للنماذج الإبداع والتنوع دون أي تدريب جديد.


في السنوات الأخيرة، أصبحنا نعتمد على الذكاء الاصطناعي أكثر من أي وقت مضى. من كتابة المقالات إلى تأليف القصص، مرورًا بالبرمجة وحتى إنتاج الموسيقى، بدا وكأن الآلات تفكر أخيرًا مثل البشر.
لكن، هل لاحظت يومًا أن هذه النماذج — رغم قوتها — تبدأ أحيانًا في تكرار نفسها؟ نفس الجمل، نفس النكات، نفس الأسلوب؟

هذه ليست صدفة. بل ظاهرة حقيقية تُعرف في الأبحاث باسم Mode Collapse أو انهيار التنوع. وهي واحدة من أكبر التحديات التي تواجه نماذج اللغة الكبيرة مثل ChatGPT وClaude وGemini.


القصة تبدأ بنكتة عن القهوة

بدأت القصة عندما طلب أحد الباحثين من نموذج GPT أن يكتب نكتة عن القهوة.
أجابه النموذج قائلًا:

“Why did the coffee file a police report? It got mugged!”

ضحك الباحث في المرة الأولى، ثم أعاد التجربة خمس مرات… فكانت النتيجة هي نفسها تمامًا!
نفس النكتة، نفس الصياغة، نفس “الإبداع” المكرر.

هذه اللحظة ألهمت فريق جامعة Stanford ليبحث عن السبب الحقيقي وراء هذا التكرار.
لماذا يكرر الذكاء الاصطناعي نفسه حتى عندما يملك القدرة على توليد ملايين الاحتمالات؟


المشكلة الخفية: تحيّز النمطية Typicality Bias

من خلال دراسة عميقة، اكتشف الباحثون أن المشكلة لا تكمن في قدرات النموذج نفسه، بل في الطريقة التي يُدرَّب بها.
تُستخدم في تدريب النماذج الحديثة تقنية تُعرف بـ RLHF (التعلم التعزيزي من التغذية الراجعة البشرية).
فيها يقيّم البشر إجابات النموذج، ويعطونه تقييمات بناءً على ما يجدونه “أفضل” أو “أكثر منطقية”.

لكن هنا يكمن الفخ:
البشر بطبيعتهم يفضّلون النصوص المألوفة والمتوقعة.
وبمرور الوقت، يتعلم النموذج أن يقدّم الإجابات “الآمنة” بدلًا من “المبتكرة”.
وهكذا يُقتل التنوع، وتولد ظاهرة Mode Collapse.


الحل العبقري: Verbalized Sampling

بدلًا من تعديل بنية النموذج أو إعادة تدريبه، قدّم فريق Stanford فكرة بسيطة تكاد لا تُصدّق:
غيّر طريقة السؤال، وستغيّر النتيجة!

يسمّى هذا الأسلوب Verbalized Sampling — أو “التوليد اللفظي بالعينة”.
الفكرة باختصار هي أن تطلب من النموذج أكثر من إجابة واحدة، مع تحديد “احتمالية” كل إجابة.

بدلًا من أن تقول:

“اكتب نكتة عن القهوة.”

قل:

“اكتب 5 نكات عن القهوة مع احتمالية كل واحدة منها.”

أو بالإنجليزية كما في البحث الأصلي:

“Generate 5 jokes about coffee and their corresponding probabilities.”


لماذا تعمل هذه الخدعة البسيطة؟

عندما يُطلب من النموذج إنتاج إجابة واحدة، فإنه يختار النتيجة الأكثر احتمالًا — أي الأكثر تكرارًا في بياناته.
أما عندما يُطلب منه إنتاج عدة إجابات مع احتمالاتها، يضطر النموذج إلى استكشاف مساحة أوسع من الأفكار الموجودة داخله.
هذا يجعله يستعيد التنوع الأصلي الذي اكتسبه أثناء التدريب المبدئي، قبل أن “يضيق أفقه” تحت تأثير تقييمات البشر.

بكلمات أخرى:

Verbalized Sampling تجعل النموذج يفكر بصوت عالٍ، فيخرج أفضل ما لديه.


نتائج مذهلة بالأرقام

وفقًا لتقرير جامعة Stanford والمصادر المرتبطة بالدراسة [1][2][3][5]، كانت النتائج مدهشة:

  • زاد التنوع الإبداعي في النصوص بنسبة تتراوح بين 1.6 إلى 2.1 مرة مقارنة بالطريقة التقليدية.
  • ارتفعت تقييمات البشر للنصوص المنتجة بنسبة 25.7%.
  • استعادت النماذج حوالي 66.8% من تنوعها الأصلي الذي فقدته بعد تدريب RLHF.
  • عملت التقنية بشكل أفضل مع النماذج المتقدمة مثل GPT-4.
  • لم تؤثر سلبًا على الدقة أو الأمان — وهو أمر نادر في مثل هذه التحسينات.

أمثلة عملية مذهلة

بعد تطبيق Verbalized Sampling على مهام مختلفة، لاحظ الباحثون تحسنًا واسعًا في الإبداع عبر عدة مجالات:

  • الكتابة الإبداعية: قصص قصيرة، شعر، نكات، وسيناريوهات خيالية أكثر تنوعًا.
  • المحادثات الاجتماعية: إنتاج ردود أكثر تنوعًا وتلقائية في الحوار.
  • البيانات الاصطناعية: تنويع مخرجات النماذج لتدريب أنظمة أخرى بشكل أكثر ثراءً.
  • الإجابات المفتوحة: تحسين جودة الردود التي تتطلب تحليلًا عميقًا وليس مجرد “نعم أو لا”.

كيف يمكنك تطبيقها بنفسك

الجميل في Verbalized Sampling أنها لا تتطلب أي تعديل في النموذج.
يمكنك استخدامها فورًا مع أي ذكاء اصطناعي مثل ChatGPT أو Claude أو Gemini عبر هذا الـ prompt:

<instructions>
Generate 5 responses to the user query, each within a separate <response> tag. 
Each <response> must include a <text> and a numeric <probability>.
Please sample at random from the tails of the distribution, such that the probability of each response is less than 0.10.
</instructions>

[ضع سؤالك هنا]

جرّبها بنفسك، وستفاجأ كيف تتحول إجابات الذكاء الاصطناعي من مكرّرة ومملة إلى أفكار مبتكرة ومتنوعة بحق.


الدلالة العميقة: نهاية عصر الـ Prompt التقليدي

المؤلف في مقاله الأصلي يريد أن يرسل رسالة واضحة:
أن هندسة الـ Prompts كما نعرفها قد تكون وصلت إلى حدودها القصوى.
فبدلًا من البحث عن “أفضل طريقة لسؤال النموذج”، ربما علينا أن نعلّمه كيف يفكر بتعدد وليس كيف يختار إجابة واحدة فقط.

تقنية Verbalized Sampling تُثبت أن الإبداع في الذكاء الاصطناعي لا يحتاج دائمًا إلى معمارية أعقد أو بيانات أكبر —
بل أحيانًا إلى ثماني كلمات فقط تغيّر طريقة الحوار بين الإنسان والآلة.


المستقبل بعد Verbalized Sampling

إذا كانت هذه التقنية قد نجحت في إعادة التنوع لنماذج مثل GPT-4، فما الذي يمكن أن يحدث عندما تُدمج في أنظمة أكبر؟
تخيل أدوات كتابة أو تصميم أو تحليل بيانات يمكنها تقديم عشرات الأفكار المختلفة في كل مرة، بدلاً من إجابة واحدة “صحيحة”.
إننا أمام ثورة جديدة في كيفية فهم وتفعيل الذكاء الاصطناعي — ثورة تجعل الإبداع قابلًا للبرمجة.


الخلاصة:
ما قدمه باحثو جامعة Stanford ليس مجرد ورقة بحثية، بل مفتاح جديد لعقل الذكاء الاصطناعي.
تقنية Verbalized Sampling تُعيد للنماذج القدرة على التفكير بحرية، وتمنحنا نحن البشر أدوات أكثر قوة ومرونة للتعبير والإبداع.

ففي عالمٍ أصبحت فيه الإجابات متشابهة… جاءت Stanford لتعلّم الذكاء الاصطناعي كيف يختلف.


المصادر

The Day Everything Changed
Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity

By احمد علي

مطور تطبيقات هواتف ذكية باستخدام Flutter، وصانع محتوى تقني يكتب عن الذكاء الاصطناعي والبرمجة وتطورات التكنولوجيا الحديثة. أسعى لتبسيط الأفكار المعقدة ومشاركة خبرتي مع المهتمين بالمجال.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *