نموذج OpenAI مفتوح الأوزان بـ 20 مليار معامل. مرخص بـ Apache 2.0. لا يتدرب على بياناتك أبداً. يعمل على GPU مُدار بسعر شهري ثابت.
بدون بطاقة ائتمان
GPT-OSS:20b نموذج لغوي كبير بـ 20 مليار معامل، أصدرته OpenAI عام 2024 بموجب رخصة Apache 2.0 مفتوحة المصدر. على عكس نماذج GPT-4o أو o1 المغلقة، فإن GPT-OSS:20b مفتوح الأوزان بالكامل: أوزان النموذج متاحة للتنزيل العام، والبنية موثّقة، ويمكن لأي شخص تشغيله على أجهزته الخاصة أو على خدمة استضافة مُدارة.
يشير "20b" في الاسم إلى 20 مليار معامل تُحدّد المعرفة المكتسبة وقدرة التفكير لدى النموذج. هذا الحجم — الذي يُسمّى أحياناً "متوسط الحجم من الجيل الأمامي" — يُقدّم أداءً قوياً في المعيار على مهام التفكير والبرمجة والمتعددة اللغات، مع إمكانية الاستخدام الفعلي على بطاقة رسومية حديثة واحدة (24 جيجابايت VRAM كحد أدنى لاستدلال FP16).
ترخيص Apache 2.0 يعني أنك تستطيع استخدام GPT-OSS:20b تجارياً وتعديله وإعادة توزيعه — كل ذلك دون دفع رسوم لكل رمز لـ OpenAI. هذا هو أساس نموذج تسعير OpenClaw Hosted: رسوم ثابتة واحدة تغطي استدلالاً غير محدود لأنه لا توجد تكلفة لكل رمز من طرف ثالث يتم تمريرها.
النماذج المغلقة المصدر مثل GPT-4 وClaude 3 وGemini 1.5 Pro تشترك في ثلاث خصائص: لا يمكنك فحص أوزانها، ولا يمكنك مراجعة بيانات تدريبها، وتدفع لكل رمز — كل استفسار وكل رد يُكلّف مالاً. بالنسبة للشركات ذات حجم الرسائل العالي، هذا يتراكم بسرعة: وكيل دعم عملاء يتعامل مع 10,000 محادثة يومياً بمعدل 500 رمز قد يُكلّف $500–$2,000/يوم على APIs المغلقة.
GPT-OSS:20b يُلغي الفوترة لكل رمز كلياً. لأن الأوزان تعمل على بنية تحتية تتحكم فيها (أو تتحكم فيها OpenClaw Hosted نيابةً عنك)، فإن التكلفة الهامشية لكل رمز إضافي تقترب من الصفر. تدفع مقابل وقت GPU، وليس مقابل الرموز.
خصوصية البيانات هي الميزة الثانية. مزودو API المغلق يحتفظون بحق استخدام استفساراتك لمراقبة السلامة وفي بعض الحالات تحسين النماذج. مع GPT-OSS:20b الذي يعمل في حاويتك المخصصة، محادثاتك لا تغادر أبداً الخادم الذي جرت معالجتها فيه. لا استدعاء API خارجي، لا قياس عن بُعد من OpenAI، لا حلقة ردود تدريب تشمل بياناتك.
كل نموذج مغلق يخفي الأوزان، ويُحاسب لكل رمز، وقد يستخدم بياناتك. GPT-OSS:20b لا يفعل أياً من ذلك.
| الميزة | GPT-OSS:20b (OpenClaw Hosted) | GPT-4o (OpenAI API) | Claude 3.5 (Anthropic API) | Gemini 1.5 Pro (Google API) |
|---|---|---|---|---|
| نموذج التسعير | $49/شهر ثابت | لكل رمز (متغير) | لكل رمز (متغير) | لكل رمز (متغير) |
| الأوزان متاحة | ✓ نعم — Apache 2.0 | ✗ لا — ملكية خاصة | ✗ لا — ملكية خاصة | ✗ لا — ملكية خاصة |
| يتدرب على بياناتك | ✓ أبداً | ✗ ممكن (انظر شروط الخدمة) | ✗ ممكن (انظر شروط الخدمة) | ✗ ممكن (انظر شروط الخدمة) |
| موقع الاستدلال | GPU مخصص لك | API بعيد (تأخير متغير) | API بعيد (تأخير متغير) | API بعيد (تأخير متغير) |
| عربي + RTL أصيل | ✓ دعم كامل أصيل | جزئي | جزئي | جزئي |
تشغيل GPT-OSS:20b بنفسك يتطلب: توفير خادم بـ 24 جيجابايت VRAM كحد أدنى (عادةً $50–200/شهر)، تنزيل أكثر من 40 جيجابايت من أوزان النموذج، تثبيت وتكوين وقت تشغيل للاستدلال (Ollama أو vLLM أو llama.cpp)، كشف نقطة نهاية API متوافقة، والحفاظ على تحديث كل شيء. معظم الشركات لا تحتاج إلى امتلاك هذه البنية.
OpenClaw Hosted يُجرّد كل ذلك. عند اشتراكك، يتم توفير حاوية Docker مخصصة على مجموعة GPU المُدارة من LLM Resayil. تُشغّل الحاوية برنامج وكيل OpenClaw الأصلي، مُوصَّل مسبقاً بنقطة نهاية استدلال GPT-OSS:20b. حاويتك معزولة: استدعاءات نموذجك لا تشارك وقت GPU أبداً مع أعباء عمل عميل آخر.
سعر $49/شهر الثابت يشمل الحاوية، واستدلال GPU، ورخصة برنامج OpenClaw، والتكاليف التشغيلية لـ LLM Resayil — مع حد استخدام عادل 5,000,000 رمز يومياً (ما يعادل تقريباً 3.75 مليون كلمة يومياً، وهو ما يغطي 99% من أعباء العمل التجارية الحقيقية). لا فوترة لكل رمز داخل حاويتك.
الاستضافة الذاتية لـ GPT-OSS:20b تمنحك أقصى قدر من التحكم: اختر وقت تشغيل الاستدلال، اضبط طول السياق، حدد مستوى التكميم، شغّله دون اتصال بالإنترنت. إذا كان لديك فريق يدير بنية GPU التحتية وسبب محدد لامتلاك الأجهزة، فالاستضافة الذاتية خيار مشروع.
لمعظم الشركات — لا سيما في دول الخليج حيث تُعدّ خوادم GPU باهظة الثمن محلياً — الاستضافة المُدارة هي التوازن الأفضل. OpenClaw Hosted يُقدّم جميع مزايا الخصوصية والتكلفة للنموذج مفتوح الأوزان دون أعباء البنية التحتية. فريق DevOps لديك لا يحتاج إلى معرفة ما هو برنامج تعريف CUDA.
| الاعتبار | الاستضافة الذاتية | OpenClaw Hosted |
|---|---|---|
| وقت الإعداد | ساعات إلى أيام | 5 دقائق |
| التكلفة الشهرية | $50–200+ (خادم GPU) | $49 ثابت |
| الصيانة | فريقك | مشمولة |
| تحديثات النموذج | يدوية | مُدارة |
| قنوات المراسلة | تكامل يدوي | 22 قناة جاهزة |
لا. ChatGPT منتج مبني على نماذج OpenAI المغلقة (GPT-4o، GPT-4، إلخ). GPT-OSS:20b نموذج منفصل أصدرته OpenAI بموجب رخصة Apache 2.0 مفتوحة المصدر، بأوزان يمكن الوصول إليها عامةً. يمكنك تنزيل وتشغيل GPT-OSS:20b بنفسك — لا يمكنك فعل ذلك مع النموذج الأساسي لـ ChatGPT.
لا. GPT-OSS:20b يعمل بالكامل على بنية GPU محلية أو مُدارة. لا يوجد استدعاء لخوادم API الخاصة بـ OpenAI. OpenClaw Hosted يُوصّل GPT-OSS:20b بنقطة نهاية LLM في حاويتك — لا مفتاح API خارجي مطلوب أو مستخدم.
GPT-4 نموذج أكبر بكثير بمعاملات أكثر، مدرَّب على بيانات أكثر وبضبط RLHF أكثر. GPT-OSS:20b يُصنَّف تقريباً عند مستوى GPT-3.5-Turbo: قوي في البرمجة والتفكير والتلخيص والمهام متعددة اللغات — لكن نماذج مستوى GPT-4 تتفوق عليه في التفكير متعدد الخطوات المعقد واتباع التعليمات الدقيق. لمعظم أعباء عمل روبوتات الدردشة والمساعدين التجاريين، GPT-OSS:20b أكثر من كافٍ.
نعم. GPT-OSS:20b يمتلك قدرة قوية على اللغة العربية عبر العربية الفصحى ولهجات الخليج. طبقة وكيل OpenClaw تُضيف تخطيطاً RTL كاملاً وقوالب مهارات تُعطي الأولوية للعربية ومعالجة المحادثات ثنائية اللغة. OpenClaw Hosted مبني خصيصاً للشركات في الكويت والمملكة العربية السعودية والإمارات ودول الخليج.
كل حاوية OpenClaw Hosted تمتلك حد استخدام عادل يبلغ 5,000,000 رمز يومياً. هذا ما يعادل تقريباً 3.75 مليون كلمة يومياً — كافٍ لمئات المحادثات النشطة المتزامنة. لا فوترة لكل رمز. تدفع الرسوم الشهرية الثابتة $49 بغض النظر عن عدد الرموز التي تستهلكها، حتى الحد اليومي.
نعم. Apache 2.0 واحدة من أكثر تراخيص المصدر المفتوح تساهلاً. تسمح بالاستخدام التجاري والتعديل والتوزيع والترخيص الفرعي. المتطلبات الوحيدة هي الاحتفاظ بإشعار حقوق النشر وعدم استخدام علامة OpenAI التجارية للمصادقة دون إذن. استخدام OpenClaw Hosted لـ GPT-OSS:20b متوافق تماماً مع Apache 2.0.
سجّل في llm.resayil.io/register، انتقل إلى صفحة OpenClaw Hosted، وابدأ تجربتك المجانية لـ 3 أيام. معالج الإعداد المكوّن من 5 خطوات يُوفّر حاويتك المخصصة مع GPT-OSS:20b مُوصَّلاً مسبقاً — لا CLI، لا معرفة بـ Docker، لا مفاتيح API مطلوبة. مساعد الذكاء الاصطناعي لديك يعمل في أقل من 5 دقائق.