يوفر LLM Resayil وصولاً إلى 54 نموذجاً من النماذج اللغوية الكبيرة — 15 نموذجاً قياسياً و39 نموذجاً متقدماً عالي الأداء. اختر النموذج المناسب لحالة الاستخدام لديك بناءً على السرعة والدقة ومعامل الاستهلاك.
كل طلب يستهلك رصيداً بناءً على عدد الرموز المُعالَجة مضروباً في معامل النموذج. المعامل الأساسي هو 1.0×، وتتراوح المعاملات بين 0.5× للنماذج الخفيفة السريعة وحتى 3.5× للنماذج الضخمة عالية القدرة.
| المعامل | النوع | الوصف |
|---|---|---|
0.5× |
قياسي — خفيف | نماذج صغيرة وسريعة جداً، مثالية للمهام البسيطة |
1.0× |
متقدم — تضمين | نماذج التضمين خفيفة الاستهلاك |
1.5× |
قياسي — متوسط | نماذج متوسطة الحجم وعالية الكفاءة |
2.5× |
متقدم — متوسط | نماذج متقدمة متوازنة بين الأداء والتكلفة |
3.5× |
متقدم — كبير | النماذج الأعلى أداءً والأكبر حجماً |
مثال: إذا أرسلت طلباً يستهلك 1,000 رمز باستخدام نموذج بمعامل 1.5×، فسيُخصم 1,500 رصيد. يمكنك مراقبة الاستهلاك الدقيق من خلال حقل usage في كل استجابة.
نماذج مُحسَّنة للأداء السريع والاستخدام الفعّال للأرصدة. المعامل الأساسي هو 1 رصيد لكل رمز مع تعديلات بحسب حجم النموذج.
| معرّف النموذج | الفئة | الحجم | المعامل | الاستخدام الأمثل |
|---|---|---|---|---|
llama3.2:3b |
chat | 3B |
0.5×
|
نموذج خفيف بـ 3 مليار معامل للاستدلال السريع |
smollm2:135m |
chat | 135M |
0.5×
|
نموذج صغير جداً بـ 135 مليون معامل للمهام السريعة |
qwen2.5-coder:14b |
code | 14B |
1.5×
|
نموذج متخصص في البرمجة بـ 14 مليار معامل |
mistral-small3.2:24b |
chat | 24B |
1.5×
|
نموذج عالي الأداء بـ 24 مليار معامل |
phi3.5-mini:3.8b |
chat | 3.8B |
0.5×
|
نموذج صغير بنافذة سياق كبيرة |
gemma2:9b |
chat | 9B |
1.5×
|
جوجل جيما 2 بـ 9 مليار معامل |
deepseek-coder:6.7b |
code | 6.7B |
1.5×
|
نموذج متخصص في البرمجة بـ 6.7 مليار معامل |
llama3.1:8b |
chat | 8B |
1.5×
|
نموذج متعدد الاستخدامات بـ 8 مليار معامل |
nomic-embed-text |
110M |
0.5×
|
نموذج تضمين النصوص | |
bge-m3 |
580M |
1.5×
|
تضمينات كثيفة وخفيفة ومتعددة المحولات | |
all-minilm |
23M |
0.5×
|
نموذج تضمين خفيف الوزن | |
snowflake-arctic-embed |
137M |
1.5×
|
نموذج تضمين عالي الجودة | |
mistral-7b |
chat | 7B |
1.5×
|
ميسترال الأصلي بـ 7 مليار معامل |
starcoder2:3b |
code | 3B |
0.5×
|
نموذج توليد الأكواد |
codellama:7b |
code | 7B |
0.5×
|
نموذج لاما متخصص في البرمجة |
النماذج المتقدمة تتيح الوصول إلى بعض أقوى نماذج الذكاء الاصطناعي المتاحة، بعشرات أو مئات المليارات من المعاملات. تبدأ معاملاتها من 2.5× وتصل إلى 3.5×.
| معرّف النموذج | الفئة | الحجم | المعامل | الاستخدام الأمثل |
|---|---|---|---|---|
glm-4.7-flash |
vision | 12B |
2.5×
|
نموذج متعدد الوسائط من Zhipu AI |
qwen3-30b |
thinking | 30B |
2.5×
|
كيوين 3 بـ 30 مليار معامل |
gpt-oss:20b |
chat | 20B |
2.5×
|
نموذج أوبن سورس من OpenAI |
Qwen3-VL-32B |
vision | 32B |
3.5×
|
نموذج رؤية ولغة Qwen3 |
qwen3-vl:235b-instruct |
vision | 235B |
3.5×
|
نموذج Qwen3 متعدد الوسائط الرائد بـ 235 مليار معامل |
qwen3.5:397b |
thinking | 397B |
3.5×
|
كيوين 3.5 بـ 397 مليار معامل (MoE) |
devstral-2:123b |
code | 123B |
3.5×
|
Devstral 2 من ميسترال بـ 123 مليار معامل |
deepseek-v3.1:671b |
thinking | 671B |
3.5×
|
ديب سيك V3.1 بـ 671 مليار معامل |
deepseek-v3.2 |
thinking | 671B |
3.5×
|
ديب سيك V3.2 الإصدار الأحدث |
llama3.2:11b |
vision | 11B |
2.5×
|
لاما 3.2 بـ 11 مليار معامل |
llama3.2:70b |
chat | 70B |
3.5×
|
لاما 3.2 بـ 70 مليار معامل |
llama3.1:70b |
chat | 70B |
3.5×
|
لاما 3.1 بـ 70 مليار معامل |
llama3.1:405b |
chat | 405B |
3.5×
|
لاما 3.1 بـ 405 مليار معامل (MoE) |
gemma2:27b |
chat | 27B |
3.5×
|
جوجل جيما 2 بـ 27 مليار معامل |
mixtral:8x7b |
chat | 8x7B |
3.5×
|
ميسترال Mixtral 8x7B MoE |
mixtral:8x22b |
chat | 8x22B |
3.5×
|
ميسترال Mixtral 8x22B MoE |
mistral-large:24b |
chat | 24B |
2.5×
|
ميسترال Large بـ 24 مليار معامل |
mistral-nemo:12b |
chat | 12B |
2.5×
|
ميسترال Nemo بـ 12 مليار معامل |
codestral:22b |
code | 22B |
2.5×
|
Codestral من ميسترال لتوليد الأكواد |
deepseek-coder:33b |
code | 33B |
3.5×
|
ديب سيك Coder بـ 33 مليار معامل |
deepseek-chat:671b |
thinking | 671B |
3.5×
|
ديب سيك Chat بـ 671 مليار معامل |
qwen2:72b |
chat | 72B |
3.5×
|
كيوين 2 بـ 72 مليار معامل |
qwen2.5:32b |
chat | 32B |
3.5×
|
كيوين 2.5 بـ 32 مليار معامل |
yi:34b |
chat | 34B |
3.5×
|
01.AI Yi بـ 34 مليار معامل |
deepseek-v2.5 |
thinking | 236B |
3.5×
|
ديب سيك V2.5 بمعمارية MoE |
llama3-gradient:70b |
chat | 70B |
3.5×
|
لاما 3 بسياق موسّع |
command-r:35b |
tools | 35B |
3.5×
|
Command R من Cohere لـ RAG |
command-r-plus:104b |
tools | 104B |
3.5×
|
Command R+ من Cohere لـ RAG المتقدم |
firefunction-v2:18b |
tools | 18B |
2.5×
|
FireFunction من Fireworks لاستدعاء الدوال |
nomic-embed:27m |
27M |
1.0×
|
Nomic Embed لتضمين النصوص | |
gte-qwen:7m |
7M |
1.0×
|
نموذج تضمين GTE Qwen | |
bge-large:335m |
335M |
2.5×
|
نموذج تضمين BGE Large | |
e5-mistral:7b |
7B |
2.5×
|
نموذج تضمين E5 Mistral | |
nvidia-embed:1b |
1B |
1.0×
|
نموذج تضمين NVIDIA NeMo | |
all-minilm-l6:22m |
22M |
1.0×
|
نموذج تضمين All-MiniLM L6 v2 | |
gte-base:110m |
110M |
1.0×
|
نموذج تضمين GTE Base | |
snowflake-arctic-embed-l:335m |
335M |
2.5×
|
Snowflake Arctic Embed الكبير | |
bge-small:8m |
8M |
1.0×
|
نموذج تضمين BGE Small | |
minilm-l12:39m |
39M |
1.0×
|
نموذج تضمين MiniLM L12 |
يمكنك الحصول على القائمة الكاملة للنماذج المتاحة عبر نقطة النهاية التالية المتوافقة مع OpenAI:
GET https://llm.resayil.io/v1/models
curl https://llm.resayil.io/v1/models \
-H "Authorization: Bearer YOUR_API_KEY"
{
"object": "list",
"data": [
{
"id": "llama3.2:3b",
"object": "model",
"created": 1700000000,
"owned_by": "llm-resayil"
},
{
"id": "qwen3.5:397b",
"object": "model",
"created": 1700000000,
"owned_by": "llm-resayil"
}
]
}
ملاحظة: يمكن أيضاً الوصول إلى هذه النقطة عبر المسار البديل GET /api/v1/models. كلا المسارَين يعيدان نفس القائمة.
جميع النماذج تستخدم نقطة نهاية واحدة متوافقة مع OpenAI. ما عليك سوى تغيير حقل model لاستخدام نموذج مختلف:
POST https://llm.resayil.io/api/v1/chat/completions
{
"model": "mistral-small3.2:24b",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
"temperature": 0.7,
"top_p": 0.9,
"max_tokens": 500,
"stream": false
}
كل استجابة تتضمن حقل usage يوضح عدد الرموز المستهلكة بدقة:
"usage": {
"prompt_tokens": 15,
"completion_tokens": 142,
"total_tokens": 157
}
جميع المستويات يمكنها الوصول إلى جميع النماذج الـ 54 فوراً دون أي قيود. الفارق الوحيد هو رصيدك المتاح.
نحرص على تحديث كتالوج النماذج باستمرار لإضافة أحدث وأقوى النماذج المتاحة. عند إضافة نماذج جديدة تظهر فوراً في نتائج GET /v1/models وتصبح جاهزة للاستخدام.
في حال إيقاف أي نموذج، سيتم إشعارك بمهلة لا تقل عن 30 يوماً مع توجيهات الانتقال إلى البديل. ستصل الإشعارات عبر البريد الإلكتروني ولوحة التحكم.