-
Notifications
You must be signed in to change notification settings - Fork 27.5k
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
Merge pull request #5 from Zyphra/main
Rebase
- Loading branch information
Showing
8 changed files
with
1,100 additions
and
72 deletions.
There are no files selected for viewing
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,8 @@ | ||
# تشغيل التدريب على Amazon SageMaker | ||
|
||
تم نقل التوثيق إلى [hf.co/docs/sagemaker](https://huggingface.co/docs/sagemaker). وسيتم إزالة هذه الصفحة في الإصدار 5.0 من برنامج Transformers. | ||
|
||
### جدول المحتويات | ||
|
||
- [تدريب نماذج Hugging Face على Amazon SageMaker باستخدام SageMaker Python SDK](https://huggingface.co/docs/sagemaker/train) | ||
- [نشر نماذج Hugging Face على Amazon SageMaker باستخدام SageMaker Python SDK](https://huggingface.co/docs/sagemaker/inference) |
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,170 @@ | ||
# التصدير إلى ONNX | ||
|
||
غالباً ما يتطلب نشر نماذج 🤗 Transformers في بيئات الإنتاج أو يمكن أن يستفيد من تصدير النماذج إلى تنسيق تسلسلي يُمكن تحميله وتنفيذه على أجهزة وبرامج تشغيل مُتخصصة. | ||
|
||
🤗 Optimum هو امتداد لـ Transformers يمكّن من تصدير النماذج من PyTorch أو TensorFlow إلى تنسيقات مُتسلسلة مثل ONNX و TFLite من خلال وحدة `exporters` الخاصة به. يوفر 🤗 Optimum أيضًا مجموعة من أدوات تحسين الأداء لتدريب النماذج وتشغيلها على أجهزة مستهدفة بكفاءة قصوى. | ||
|
||
يوضح هذا الدليل كيفية تصدير نماذج 🤗 Transformers إلى ONNX باستخدام 🤗 Optimum، وللحصول على الدليل الخاص بتصدير النماذج إلى TFLite، يُرجى الرجوع إلى صفحة [التصدير إلى TFLite](tflite). | ||
|
||
## التصدير إلى ONNX | ||
|
||
مجمد [ONNX (Open Neural Network Exchange)](http://onnx.ai) هو معيار مفتوح يُحدد مجموعة مشتركة من العوامل وتنسيق ملف مشترك لتمثيل نماذج التعلم العميق في مجموعة متنوعة واسعة من الأطر، بما في ذلك PyTorch وTensorFlow. عندما يتم تصدير نموذج إلى تنسيق ONNX، يتم استخدام هذه المشغلات لبناء رسم بياني حاسوبي (يُطلق عليه غالبًا اسم _تمثيل وسيط_) والذي يمثل تدفق البيانات عبر الشبكة العصبية. | ||
|
||
من خلال عرض رسم بياني بعوامل وأنواع بيانات معيارية، يُسهّل ONNX التبديل بين الأطر. على سبيل المثال، يُمكن تصدير نموذج مدرب في PyTorch إلى تنسيق ONNX ثم استيراده في TensorFlow (والعكس صحيح). | ||
|
||
بمجرد التصدير إلى تنسيق ONNX، يُمكن: | ||
|
||
- تحسين النموذج للاستدلال عبر تقنيات مثل [تحسين الرسم البياني](https://huggingface.co/docs/optimum/onnxruntime/usage_guides/optimization) و [التكميم](https://huggingface.co/docs/optimum/onnxruntime/usage_guides/quantization). | ||
- تشغيله باستخدام ONNX Runtime عبر فئات [`ORTModelForXXX`](https://huggingface.co/docs/optimum/onnxruntime/package_reference/modeling_ort)، والتي تتبع نفس واجهة برمجة التطبيقات (API) لـ `AutoModel` التي اعتدت عليها في 🤗 Transformers. | ||
- تشغيله باستخدام [قنوات معالجة الاستدلال مُحسّنة](https://huggingface.co/docs/optimum/main/en/onnxruntime/usage_guides/pipelines)، والتي لها نفس واجهة برمجة التطبيقات (API) مثل وظيفة [`pipeline`] في 🤗 Transformers. | ||
|
||
يوفر 🤗 Optimum دعمًا لتصدير ONNX من خلال الاستفادة من كائنات التكوين. تأتي كائنات التكوين هذه جاهزة لعدد من معماريات النماذج، وقد تم تصميمها لتكون قابلة للتوسعة بسهولة إلى معماريات أخرى. | ||
|
||
للاطلاع على قائمة بالتكوينات الجاهزة، يُرجى الرجوع إلى [وثائق 🤗 Optimum](https://huggingface.co/docs/optimum/exporters/onnx/overview). | ||
|
||
هناك طريقتان لتصدير نموذج 🤗 Transformers إلى ONNX، نعرض هنا كليهما: | ||
|
||
- التصدير باستخدام 🤗 Optimum عبر واجهة سطر الأوامر (CLI). | ||
- التصدير باستخدام 🤗 Optimum مع `optimum.onnxruntime`. | ||
|
||
### تصدير نموذج 🤗 Transformers إلى ONNX باستخدام واجهة سطر الأوامر | ||
|
||
لتصدير نموذج 🤗 Transformers إلى ONNX، قم أولاً بتثبيت اعتماد إضافي: | ||
|
||
```bash | ||
pip install optimum[exporters] | ||
``` | ||
|
||
للاطلاع على جميع المعامﻻت المتاحة، يرجى الرجوع إلى [وثائق 🤗 Optimum](https://huggingface.co/docs/optimum/exporters/onnx/usage_guides/export_a_model#exporting-a-model-to-onnx-using-the-cli)، أو عرض المساعدة في سطر الأوامر: | ||
|
||
```bash | ||
optimum-cli export onnx --help | ||
``` | ||
```bash | ||
optimum-cli export onnx --help | ||
``` | ||
|
||
لتصدير نقطة تفتيش نموذج من 🤗 Hub، على سبيل المثال، `distilbert/distilbert-base-uncased-distilled-squad`، قم بتشغيل الأمر التالي: | ||
|
||
```bash | ||
optimum-cli export onnx --model distilbert/distilbert-base-uncased-distilled-squad distilbert_base_uncased_squad_onnx/ | ||
``` | ||
|
||
يجب أن تشاهد السجلات التي تشير إلى التقدم المحرز وتظهر المكان الذي تم فيه حفظ ملف `model.onnx` الناتج، مثل هذا: | ||
|
||
```bash | ||
Validating ONNX model distilbert_base_uncased_squad_onnx/model.onnx... | ||
-[✓] ONNX model output names match reference model (start_logits, end_logits) | ||
- Validating ONNX Model output "start_logits": | ||
-[✓] (2, 16) matches (2, 16) | ||
-[✓] all values close (atol: 0.0001) | ||
- Validating ONNX Model output "end_logits": | ||
-[✓] (2, 16) matches (2, 16) | ||
-[✓] all values close (atol: 0.0001) | ||
The ONNX export succeeded and the exported model was saved at: distilbert_base_uncased_squad_onnx | ||
``` | ||
|
||
يوضح المثال أعلاه تصدير نقطة تفتيش من 🤗 Hub. عند تصدير نموذج محلي، تأكد أولاً من حفظ ملفات أوزان النموذج ومحول الرموز في نفس الدليل (`local_path`). عند استخدام واجهة سطر الأوامر، قم بتمرير `local_path` إلى وسيط `model` بدلاً من اسم نقطة التفتيش على 🤗 Hub وقدم وسيط `--task`. يمكنك مراجعة قائمة المهام المدعومة في [وثائق 🤗 Optimum](https://huggingface.co/docs/optimum/exporters/task_manager). إذا لم يتم توفير وسيط `task`، فسيتم تعيينه افتراضيًا إلى هندسة النموذج دون أي رأس محدد للمهمة. | ||
|
||
```bash | ||
optimum-cli export onnx --model local_path --task question-answering distilbert_base_uncased_squad_onnx/ | ||
``` | ||
|
||
يمكن بعد ذلك تشغيل ملف `model.onnx` الناتج على أحد [المسرعات](https://onnx.ai/supported-tools.html#deployModel) العديدة التي تدعم معيار ONNX. على سبيل المثال، يمكننا تحميل النموذج وتشغيله باستخدام [ONNX Runtime](https://onnxruntime.ai/) كما يلي: | ||
|
||
```python | ||
>>> from transformers import AutoTokenizer | ||
>>> from optimum.onnxruntime import ORTModelForQuestionAnswering | ||
|
||
>>> tokenizer = AutoTokenizer.from_pretrained("distilbert_base_uncased_squad_onnx") | ||
>>> model = ORTModelForQuestionAnswering.from_pretrained("distilbert_base_uncased_squad_onnx") | ||
>>> inputs = tokenizer("What am I using?", "Using DistilBERT with ONNX Runtime!", return_tensors="pt") | ||
>>> outputs = model(**inputs) | ||
``` | ||
|
||
تكون العملية مماثلة بالنسبة إلى نقاط تفتيش TensorFlow على Hub. على سبيل المثال، إليك كيفية تصدير نقطة تفتيش TensorFlow نقية من [منظمة Keras](https://huggingface.co/keras-io): | ||
|
||
```bash | ||
optimum-cli export onnx --model keras-io/transformers-qa distilbert_base_cased_squad_onnx/ | ||
``` | ||
|
||
### تصدير نموذج 🤗 Transformers إلى ONNX باستخدام `optimum.onnxruntime` | ||
|
||
كبديل لواجهة سطر الأوامر، يُمكنك تصدير نموذج 🤗 Transformers إلى ONNX برمجيًا كما يلي: | ||
|
||
```python | ||
>>> from optimum.onnxruntime import ORTModelForSequenceClassification | ||
>>> from transformers import AutoTokenizer | ||
|
||
>>> model_checkpoint = "distilbert_base_uncased_squad" | ||
>>> save_directory = "onnx/" | ||
|
||
>>> # تحميل نموذج من transformers وتصديره إلى ONNX | ||
>>> ort_model = ORTModelForSequenceClassification.from_pretrained(model_checkpoint, export=True) | ||
>>> tokenizer = AutoTokenizer.from_pretrained(model_checkpoint) | ||
|
||
>>> # حفظ نموذج onnx ومجزىء النصوص | ||
>>> ort_model.save_pretrained(save_directory) | ||
>>> tokenizer.save_pretrained(save_directory) | ||
``` | ||
|
||
### تصدير نموذج لهندسة غير مدعومة | ||
|
||
إذا كنت ترغب في المساهمة من خلال إضافة دعم لنموذج لا يُمكن تصديره حاليًا، فيجب عليك أولاً التحقق مما إذا كان مدعومًا في [`optimum.exporters.onnx`](https://huggingface.co/docs/optimum/exporters/onnx/overview)، وإذا لم يكن مدعومًا، [فيمكنك المساهمة في 🤗 Optimum](https://huggingface.co/docs/optimum/exporters/onnx/usage_guides/contribute) مُباشرةً. | ||
|
||
### تصدير نموذج باستخدام `transformers.onnx` | ||
|
||
<Tip warning={true}> | ||
|
||
لم يعد يتم دعم `tranformers.onnx` يُرجى تصدير النماذج باستخدام 🤗 Optimum كما هو موضح أعلاه. سيتم إزالة هذا القسم في الإصدارات القادمة. | ||
|
||
</Tip> | ||
|
||
لتصدير نموذج 🤗 Transformers إلى ONNX باستخدام `tranformers.onnx`، ثبّت التبعيات الإضافية: | ||
|
||
```bash | ||
pip install transformers[onnx] | ||
``` | ||
|
||
استخدم حزمة `transformers.onnx` كنموذج Python لتصدير نقطة حفظ باستخدام تكوين جاهز: | ||
|
||
```bash | ||
python -m transformers.onnx --model=distilbert/distilbert-base-uncased onnx/ | ||
``` | ||
|
||
يُصدّر هذا رسمًا بيانيًا ONNX لنقطة الحفظ المُحددة بواسطة وسيطة `--model`. مرر أي نقطة حفظ على 🤗 Hub أو نقطة حفظ مُخزنة محليًا. | ||
يُمكن بعد ذلك تشغيل ملف `model.onnx` الناتج على أحد المُسرعات العديدة التي تدعم معيار ONNX. على سبيل المثال، قم بتحميل وتشغيل النموذج باستخدام ONNX Runtime كما يلي: | ||
|
||
```python | ||
>>> from transformers import AutoTokenizer | ||
>>> from onnxruntime import InferenceSession | ||
|
||
>>> tokenizer = AutoTokenizer.from_pretrained("distilbert/distilbert-base-uncased") | ||
>>> session = InferenceSession("onnx/model.onnx") | ||
>>> # يتوقع ONNX Runtime مصفوفات NumPy كمدخلات | ||
>>> inputs = tokenizer("Using DistilBERT with ONNX Runtime!", return_tensors="np") | ||
>>> outputs = session.run(output_names=["last_hidden_state"], input_feed=dict(inputs)) | ||
``` | ||
|
||
يُمكن الحصول على أسماء المخرجات المطلوبة (مثل `["last_hidden_state"]`) من خلال إلقاء نظرة على تكوين ONNX لكل نموذج. على سبيل المثال، بالنسبة لـ DistilBERT، لدينا: | ||
|
||
```python | ||
>>> from transformers.models.distilbert import DistilBertConfig, DistilBertOnnxConfig | ||
|
||
>>> config = DistilBertConfig() | ||
>>> onnx_config = DistilBertOnnxConfig(config) | ||
>>> print(list(onnx_config.outputs.keys())) | ||
["last_hidden_state"] | ||
``` | ||
|
||
العمليات مُتطابقة لنقاط الحفظ TensorFlow على Hub. على سبيل المثال، صدّر نقطة حفظ TensorFlow خالصة كما يلي: | ||
|
||
```bash | ||
python -m transformers.onnx --model=keras-io/transformers-qa onnx/ | ||
``` | ||
|
||
لتصدير نموذج مُخزن محليًا، احفظ أوزان النموذج ومجزىء اللغوى في نفس الدليل (على سبيل المثال `local-pt-checkpoint`)، ثم قم بتصديره إلى ONNX عن طريق توجيه وسيط `--model` لحزمة `transformers.onnx` إلى الدليل المطلوب: | ||
|
||
```bash | ||
python -m transformers.onnx --model=local-pt-checkpoint onnx/ | ||
``` |
Oops, something went wrong.