From 427349420a6bd308b905b72b2336d2e21c73b32c Mon Sep 17 00:00:00 2001 From: Aaron Jimenez Date: Wed, 3 Jan 2024 14:35:58 -0800 Subject: [PATCH] [docs] Sort es/toctree.yml | Translate performance.md (#28262) * Sort es/_toctree.yml like en/_toctree.yml * Run make style * Add -Rendimiento y escalabilidad- section to es/_toctree.yml * Run make style * Add s to section * Add translate of performance.md * Add performance.md to es/_toctree.yml * Run make styele * Fix docs links * Run make style --- docs/source/es/_toctree.yml | 87 ++++++++++++++++++----------------- docs/source/es/performance.md | 61 ++++++++++++++++++++++++ 2 files changed, 106 insertions(+), 42 deletions(-) create mode 100644 docs/source/es/performance.md diff --git a/docs/source/es/_toctree.yml b/docs/source/es/_toctree.yml index 4b64b8a583b3f0..27a95d2ce04bb6 100644 --- a/docs/source/es/_toctree.yml +++ b/docs/source/es/_toctree.yml @@ -21,57 +21,60 @@ title: Compartir un modelo title: Tutoriales - sections: - - sections: - - local: create_a_model - title: Crea una arquitectura personalizada - - local: custom_models - title: Compartir modelos personalizados - - local: run_scripts - title: Entrenamiento con scripts - - local: sagemaker - title: Ejecutar el entrenamiento en Amazon SageMaker - - local: converting_tensorflow_models - title: Convertir checkpoints de TensorFlow - - local: serialization - title: Exportar a ONNX - title: Uso general - - sections: - - local: fast_tokenizers - title: Usa tokenizadores de 🤗 Tokenizers - - local: multilingual - title: Modelos multilingües para inferencia - - sections: - - local: tasks/question_answering - title: Respuesta a preguntas - - local: tasks/language_modeling - title: Modelado de lenguaje - - local: tasks/summarization - title: Generación de resúmenes - - local: tasks/multiple_choice - title: Selección múltiple - title: Guías de tareas + - isExpanded: false + sections: + - local: tasks/question_answering + title: Respuesta a preguntas + - local: tasks/language_modeling + title: Modelado de lenguaje + - local: tasks/summarization + title: Generación de resúmenes + - local: tasks/multiple_choice + title: Selección múltiple title: Procesamiento del Lenguaje Natural - - sections: + - isExpanded: false + sections: - local: tasks/asr title: Reconocimiento automático del habla title: Audio - - sections: + - isExpanded: false + sections: - local: tasks/image_classification title: Clasificación de imágenes title: Visión Artificial - - sections: - - local: debugging - title: Debugging - title: Rendimiento y escalabilidad - - sections: - - local: add_new_pipeline - title: ¿Cómo puedo añadir un pipeline a 🤗 Transformers? - - local: pr_checks - title: Verificaciones en un Pull Request - title: Contribuir + title: Guías prácticas +- sections: + - local: fast_tokenizers + title: Usa tokenizadores de 🤗 Tokenizers + - local: multilingual + title: Modelos multilingües para inferencia + - local: create_a_model + title: Crea una arquitectura personalizada + - local: custom_models + title: Compartir modelos personalizados + - local: run_scripts + title: Entrenamiento con scripts + - local: sagemaker + title: Ejecutar el entrenamiento en Amazon SageMaker + - local: converting_tensorflow_models + title: Convertir checkpoints de TensorFlow + - local: serialization + title: Exportar a ONNX - local: community title: Los recursos de la comunidad - title: Guías prácticas + title: Guías para desarrolladores +- sections: + - local: performance + title: Descripción general + - local: debugging + title: Debugging + title: Rendimiento y escalabilidad +- sections: + - local: add_new_pipeline + title: ¿Cómo puedo añadir un pipeline a 🤗 Transformers? + - local: pr_checks + title: Verificaciones en un Pull Request + title: Contribuir - sections: - local: philosophy title: Filosofía diff --git a/docs/source/es/performance.md b/docs/source/es/performance.md new file mode 100644 index 00000000000000..4665c2961b3f23 --- /dev/null +++ b/docs/source/es/performance.md @@ -0,0 +1,61 @@ + + +# Rendimiento y Escalabilidad + +Entrenar modelos grandes de transformadores y desplegarlos en producción presenta varios desafíos. Durante el entrenamiento, el modelo puede requerir más memoria de GPU de la disponible o mostrar una velocidad de entrenamiento lenta. En la fase de implementación, el modelo puede tener dificultades para manejar el rendimiento necesario en un entorno de producción. + +Esta documentación tiene como objetivo ayudarte a superar estos desafíos y encontrar la configuración óptima para tu caso de uso. Las guías están divididas en secciones de entrenamiento e inferencia, ya que cada una presenta diferentes desafíos y soluciones. Dentro de cada sección, encontrarás guías separadas para diferentes configuraciones de hardware, como GPU única vs. multi-GPU para el entrenamiento o CPU vs. GPU para la inferencia. + +Utiliza este documento como punto de partida para navegar hacia los métodos que se ajusten a tu escenario. + +## Entrenamiento + +Entrenar modelos grandes de transformadores de manera eficiente requiere un acelerador como una GPU o TPU. El caso más común es cuando tienes una GPU única. Los métodos que puedes aplicar para mejorar la eficiencia de entrenamiento en una GPU única también se aplican a otras configuraciones, como múltiples GPU. Sin embargo, también existen técnicas específicas para entrenamiento con múltiples GPU o CPU, las cuales cubrimos en secciones separadas. + +* [Métodos y herramientas para un entrenamiento eficiente en una sola GPU](https://huggingface.co/docs/transformers/perf_train_gpu_one): comienza aquí para aprender enfoques comunes que pueden ayudar a optimizar la utilización de memoria de la GPU, acelerar el entrenamiento o ambas cosas. +* [Sección de entrenamiento con varias GPU](https://huggingface.co/docs/transformers/perf_train_gpu_many): explora esta sección para conocer métodos de optimización adicionales que se aplican a configuraciones con varias GPU, como paralelismo de datos, tensores y canalizaciones. +* [Sección de entrenamiento en CPU](https://huggingface.co/docs/transformers/perf_train_cpu): aprende sobre entrenamiento de precisión mixta en CPU. +* [Entrenamiento eficiente en múltiples CPUs](https://huggingface.co/docs/transformers/perf_train_cpu_many): aprende sobre el entrenamiento distribuido en CPU. +* [Entrenamiento en TPU con TensorFlow](https://huggingface.co/docs/transformers/perf_train_tpu_tf): si eres nuevo en TPUs, consulta esta sección para obtener una introducción basada en opiniones sobre el entrenamiento en TPUs y el uso de XLA. +* [Hardware personalizado para el entrenamiento](https://huggingface.co/docs/transformers/perf_hardware): encuentra consejos y trucos al construir tu propia plataforma de aprendizaje profundo. +* [Búsqueda de hiperparámetros utilizando la API del Entrenador](https://huggingface.co/docs/transformers/hpo_train) + +## Inferencia + +Realizar inferencias eficientes con modelos grandes en un entorno de producción puede ser tan desafiante como entrenarlos. En las siguientes secciones, describimos los pasos para ejecutar inferencias en CPU y configuraciones con GPU única/múltiple. + +* [Inferencia en una sola CPU](https://huggingface.co/docs/transformers/perf_infer_cpu) +* [Inferencia en una sola GPU](https://huggingface.co/docs/transformers/perf_infer_gpu_one) +* [Inferencia con múltiples GPU](https://huggingface.co/docs/transformers/perf_infer_gpu_one) +* [Integración de XLA para modelos de TensorFlow](https://huggingface.co/docs/transformers/tf_xla) + +## Entrenamiento e Inferencia + +Aquí encontrarás técnicas, consejos y trucos que aplican tanto si estás entrenando un modelo como si estás ejecutando inferencias con él. + +* [Instanciar un modelo grande](https://huggingface.co/docs/transformers/big_models) +* [Solución de problemas de rendimiento](https://huggingface.co/docs/transformers/debugging) + +## Contribuir + +Este documento está lejos de estar completo y aún se deben agregar muchas cosas, así que si tienes adiciones o correcciones que hacer, no dudes en abrir un PR. Si no estás seguro, inicia un Issue y podemos discutir los detalles allí. + +Cuando hagas contribuciones que indiquen que A es mejor que B, intenta incluir un benchmark reproducible y/o un enlace a la fuente de esa información (a menos que provenga directamente de ti).