Esta página describe los requisitos y los enlaces de descarga para el "mini-workshop" sobre representaciones vectoriales de palabras basadas en redes neuronales que se llevará a cabo en la Starsconf 2018.
Si asistirás al taller, te recomendamos tener listos los requisitos y descargar los datos que se muestran abajo, ya que en el lugar del evento no habrá conexión a internet.
Ya está disponible el código del taller. Después de que sigas las instrucciones para descargar los datos podrás ejecutar el mismo código que vimos en el taller. También está disponible la presentaciónn que usamos. Si no quieres/puedes instalar lo necesario, puedes ejecutar todo directamente desde Colab.
- Python 3.x
- gensim
- numpy
- scikit-learn
- Jupyter Notebook
Una forma sencilla de cumplir con estos requisitos es instalando Anaconda
o Miniconda (Miniconda es mucho más liviano).
Verifica tener el $PATH
correcto, y luego instala las dependencias usando conda
:
conda install gensim jupyter ipython numpy scikit-learn
Si no tienes Python, puedes usar Colaboratory de Google, accediendo al siguiente notebook y creando una copia en tu cuenta de Google:
Los siguientes son word embeddings de palabras en español [1] computados con fastText. Hay tres archivos de distintos tamaños. Para el workshop basta que descargues uno de ellos (dependiendo del espacio que quieras usar y la cantidad de RAM que tengas para poder cargarlos en tu computador después).
- 100K vectores (94 MB): http://dcc.uchile.cl/~jperez/word-embeddings/fasttext-sbwc.100k.vec.gz
- 300K vectores (281 MB): http://dcc.uchile.cl/~jperez/word-embeddings/fasttext-sbwc.300k.vec.gz
- 855K vectores (801 MB): http://dcc.uchile.cl/~jperez/word-embeddings/fasttext-sbwc.vec.gz
Descomprime uno de los archivos, por ejemplo, usando gzip
:
gzip -d fasttext-sbwc.100k.vec.gz
Ejecuta el siguiente código en python que carga los vectores y lista las diez palabras más similares a la palabra dada:
from gensim.models import KeyedVectors
import logging
logging.basicConfig(format='%(asctime)s : %(message)s', level=logging.INFO)
vectors = KeyedVectors.load_word2vec_format('fasttext-sbwc.100k.vec')
print(vectors.most_similar(['adiós']))
El output debe verse como lo siguiente:
[('despedida', 0.691421627998352), ('despedirse', 0.6398125290870667), ('suspiro', 0.5772554874420166), ('despide', 0.5664263963699341), ('despedirme', 0.5651067495346069), ('querida', 0.5462957620620728), ('beso', 0.5451434850692749), ('llora', 0.5426937937736511), ('despedimos', 0.5414513945579529), ('despidieron', 0.5407767295837402)]
Si es así, todo bien. Si no, puedes abrir un issue y trataremos de ayudarte.
Escríbenos a [email protected] o a [email protected] si tienes preguntas.
[1] Word embeddings de palabras en español: https://github.com/uchile-nlp/spanish-word-embeddings