Esse grupo de estudos tem como objetivo introduzir o assunto de Machine Learning a novos membros do DATA, contando com uma ajudinha da internet e tentando organizar os conteúdos da melhor forma. Os encontros terão o formato de seminários, onde dois ou mais alunos apresentarão um tópico. Os temas abaixo são propostas e os participantes são encorajados a propor novos tópicos.
Em cada seminário, além da apresentação vamos contar com um pequeno resumo do tema, com referências para aula e um jupyter notebook.
Por favor não usem o GPT para escrever os resumos! É uma ótima ferramenta para gerar lero-leros, mas o objetivo do grupo de estudos é entender junto os assuntos.
Data | Tópico | Pessoas |
---|---|---|
06/03 | Introdução a Machine Learning | Fróis, Miller, Merlin |
13/03 | Matriz de Confusão, Sensibilidade e Especificidade, AUC e ROC | Ana, Olavo |
20/03 | Regressão Linear 1 | Fábio, Gabriela |
03/04 | Árvores 1 | Gui, Gabriel |
10/04 | Redes Neurais 1 | Lázaro, Yusuke |
17/04 | Sistemas de recomendação | Fabio |
24/04 | Principal Component Analysis (PCA) | Henrique Drago |
31/04 | Support Vector Machine (SVM) | Kathy |
As aulas de Patrick Winston MIT IA apresentam um panorama geral de alguns tópicos que discutiremos no grupo de estudos, com uma boa didática. Nem todos tópicos são abordados no curso de Winston, então podemos estudar com maior detalhes em An Introduction to Statistical Learning (ISL), que apresenta as principais ideias, conceitos matemáticos e códigos de ML. Uma ótima alternativa ao ISL é o livro Probabilistic Machine Learning (PML). Se os conceitos apresentados no livro parecerem muito complexos (e são!), o canal Statquest no Youtube tem vídeos destrichando temas complexos de maneira muito simples. Por fim, o canal 3Blue1Brown tem bons vídeos para intuição em fundamentos de ML, além de ótima visualização para Redes Neurais. Este repositório contém implementações de algoritmos de ML em Python.
- Introdução a Machine Learning, Jargões de ML
- Matriz de Confusão, Sensibilidade e Especificidade, AUC e ROC
- Entropia, Informação Mútua (teoria da informação), K-Vizinhos Próximos
- Regressão 1: Regressão Linear e Logística
- Árvores 1: Árvores de Decisão, Random Forests
- Redes Neurais 1: MLP, Backpropagation
- Máquinas de Suporte Vetorial
- Agrupamento: Hierárquico, K-Médias
- Principal Component Analysis
- Regressão 2: Ridge e Lasso
- Regressão 3: Regressão Linear Bayesiana
- Árvores 2: Bagging, Boosting
- Redes Neurais 2: Redes Neurais Profundas e Principais Ideias
- Otimização: Stochastic Gradient Descent
- Opiniões de vocês!!