--- title: "Lasso e Ridge como formas de regularização" url: https://www.blog.psicometriaonline.com.br/lasso-e-ridge-como-formas-de-regularizacao canonical: https://www.blog.psicometriaonline.com.br/lasso-e-ridge-como-formas-de-regularizacao language: pt-BR published: 2025-12-11T21:30:32.000Z updated: 2026-03-30T13:49:00.788Z modified: 2026-03-30T13:49:00.788Z author: "Alessandro Reis" categories: ["Inteligência artificial"] tags: ["machine learning"] description: "Entenda como Lasso e Ridge regularizam modelos, reduzem overfitting e equilibram esparsidade e estabilidade em Machine Learning." source: Blog Psicometria Online --- # Lasso e Ridge como formas de regularização > Em um post anterior, falamos da regularização como um personal trainer interessado em manter o cliente, isto é, o modelo, bem fit, bem ajustado. Vamos persistir nessa metáfora de treinamento físico e fitness, então? É que existem diferentes tipos de treinador, a saber, a regularização Lasso (tre... Em um [post anterior](/regularizacao-o-personal-trainer-da-machine-learning), falamos da regularização como um personal trainer interessado em manter o cliente, isto é, o modelo, bem fit, bem ajustado. Vamos persistir nessa metáfora de treinamento físico e fitness, então?  É que existem diferentes tipos de treinador, a saber, a regularização Lasso (treinador L1) e a Ridge (treinador L2; veja a Figura 1). ![metáfora da regularização Lasso e Ridge.](/uploads/2025-12_image.png) *Figura 1. Metáfora do Lasso (L1) e do Ridge (L2) como diferentes personal trainers.* O Lasso (L1) é radical: ele olha para um conjunto de variáveis e manda algumas “embora” da academia; o modelo fica mais magro e só mantém músculos realmente úteis. Já o Ridge (L2) é equilibrado: ele não expulsa ninguém, mas controla o tamanho de cada músculo, impedindo exageros que atrapalhem o desempenho. Ambos combatem o [*overfitting*](/quais-sao-as-diferencas-entre-underfitting-e-overfitting), mas cada um faz isso com um estilo próprio. ## Definições intuitivas das regularizações Lasso e Ridge A regularização Lasso (L1) **funciona como um filtro que “cobra um preço” por cada variável usada no modelo.** Esse preço aumenta conforme o peso da variável cresce, porque a penalidade se baseia no valor absoluto desses pesos. Como esse tipo de penalidade tem um formato com “pontas”, o modelo descobre que, às vezes, é mais barato **zerar completamente** um coeficiente do que pagar para mantê-lo. O resultado é simples de entender: **o Lasso elimina variáveis inúteis sozinha**, deixando apenas as que realmente ajudam a prever o resultado. Em contrapartida, a regularização Ridge (L2) **funciona como um “freio suave” que impede qualquer variável de ganhar força demais.** Em síntese, ela faz isso cobrando um preço que cresce com o **quadrado** do peso de cada variável. Como essa penalidade tem um formato arredondado, o modelo prefere **diminuir todos os pesos um pouco**, em vez de zerar alguém. Desse modo, obtemos um modelo mais estável, menos sensível a oscilações e com previsões mais consistentes — mesmo quando há variáveis parecidas ou dados ruidosos. ## Definições técnicas das regularizações Lasso, Ridge e Elastic Net A Figura 2 ilustra as regularizações Lasso, Ridge e Elastic Net — sendo que esta última consiste em uma combinação das duas regularizações anteriores. Em seguida, explicaremos cada uma delas. ![regularizações Lasso, Ridge e Elastic Net.](/uploads/2025-12_lasso-ridge-elastic-net-traduzido-1.jpg) *Figura 2. Ilustração das regularizações Lasso, Ridge e Elastic Net. Adaptado de Mantena et al. (2023, Figura 4).* ### Regularização Lasso (L1) No primeiro painel da Figura 2, o formato em diamante representa a região permitida pela regularização Lasso, definida matematicamente como a soma dos valores absolutos dos coeficientes: **∑|θ*i*| ≤ constante**. Os coeficientes, também chamados de pesos (*weights*), aparecem no gráfico como θ1 e θ2, cada um representando a força com que uma variável influencia o modelo. Os cantos desse diamante ficam sobre os eixos, onde necessariamente um dos coeficientes vale zero. Quando as curvas de nível do *contour plot* da função de perda — as elipses que indicam pontos de erro igual — encostam nesses cantos, a solução resultante tem um dos pesos igual a zero. Isso gera esparsidade (*sparsity*), isto é, um conjunto de coeficientes em que vários valores se tornam exatamente zero, deixando o modelo mais simples. ### Regularização Ridge (L2) No segundo painel, a região de restrição dos coeficientes passa a ser um círculo, correspondente à regularização Ridge, definida como a soma dos quadrados dos coeficientes: **∑θ*i*2 ≤ constante**. As formas arredondadas dessa restrição fazem com que o ponto onde a perda encontra o limite não caia em cima dos eixos, evitando soluções com coeficientes exatamente iguais a zero. Desse modo, o efeito principal da regularização Ridge é o encolhimento dos pesos (*weight shrinking*), ou seja, todas as variáveis continuam presentes no modelo, mas contribuem de forma mais moderada, reduzindo oscilações e instabilidades numéricas. ### Regularização Elastic Net (L1 + L2) Por fim, no terceiro painel, a forma intermediária surge da combinação das duas técnicas anteriores, produzindo a penalização híbrida conhecida como Elastic Net. Ela mistura o comportamento pontudo da L1, que induz esparsidade ao permitir que os coeficientes encostem em vértices e se tornem zero, com o comportamento suave da L2, que controla a magnitude dos pesos e melhora a estabilidade. Na prática, esse formato misto aparece quando o modelo utiliza dois hiperparâmetros — um para L1 e outro para L2 — resultando em uma solução que seleciona variáveis quando necessário, mas ainda distribui os pesos de forma equilibrada. Isso cria um modelo robusto, capaz de lidar tanto com irrelevância quanto com colinearidade entre variáveis. ## Regularizações Lasso e Ridge: quando usar cada uma? Antes de mais nada, a regularização Lasso é ideal quando há muitas variáveis irrelevantes, ruído ou suspeita de que apenas alguns preditores carregam a verdadeira informação. Além disso, ela funciona muito bem em cenários de alta dimensionalidade (*p* » *n*).  Em contrapartida, a regularização Ridge é a escolha típica quando todas as variáveis têm algum valor, mas o modelo tende a oscilar demais ou sofrer instabilidade. Em regressões lineares, [redes neurais](/entenda-as-redes-neurais-artificiais) e problemas com colinearidade, a regularização Ridge costuma ser superior. Duas linhas de raciocínio aparecem na literatura: a primeira defende a regularização Lasso por tornar o modelo auditável e científico, eliminando ruído sem piedade. Por outro lado, a segunda prefere a regularização Ridge por entregar estabilidade numérica e robustez. Quem sabe as formas híbridas de regularização como Elastic Net podem dominar, pois equilibram esparsidade e estabilidade de forma mais adaptável? ## Exemplos fictícios das regularizações Lasso e Ridge ### 1\. Regularização Lasso para detectar variáveis inúteis Imagine um *dataset* de saúde com 300 variáveis, como, por exemplo, hábitos alimentares, genética, sono, hobbies e preferências de música. Apenas oito delas de fato influenciam o risco cardiovascular. Com o Lasso, o modelo automaticamente zera as outras 292, deixando um conjunto enxuto, interpretável e mais barato de coletar no futuro. ### 2\. Regularização Ridge para estabilizar previsões Suponha que você esteja prevendo preços de imóveis com variáveis moderadamente colineares: tamanho, número de cômodos, área construída e idade do imóvel. A regularização Ridge reduz oscilações absurdas entre esses coeficientes, evitando soluções instáveis e melhorando a capacidade de generalização. ### Comparação prática Num problema de vendas, você usa 150 variáveis comportamentais. A regularização Lasso remove metade delas, revelando que apenas histórico de compra, sazonalidade e renda importam. Por outro lado, a regularização Ridge, aplicada ao mesmo *dataset*, mantém todas as variáveis, mas reduz a influência exagerada de *outliers* comportamentais, fornecendo previsões mais consistentes ao longo dos meses. ## Referências  Hastie, T., Tibshirani, R., & Wainwright, M. (2021). *Statistical learning with sparsity: The Lasso and generalizations* (2nd ed.). CRC Press. James, G., Witten, D., Hastie, T., & Tibshirani, R. (2023). *An introduction to statistical learning with applications in Python*. Springer. Mantena, S., Mahammood, V., & Rao, K. N. (2023). Prediction of soil salinity in the Upputeru river estuary catchment, India, using machine learning techniques. *Environmental Monitoring and Assessment*, *195*, Article 1006. https://doi.org/10.1007/s10661-023-11613-y ## Como citar este post > **Como citar este artigo:** Reis, A. (2025, 11 de dezembro). Lasso e ridge como formas de regularização. *Blog Psicometria Online*. https://www.blog.psicometriaonline.com.br/lasso-e-ridge-como-formas-de-regularizacao