Receba gratuitamente todos os nossos conteúdos.

Fique por dentro das novidades e oportunidades referentes à Psicometria e Análise Quantitativa de Dados.

O que é Regressão Linear Múltipla?

A Regressão Linear Múltipla é um modelo de análise que usamos quando modelamos a relação linear entre uma variável de desfecho contínua e múltiplas variáveis preditoras que podem ser contínuas ou categóricas.

A principal diferença entre a Regressão Linear Múltipla e a Simples, é que na simples só usamos uma variável preditora. Você pode aprender mais sobre a regressão linear simples aqui nesta postagem no blog.

Quando usar Regressão Linear Múltipla?

Podemos usar a Regressão Linear Múltipla quando o objetivo da pesquisa envolve:

  • Projetar o valor de uma variável de desfecho (também chamada de variável dependente, VD) através de um conjunto de outras variáveis preditoras (também chamadas de variáveis independentes, VIs);
  • Investigar que variáveis se relacionam com uma variável de desfecho;
  • Investigar qual conjunto de variáveis traz uma melhor explicação para a variável de resultado;
  • Entender a relação entre uma variável de resultado e uma preditora, controlando pelo efeito de outras variáveis preditoras.

À partir dos tipos de uso, podemos pensar em alguns exemplos práticos:

  • Projetar a nota de língua portuguesa em uma turma à partir da quantidade de exercícios de casa resolvidos, horas de estudo, número de faltas e quantidade de livros lidos no último ano;
  • Descobrir qual variável mais impacta a nota de língua portuguesa: seriam os exercícios de casa, horas de estudo, número de faltas ou a quantidade de livros lidos no último bimestre? Sabendo a importância destas variáveis, podemos planejar uma intervenção;
  • Queremos entender que variáveis tem impacto sobre a qualidade de vida de um país à partir de um censo com dezenas de variáveis;
  • Entender se a quantidade horas de aula matemática é uma boa variável preditora para a nota da prova de matemática, quando também observamos se os alunos fazem os exercícios em sala de aula.

O que preciso saber antes de fazer a regressão?

Nós já falamos sobre os pressupostos da regressão aqui e aqui. Como este é um assunto muito importante, vale a pena relembrar que antes de fazer a Regressão Linear Múltipla, você deve conferir se os dados seguem estes pressupostos:

  • Linearidade: a relação entre as variáveis deve ser linear.
  • Homoscedasticidade (ou Homogeneidade de Variância): os termos de erro deve ter variância constante, independente dos valores das variáveis preditoras. Quebramos esse pressuposto quando as variáveis preditoras tem mais ou menos erro dependendo de seus valores.
  • Independência de erros: Os erros nas variáveis preditoras não devem estar correlacionados.
  • Não multicolinearidade: as variáveis preditoras não podem ser próximas de uma correlação perfeita.
  • Baixa exogeneidade: os valores das variáveis preditoras não devem estar contaminados com erros de medida. Este pressuposto não é muito realístico para a Psicometria. Ainda assim, é importante conhecê-lo. Erros de medida podem levar estimativas inconsistentes e superestimação dos coeficientes de regressão.

Entendendo a fórmula da Regressão Linear Múltipla

Se você leu nossa postagem sobre regressão linear simples, você já deve saber que a fórmula da regressão nada mais é do que a equação que descreve uma reta:

Onde Y é a variável de interesse, a que queremos prever. X é nossa variável preditora e que está associado ao β, que dirá o quão inclinado está a reta, ou o quão influente é a variável preditora. Por sua vez, o α é o valor que descreve o intercepto: onde a linha está quando o valor de X é zero.

Na Regressão Linear Múltipla, a fórmula é bem parecida, só vamos acrescentar outras variáveis preditoras:

Na fórmula acima temos duas variáveis preditoras e seus betas. Dando continuidade a este modelo, podemos ter quantas variáveis preditoras quanto quisermos:

O que é a Regressão Linear Múltipla na prática?

Vamos entender o que é a regressão linear através de um exemplo prático. Para isso, vamos dar continuidade ao nosso exemplo da Regressão Linear Simples, onde analisamos se o escore de felicidade médio de um país tem relação com alguns indicadores.

No caso da regressão simples, analisamos se a felicidade tem relação com o Produto Interno Bruto. Indo além neste modelo, vamos acrescentar as variáveis “liberdade para fazer escolhas de vida” e “suporte social”.

Para termos uma base de comparação, em nosso modelo original, somente com o PIB, obtivemos R² de 0,63 e o PIB teve beta padronizado de 0,79. Os índices de ajuste do nosso novo modelo estão na tabela 1, a seguir.

Erro Padrão Residual0,558 (gl = 152)
R² Múltiplo0,753
R² Ajustado0,749
Estatística F154,9 (gl = 3 e 152)p < 0,001
Tabela 1: Estatísticas de Ajuste da Regressão Linear Múltipla

Como analisar as medidas de ajuste?

Podemos começar nossa análise checando se a regressão linear é um modelo diferente o suficiente do modelo nulo (que é a média da variável de interesse). O que nos dá esta informação é a estatística F. Se o valor de F for significativo, com p < 0,05, podemos dizer que a regressão linear é diferente do modelo nulo. No nosso exemplo, obtivemos valor de p menor do que 0,001.

Em um primeiro momento podemos pensar que o modelo ter um valor de p muito menor do que o necessário (0,001 << 0,05) é muito bom. Isto não é necessariamente verdade. O valor de p associado à estatística F apenas nos diz se o modelo é diferente do modelo nulo. Dito de outra forma, valores de p muito pequenos nos dizem que a chance dos modelos serem diferentes é grande. Entretanto, não diz o quão diferente eles são.

Avaliando a qualidade do modelo através do R²

Para avaliarmos a qualidade do modelo, podemos usar as medidas de R², que irá nos dizer quantos porcentos da variação dos dados pode ser explicada pelas variáveis preditoras. O R² do nosso modelo foi de 0,753. Isso significa que 75,3% da variação dos escores médios de felicidade pode ser explicada pelas variáveis preditoras, o que é excelente!

Apesar dos resultados impactantes, precisamos de cautela quando usamos o R² na regressão linear múltipla. O R² tem um viés: ele sempre aumenta conforme acrescentamos novas variáveis à regressão, ainda que estas variáveis sejam ruins enquanto preditoras. Desta maneira, é possível ter modelos com muitas variáveis ruins e um bom R². Para resolver este viés, existe uma outra estatística, o R² Ajustado, que leva em conta que estamos acrescentando novas variáveis ao modelo. Em nosso caso, o R² Ajustado é apenas ligeiramente menor que o R², 0,749 ou 74,9%, o que é um ótimo sinal!

O que é o Erro Padrão Residual?

Uma outra medida de ajuste presente é o Erro Padrão Residual. Ele indica o quão distante da linha de tendência da regressão estão os dados. Quanto menor o Erro Padrão Residual, melhor é nosso modelo. Porém, ele não é uma medida padronizada, seguindo o mesmo nível de medida da variável de interesse. Com isso, não há uma maneira padronizada de analisá-lo.

Outro ponto importante é que o R² é calculado à partir do Erro Padrão Residual. Portanto, ambas as medidas dão informações semelhantes.

Como saber se tenho boas variáveis preditoras?

Agora que sabemos que nosso modelo de regressão é adequado para os nossos dados, podemos voltar nossa atenção às variáveis preditoras. Da mesma maneira que fizemos ao analisar o modelo geral, a primeira coisa que vamos olhar são os valores de significância das variáveis, que também devem ser menores do que 0,05.

EstimativaEstimativa padronizadaErro Padrãovalor-tvalor-p
(Intercepto)2,050,000,2010,223< 0,001
PIB1,280,460,177,44< 0,001
Liberdade1,940,250,355,54< 0,001
Suporte Social1,190,320,245,02< 0,001
Tabela 2: Coeficientes da Regressão Linear Múltipla

Em nossos exemplo, todas as variáveis tem valor de p < 0,001. Todas são suficientemente diferentes de um modelo onde elas não estão inclusas. O valor da significância é derivado do valor-t, que é análogo à estatística F.

Da mesma maneira como fizemos para o ajuste do modelo, precisamos olhar o tamanho do impacto destas variáveis na variável de resultado. No caso das variáveis preditoras, existem duas medidas que podemos usar: o beta e o beta padronizado.

Como interpretar o valor do beta?

O beta da regressão, como discutimos na parte da fórmula, é o valor que determina o ângulo da linha da regressão. Dito de maneira mais direta, o valor do beta determina o quanto a variável preditora impacta na variável de resultado. Quanto maior o valor do módulo do beta (ignorando o sinal), mais influente ele é nos valores da variável de resultado.

Outra maneira de interpretar o beta é entendo que o aumento de uma unidade no valor da variável X1, gera o aumento do valor do beta1 na variável de resultado. No nosso exemplo o modelo de regressão estima que se aumentássemos uma unidade no valor do PIB, aumentaríamos 2,05 no escore de felicidade.

Quando usar o beta padronizado?

O beta da regressão sempre está na mesma unidade de medida da variável original (ex.: os escores de felicidade que vão de 1 a 5). Uma consequência é que pode ser difícil de identificar de maneira fácil o quão importante é aquela variável.

Para resolver este problema, podemos usar o beta padronizado. Ele é uma versão do beta que indica o quão forte é a associação entre a variável preditora e a de resultado. Quando o beta padronizado é 0, a relação entre as variáveis é fraca. Quando o beta é 1 ou -1, há uma relação forte entre as variáveis.

Note que betas negativos, padronizados ou não, indicam que o aumento da variável preditora implica na diminuição da variável de resultado.

Em nosso exemplo, todas as variáveis tem alguma importância, mas a variável mais influente para os escores médios de felicidade foi o PIB, seguido por suporte social e a liberdade de escolhas de vida.

Um ponto interessante para se notar, é que quando fizemos a regressão linear simples, o PIB tinha beta padronizado de 0,79. Agora, o beta padronizado é de 0,46.

Esta diminuição acontece pois há uma sobreposição entre o PIB, a liberdade de escolha e o suporte social. Apenas para fins de ilustração podemos pensar que países com maior PIB também tem maior suporte social. Desta maneira, uma parte do poder explicativo do PIB diminui quando acrescentamos o suporte social ao modelo.

Esta noção de que o poder de uma variável se altera quando acrescentamos outra ao modelo voltará quando falarmos de mediação e moderação.

Devo excluir variáveis não significativas ou fracas?

Você pode querer excluir variáveis por serem fracas ou com valor de p > 0,05. Mas não necessariamente esta é a melhor coisa a se fazer.

Se na sua pesquisa você tem um modelo teórico que está sendo avaliado à partir da regressão, é importante deixar as variáveis fracas e insignificantes dentro modelo. Isso demonstra que nem todas as suas hipóteses foram confirmadas, e deve ser discutido. Além de dar a maior transparência possível.

Se você estiver procurando um modelo que seja o melhor para prever determinada situação, excluir variáveis pode aumentar o poder preditivo. No caso de pesquisas científicas ainda é necessário manter os dois modelos quando possível, para maior transparência dos resultados.

Além da Regressão

Com este artigo, você deve ter uma boa ideia de como interpretar uma regressão linear múltipla. Acredito que isso te dará um grande poder de análise em diversas situações.

Agora, se quiser ir além, entender a regressão linear abre porta para diversos tipos de análises que tem a regressão linear como base e serão abordadas aqui no blog: mediação e moderação, Regressão Linear Multinível, Modelagem por Equações Estruturais, Análise Fatorial, entre outras. Há também algumas que já foram abordadas: Regressão Logística e de Poisson. Bons estudos!

Gostou desse conteúdo? Precisa aprender Análise de dados? Faça parte da Psicometria Online Academy: a maior formação de pesquisadores quantitativos da América Latina. Conheça toda nossa estrutura aqui e nunca mais passe trabalho sozinho(a).

BRUNO FIGUEIREDO DAMÁSIO

Sou Psicólogo, mestre e doutor em Psicologia. Venho me dedicando à Psicometria desde 2007.

Fui professor e chefe do Departamento de Psicometria da UFRJ durante os anos de 2013 a 2020. Fui editor-chefe da revista Trends in Psychology, da Sociedade Brasileira de Psicologia (SBP) eEditor-Associado da Spanish Journal of Psychology, na sub-seção Psicometri e Métodos Quantitativos.

Tenho mais de 50 artigos publicados e mais de 3000 citações, nas melhores revistas nacionais e internacionais. Atualmente, me dedico a formação de novos pesquisadores, através da Psicometria Online Academy. Minha missão é ampliar a formação em Psicometria no Brasil e lhe auxiliar a conquistar os seus objetivos profissionais.

Deseja se tornar completamente autônomo e independente na análise dos seus dados?

3 respostas

  1. Olá Bruno Figueiredo. Espero que esteja bem.
    Parabenizo-o pela explicação referente à regressão linear múltipla. De forma simples e didática e mostrando as entrelinhas facilitou a minha interpretação sobre a questão. Sugiro que continue com tal metodologia a fim de atingir os interessados nas questões estatísticas mas que ao mesmo tempo necessitam de um embasamento. Realmente, muito obrigado!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Veja mais

Posts relacionados

Teste de Wilcoxon

Teste de Wilcoxon

O teste de Wilcoxon é um teste de hipóteses para analisar a diferença entre duas amostras pareadas. Portanto, podemos usá-lo quando temos duas medidas de uma mesma amostra, isto é,

O que é um teste post hoc?

O que é um teste post hoc?

Alguma vez, durante a sua jornada como pesquisador, já deve ter se perguntado o que é um teste post hoc ou o que significa fazer um teste post hoc. Testes

O que é a distância de Cook?

O que é a distância de Cook?

A distância de cook é uma estatística para avaliar o quanto um único caso é capaz de influenciar a estimativa de um modelo de regressão.

Entenda o que são graus de liberdade

Entenda o que são graus de liberdade

Os graus de liberdade são uma medida que nos ajuda a determinar o número de observações independentes que temos em nossos dados. Em outras palavras, eles indicam quantos valores podemos

O que são parâmetros livres e fixos em uma AFC?

O que são parâmetros livres e fixos em uma AFC?

Parâmetros livres e fixos são uma parte fundamental para o entendimento da Análise Fatorial Confirmatória (AFC). É útil entender estes conceitos, para quando falarmos de índices de modificação e identificação

Teste de Wilcoxon

Teste de Wilcoxon

O teste de Wilcoxon é um teste de hipóteses para analisar a diferença entre duas amostras pareadas. Portanto, podemos usá-lo quando temos duas medidas de uma mesma amostra, isto é,

O que é um teste post hoc?

O que é um teste post hoc?

Alguma vez, durante a sua jornada como pesquisador, já deve ter se perguntado o que é um teste post hoc ou o que significa fazer um teste post hoc. Testes

O que é a distância de Cook?

O que é a distância de Cook?

A distância de cook é uma estatística para avaliar o quanto um único caso é capaz de influenciar a estimativa de um modelo de regressão.

Entenda o que são graus de liberdade

Entenda o que são graus de liberdade

Os graus de liberdade são uma medida que nos ajuda a determinar o número de observações independentes que temos em nossos dados. Em outras palavras, eles indicam quantos valores podemos

O que são parâmetros livres e fixos em uma AFC?

O que são parâmetros livres e fixos em uma AFC?

Parâmetros livres e fixos são uma parte fundamental para o entendimento da Análise Fatorial Confirmatória (AFC). É útil entender estes conceitos, para quando falarmos de índices de modificação e identificação

Cadastre-se para ser notificado com o link das aulas ao vivo:

Módulo 4: Redes neurais artificiais

• Introdução a Deep Learning

• Avaliando sistemas de Deep Learning

• Redes Neurais feitas (sem programação) no SPSS

• Aula bônus: O futuro da IA na Sociedade

• Aula bônus: Dois Estudos de Caso 

Módulo 3: Interpretar e reportar resultados

• Gerar, interpretar e reportar resultados em Machine Learning

Módulo 2: Criando o seu sistema

• Selecionando algoritmos e métodos 
• Práticas de Machine Learning (Sem programação): Decision Tree (JASP), Linear Discriminant Classification (JASP) e Plataforma ORANGE
• Aula Bônus: Avaliação Psicológica e Machine Learning
• Aula Bônus: Livros e Cursos recomendados  
• Aula Bônus: Entrevista com Cientista de Dados focado na área da Saúde

Módulo 1: O que é Machine Learning

• O que é Machine Learning?
• Como a máquina aprende?
• Machine Learning para Psicometria e Pesquisa Quantitativa (pesquisas comentadas)
• Tipos de Machine Learning (Supervisionado e Não-supervisionado)
• Práticas de Machine Learning (Sem programação): JASP e SPSS
Aula Bônus: Filosofia da Inteligência Artificial
• Aula Bônus: Entrevista com Cientista de Dados graduado em Psicologia
• Aula bônus: Estudo de Caso sobre Redução Dimensional 

Preencha abaixo para
participar gratuitamente

Fique tranquilo, não utilizaremos suas informações de contato para enviar qualquer tipo de SPAM. Os dados coletados são tratados nos termos da Lei Geral de Proteção de Dados e você pode se descadastrar da nossa lista de contatos a qualquer momento.