Receba gratuitamente todos os nossos conteúdos.

Fique por dentro das novidades e oportunidades referentes à Psicometria e Análise Quantitativa de Dados.

Análise Fatorial Exploratória: o que é, para que serve e os principais procedimentos

A Análise Fatorial Exploratória (AFE) é um conjunto de técnicas multivariadas que tem como objetivo encontrar a estrutura subjacente em uma matriz de dados e determinar o número e a natureza das variáveis latentes (fatores) que melhor representam um conjunto de variáveis observadas.

Sendo assim, o objetivo da AFE é identificar esses fatores e estimar as relações entre eles e as variáveis observadas. Para isso, a AFE parte de uma matriz de correlação ou covariância das variáveis observadas e usa técnicas estatísticas para extrair os fatores latentes que melhor explicam a estrutura dos dados. Vale destacar que a AFE é uma técnica exploratória, ou seja, não parte de hipóteses pré-estabelecidas sobre os fatores latentes, mas busca identificá-los a partir dos padrões de correlação entre as variáveis observadas.

O modelo teórico da AFE assume que cada variável observada é influenciada por um ou mais fatores latentes, e que as correlações entre as variáveis observadas podem ser explicadas pelas correlações entre esses fatores latentes. O objetivo é encontrar um número menor de fatores que explique a maior parte da variabilidade das variáveis observadas, simplificando assim a estrutura dos dados e facilitando a interpretação dos resultados.

Durante o processo de realização da Análise Fatorial Exploratória (AFE), são necessárias diversas tomadas de decisão para obter uma estrutura fatorial apropriada, sempre pautadas em critérios teóricos e metodológicos.

Procedimentos estatísticos comumente utilizados ao realizar uma Análise Fatorial Exploratória.

Avaliar a adequação da amostra

O primeiro passo é verificar a validade da aplicação dessa técnica estatística para as variáveis selecionadas. Para isso podemos utilizar dois métodos:

1- Índice Kaiser-Meyer-Olkin (KMO): O índice KMO avalia a adequação da amostra para a análise fatorial, considerando a correlação entre as variáveis. O valor do KMO varia de 0 a 1, e valores superiores a 0,7 indicam que a análise fatorial é apropriada, sendo valores menores que 0,5 são considerados inaceitáveis.

2- Teste de Esfericidade de Bartlett: O obejtivo do Teste de Esfericidade de Bartlett é avaliar se a matriz de correlação entre as variáveis é significativamente diferente da matriz de identidade, ou seja, se há interdependência entre as variáveis. Como interpretar o teste de Esfericidade de Bartlett. Se o teste de Bartlett for significativo, isso indica que a análise fatorial é adequada.

Após a verificação da adequação da amostra, é necessário decidir quantos fatores serão extraídos. Essa decisão refere-se à escolha do número de fatores a serem extraídos a partir da matriz de correlação ou covariância das variáveis observadas. Para isso existem alguns procedimentos estatísticos também como procedimentos para retenção de fatores. Vamos ver alguns deles.

Procedimentos para retenção de fatores

Neste post vamos abordar os três procedimento para retenção fatorial mais conhecidos. a) o critério de autovalor (que considera apenas fatores com autovalores maiores que 1), b) o critério de scree plot (que verifica a curva de sedimentação dos autovalores) e c) o método de análises paralelas.

1- Critério do autovalor: esse método seleciona os fatores com autovalores maiores que 1. Essa abordagem baseia-se na ideia de que cada fator deve explicar pelo menos a mesma quantidade de variância que uma variável única, ou seja, a variância explicada pelos fatores deve ser maior que a variância explicada pelas variáveis observadas individualmente.

2- Gráfico scree (scree plot): O método conhecido como gráfico ou diagrama de declividade (Scree plot) proposto por Cattell (1966) consiste em um gráfico dos autovalores (eixo y) e seus fatores associados (eixo x) obtidos na AFE. Cada variável tem um autovalor associado que representa a quantidade de variância explicada por aquele fator. A representação gráfica dos autovalores permite identificar quais fatores têm maior relevância na explicação da variância total dos dados. A curva desse gráfico apresenta uma inclinação acentuada, seguida de uma cauda praticamente horizontal, o que sugere que os primeiros fatores explicam a maior parte da variância dos dados. Cattell (1966) argumentou que o ponto de corte para decidir sobre o número de fatores deve ser no ponto de inflexão da curva, ou seja, naquele ponto em que a curva da variância individual de cada fator se torna horizontal ou sofre uma queda abrupta.

3 – Análises Paralelas: Desenvolvido por Horn (1965) inicialmente como um critério de retenção de componentes, foi adaptado para uso em AFE. A ideia básica da AP é gerar uma matriz aleatória com as mesmas dimensões da matriz original e extrair fatores dela usando o mesmo método de extração aplicado na matriz original. Os autovalores resultantes dessa matriz aleatória são comparados aos autovalores da matriz original. Os autovalores que excedem os autovalores gerados pela matriz aleatória são considerados significativos e, portanto, os fatores correspondentes são retidos.

Agora nossa dica: Os critérios para retenção fatorial de Kaiser (autovalor > 1) e o gráfico scree tendem a superestimar o número de fatores. Por outro lado, estudos demonstram a melhor eficácia da análise paralela na retenção de fatores, em especialmente para dados ordinais. No entanto, é importante lembrar nenhum método é perfeito em todas as situações. Por isso, é recomendável comparar os resultados obtidos por diferentes métodos e avaliar a consistência e interpretabilidade dos fatores retidos.

O próximo passo é escolher a técnica a ser utilizada para o cálculo das cargas fatoriais, conhecida como extração de fatores. Existem diversas técnicas disponíveis para realizar a extração, e a escolha da mais adequada depende do tipo de dado analisado. Na sequência vamos descrever os estimadores utilizados para o cálculo das cargas fatoriais, mas sem entrar a fundo em questões matemáticas, mas sim nas aplicações práticas.

Métodos de extração fatorial

Alguns estimadores são utilizados na AFE, como o método de Máxima Verossimilhança (Maximum Likelihood – ML), o método de Mínimos Quadrados Não Ponderados (Unweighted Least Squares – ULS) e e Mínimos Quadrados Ponderados Diagonalmente (DWLS).

O método de Máxima Verossimilhança pode apresentar problemas em amostras pequenas, quando a distribuição normal não é acatada e ao utilizar em uma matriz de correlação policórica. Por sua vez, o método de Mínimos Quadrados Não Ponderados é menos sensível à normalidade dos dados, e indicado para o uso com dados ordinais.

Atualmente, o estimador DWLS tem demonstrado maior robustez em situações de violações da normalidade multivariada e quando as variáveis são ordinais. Além disso, o estimador DWLS demonstrou melhores resultados em pequenas amostras. Portanto, nossa recomendação é que utilize o estimador DWLS sempre que possível.

Vale ressaltar que a AFE é frequentemente confundida com análise de componentes principais (ACP). Esse fato se dá porque um dos métodos de extração, comum e erroneamente empregado na AFE, é o método de componentes principais. Para saber mais sobre a diferença entre AFE e ACP e quando usa-los, leia nosso outro post.

As cargas fatoriais foram estimadas e extraidas, agora precisamos alocar os itens em cada um dos fatores retidos. Para isso utilizamos métodos de rotação de fatores.

Rotação dos fatores

A rotação dos fatores tem como objetivo simplificar a interpretação dos resultados. Podemos de certa maneira dizer que a rotação vai calcular o grau de adaptação das variáveis aos fatores por meio das cargas fatoriais. Existem rotações oblíquas e rotações ortogonais.

A rotação ortogonal mantém os fatores independentes e não correlacionados, enquanto a rotação oblíqua permite que os fatores sejam correlacionados entre si. A rotação oblíqua é frequentemente usada quando se deseja entender as relações entre diferentes fatores e como eles podem estar interconectados, sendo a mais comum e indicado para uso o método Oblimin.

Com todos esses procedimentos em mente estamos prontos para executar uma Análise Fatorial Exploratória! Lápis e papel na mão para começarmos!

Ops! Não precisamos mais fazer todos esses cálculos na mão, atualmente temos poder computacional suficiente e softwares estatísticos que nos ajudam nessa tarefa.

Em relação aos softwares disponíveis, o SPSS destaca-se como o software comercial mais utilizado, porém por ele não podemos aplicar os métodos mais robustos atualmente (ex. matriz policórica, análise paralela e o o estimador DWLS).

Para realizar AFE você tem disponível dois softwares gratuitos que viabilizam os métodos mais recomendados atualmente pela literatura. O JASP (https://jasp-stats.org/) e o Factor, do qual já falamos por aqui. Além disso, se você quer se aventurar ou domina alguma linguagem de programação, por meio do R, você pode utilizar os pacotes psych e lavaan para realizar sua AFE. Bom, executei minha AFE, e agora?

Como interpretar uma Análise Fatorial Exploratória

Após a verificação da adequação da amostra, para interpretar os resultados da AFE, é importante considerar as cargas fatoriais de cada item. Uma carga fatorial acima de 0,30 (se você quer ser mais rigoroso ou reduzir sua escala pode usar 0,40) é geralmente considerada significativa, indicando que o item está bem representado pelo fator correspondente.

Além disso, é importante verificar se os fatores extraídos fazem sentido teoricamente, e se os itens agrupados em cada fator são coerentes com a dimensão correspondente. Por exemplo, se um dos fatores extraídos em um questionário de personalidade for “extroversão”, espera-se que os itens agrupados nesse fator reflitam características como sociabilidade, assertividade e energia.

Ainda não se senti seguro para realizar Análise Fatorial Exploratória? Acesse nosso canal no Youtube e assista o vídeo de como fazer a Análise Fatorial Exploratória perfeita!

Para finalizar deixamos uma curiosidade histórica: A origem da AFE remonta ao início do século XX, com os trabalhos pioneiros do matemático britânico Charles Spearman. Spearman propôs um método para a criação de um índice geral de inteligência com base nos resultados de vários testes (escalas). Esse modelo de inteligência geral, também conhecido como fator g, seria o estudo seminal no qual a análise fatorial foi utiliza para para extrair os fatores latentes que melhor explicam a estrutura dos dados, no caso um único fator.

Gostou desse conteúdo? Precisa aprender Análise de dados? Faça parte da Psicometria Online Academy: a maior formação de pesquisadores quantitativos da América Latina. Conheça toda nossa estrutura aqui e nunca mais passe trabalho sozinho(a).

BRUNO FIGUEIREDO DAMÁSIO

Sou Psicólogo, mestre e doutor em Psicologia. Venho me dedicando à Psicometria desde 2007.

Fui professor e chefe do Departamento de Psicometria da UFRJ durante os anos de 2013 a 2020. Fui editor-chefe da revista Trends in Psychology, da Sociedade Brasileira de Psicologia (SBP) eEditor-Associado da Spanish Journal of Psychology, na sub-seção Psicometri e Métodos Quantitativos.

Tenho mais de 50 artigos publicados e mais de 3000 citações, nas melhores revistas nacionais e internacionais. Atualmente, me dedico a formação de novos pesquisadores, através da Psicometria Online Academy. Minha missão é ampliar a formação em Psicometria no Brasil e lhe auxiliar a conquistar os seus objetivos profissionais.

Deseja se tornar completamente autônomo e independente na análise dos seus dados?

2 respostas

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Veja mais

Posts relacionados

Um Guia Completo sobre a PEDro: Physiotherapy Evidence Database

Um Guia Completo sobre a PEDro: Physiotherapy Evidence Database

Se você é um profissional ou um estudante da área da saúde e está interessado nas práticas baseadas em evidências, este post é para você. Vamos descobrir como a base

Diferença entre as regressões logísticas: binária, ordinal e multinomial

Diferença entre as regressões logísticas: binária, ordinal e multinomial

A análise de regressão é uma técnica amplamente utilizada para verificar a existência de uma relação entre uma variável dependente e uma ou mais variáveis independentes. Existem diferentes tipos de

Construção de itens para instrumentos de autorrelato

Construção de itens para instrumentos de autorrelato

A elaboração de itens para instrumentos de autorrelato desempenha um papel crucial na pesquisa psicométrica, pois é por meio deles que os participantes expressam suas próprias experiências e percepções. Neste

Dados Normativos: Entendendo o Escore Z

Dados Normativos: Entendendo o Escore Z

Interpretar os resultados derivados do uso de um teste é tão crucial quanto criar ou adaptar os instrumentos e aplicá-los corretamente. Para a interpretação dos resultados, é essencial a criação

Compreendendo a Confiabilidade Duas-Metades (Split-Half Reliabity)

Compreendendo a Confiabilidade Duas-Metades (Split-Half Reliabity)

No campo da Psicometria, pesquisadores e profissionais frequentemente buscam garantir a precisão e consistência de seus instrumentos de medição. Um dos métodos usados para avaliar a confiabilidade de um teste

Um Guia Completo sobre a PEDro: Physiotherapy Evidence Database

Um Guia Completo sobre a PEDro: Physiotherapy Evidence Database

Se você é um profissional ou um estudante da área da saúde e está interessado nas práticas baseadas em evidências, este post é para você. Vamos descobrir como a base

Diferença entre as regressões logísticas: binária, ordinal e multinomial

Diferença entre as regressões logísticas: binária, ordinal e multinomial

A análise de regressão é uma técnica amplamente utilizada para verificar a existência de uma relação entre uma variável dependente e uma ou mais variáveis independentes. Existem diferentes tipos de

Construção de itens para instrumentos de autorrelato

Construção de itens para instrumentos de autorrelato

A elaboração de itens para instrumentos de autorrelato desempenha um papel crucial na pesquisa psicométrica, pois é por meio deles que os participantes expressam suas próprias experiências e percepções. Neste

Dados Normativos: Entendendo o Escore Z

Dados Normativos: Entendendo o Escore Z

Interpretar os resultados derivados do uso de um teste é tão crucial quanto criar ou adaptar os instrumentos e aplicá-los corretamente. Para a interpretação dos resultados, é essencial a criação

Compreendendo a Confiabilidade Duas-Metades (Split-Half Reliabity)

Compreendendo a Confiabilidade Duas-Metades (Split-Half Reliabity)

No campo da Psicometria, pesquisadores e profissionais frequentemente buscam garantir a precisão e consistência de seus instrumentos de medição. Um dos métodos usados para avaliar a confiabilidade de um teste

Cadastre-se para ser notificado com o link das aulas ao vivo:

Módulo 4: Redes neurais artificiais

• Introdução a Deep Learning

• Avaliando sistemas de Deep Learning

• Redes Neurais feitas (sem programação) no SPSS

• Aula bônus: O futuro da IA na Sociedade

• Aula bônus: Dois Estudos de Caso 

Módulo 3: Interpretar e reportar resultados

• Gerar, interpretar e reportar resultados em Machine Learning

Módulo 2: Criando o seu sistema

• Selecionando algoritmos e métodos 
• Práticas de Machine Learning (Sem programação): Decision Tree (JASP), Linear Discriminant Classification (JASP) e Plataforma ORANGE
• Aula Bônus: Avaliação Psicológica e Machine Learning
• Aula Bônus: Livros e Cursos recomendados  
• Aula Bônus: Entrevista com Cientista de Dados focado na área da Saúde

Módulo 1: O que é Machine Learning

• O que é Machine Learning?
• Como a máquina aprende?
• Machine Learning para Psicometria e Pesquisa Quantitativa (pesquisas comentadas)
• Tipos de Machine Learning (Supervisionado e Não-supervisionado)
• Práticas de Machine Learning (Sem programação): JASP e SPSS
Aula Bônus: Filosofia da Inteligência Artificial
• Aula Bônus: Entrevista com Cientista de Dados graduado em Psicologia
• Aula bônus: Estudo de Caso sobre Redução Dimensional 

Preencha abaixo para
participar gratuitamente

Fique tranquilo, não utilizaremos suas informações de contato para enviar qualquer tipo de SPAM. Os dados coletados são tratados nos termos da Lei Geral de Proteção de Dados e você pode se descadastrar da nossa lista de contatos a qualquer momento.