O seu Blog de Psicometria

Tenha acesso à nossa enciclopédia virtual de conhecimento em Psicometria e Análise de Dados

Junte-se a mais de 22.300 membros e receba conteúdos exclusivos e com prioridade

Seja bem vindo a Categoria de Pressupostos estatísticos

O que é validade convergente?

Alex França

mar 19, 2025

Validade dos testes psicológicos

Bruno Damásio

mar 19, 2025

Como realizar a análise de variância no JASP?

Marcos Lima

fev 26, 2025

O que é análise multivariada de variância (MANOVA)?

Marcos Lima

fev 18, 2025

Quando usar ANOVA e ANCOVA?

Marcos Lima

fev 11, 2025

O que é análise de variância (ANOVA)?

Marcos Lima

fev 10, 2025

Qual é o papel da matemática na carreira de psicometrista?

Marcos Lima

jan 29, 2025

Regressão linear e regressão logística: quais são suas diferenças?

Marcos Lima

jan 28, 2025

Conheça o teste z, o teste t e o teste F

Marcos Lima

jan 28, 2025

O que é o coeficiente kappa de Cohen?

Marcos Lima

jan 23, 2025

Seja bem vindo a Categoria de Pressupostos estatísticos

Neste post, introduziremos o método bootstrap, uma técnica que cria novas amostras a partir da amostra original, por meio de amostragem com reposição, para estimar a precisão estatística. Primeiramente, descreveremos o que é reamostragem. Em seguida, apresentaremos a sequência de etapas envolvidas no método bootstrap. Além disso, apresentaremos um exemplo simples de implementação do método […]

As análises estatísticas frequentemente requerem uma profunda compreensão da distribuição de dados. Nesse contexto, dois conceitos fundamentais que você deve compreender são assimetria e curtose. Essas medidas nos ajudam a descrever a forma de uma distribuição de dados, fornecendo insights valiosos sobre a sua natureza. Neste post, explicaremos ambos os conceitos, oferecendo definições e exemplos […]

Quando usamos a análise de variância (ANOVA) em nossos estudos, precisamos acatar uma série de pressupostos estatísticos, de modo que possamos confiar nos resultados obtidos no teste. No entanto, isso nem sempre acontece. Sendo assim, neste post, iremos te ensinar a lidar, de modo metodologicamente adequado, com os pressupostos da análise de variância (ANOVA), quando […]

Neste post, vamos abordar a multicolinearidade entre as variáveis explicativas no modelo de regressão linear múltipla. Seus efeitos sobre o modelo de regressão linear e alguns diagnósticos de multicolinearidade para este modelo são apresentados. O que é multicolinearidade? A Multicolinearidade, ou dependência quase linear, é um fenômeno estatístico em que duas ou mais variáveis preditoras […]

Muito se fala sobre como realizar uma análise de regressão linear. No entanto, um assunto que recebe menos atenção é o das suposições da regressão linear. Em síntese, suposições (ou pressupostos estatísticos) são condições que assumimos — de forma implícita ou explícita — sobre os dados, a fim de aplicarmos uma determinada técnica estatística. Desse […]

Você já ouviu falar da distribuição normal? Neste post, explicaremos o que é essa distribuição, quais são suas principais características e qual sua utilidade para pesquisadores. Além disso, descreveremos o que é o escore z, como calculá-lo e como interpretá-lo. Por fim, recomendaremos dois testes estatísticos para avaliar a normalidade dos dados. O que é […]

Neste post, falaremos sobre o teste de Shapiro-Wilk, uma técnica estatística usada para avaliar a normalidade dos dados. Além disso, descreveremos quais são as hipóteses nula e alternativa que o teste assume, apresentaremos exemplos de distribuições submetidas ao teste de normalidade e como interpretar seus resultados. Por que se importar com a normalidade dos dados? […]

A multicolinearidade é uma situação em que duas ou mais variáveis independentes em um modelo de regressão encontram-se altamente correlacionadas. Essa alta correlação pode afetar a qualidade dos resultados do modelo e dificultar a interpretação dos resultados. Por exemplo, imagine que você queira estimar o efeito da escolaridade e renda na satisfação com a vida. […]

Um dos pressupostos da regressão linear múltipla é que a variância da variável dependente, Y, deve ser constante para os valores das variáveis preditoras X1, X2, …, Xn. Outra maneira de pensar o mesmo fenômeno é que os erros do modelo (resíduos) devem ser constantes, independente dos valores da variável de resultado (Y). Esse fenômeno […]

Outras Categorias:

Deseja se tornar completamente autônomo e independente na análise dos seus dados?

Mais lidos

O que é correlação de Pearson?

Teste t de Student

O que é o teste de Shapiro-Wilk?

Qual é a diferença entre R e RStudio?

Postados recentemente

O que é validade convergente?

Validade dos testes psicológicos

Como realizar a análise de variância no JASP?

O que é análise multivariada de variância (MANOVA)?

MATERIAIS GRATUITOS

Categorias