1 / 22

Testes de significância estatística e coeficientes de associação

Testes de significância estatística e coeficientes de associação. Inferência estatística. Quando afirmamos que A causa B, estamos sugerindo que há uma relação entre A e B

Télécharger la présentation

Testes de significância estatística e coeficientes de associação

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Testes de significância estatística e coeficientes de associação

  2. Inferência estatística • Quando afirmamos que A causa B, estamos sugerindo que há uma relação entre A e B • A forma mais útil e abrangente de determinar se duas variáveis estão de fato relacionados é a tabela de contingência, que mostra o resultado conjunto de duas variáveis. • Usualmente a variável dependente ocupa o eixo vertical e a variável independente o horizontal. O resultado pode também ser apresentado em gráfico de barras, onde o eixo vertical representa a freqüência ou as porcentagens e há um conjunto de barras representando os valores da variável dependente, com valores em cores ou formatos diferentes de acordo com a variável independente.

  3. A hipótese nula • Hipótese nula é uma hipótese estatística que usualmente esperamos refutar e declara que nenhuma relação existe na população entre as variáveis consideradas. • Questão de inferência: qual é a probabilidade de que a relação observada nos dados da amostra possa ser obtida a partir de uma população na qual não há relação entre as variáveis? • Nível de probabilidade: é a probabilidade selecionada para rejeição de uma hipótese nula, geralmente fixada como α (Alfa, erro de Tipo I) ≤ 0,05.

  4. Testes de significância: qui-quadrado • Qui-quadrado (χ2) – Testes de significância estatística baseado numa comparação de freqüências observadas de células numa tabela de contingência com freqüências que seriam esperadas sob a vigência de uma hipótese nula, ou seja, de nenhum relacionamento. • Se duas variáveis são estatisticamente independentes, há proporções idênticas da variável independente nas categorias da variável dependente numa tabela de contingência • Valor crítico – valor mínimo de um teste de significância, necessário para rejeitar a hipótese nula. O qui-quadrado é obtido numa tabela em função do grau de liberdade: (número de linhas – 1) (número de colunas -1) e do valor de α para a hipótese nula

  5. A lógica da significância estatística – Variáveis independentes

  6. A lógica da significância estatística – Uma amostra representativa

  7. A lógica da significância estatística –Amostra não representativa

  8. A lógica da significância estatística –Amostra representativa de variáveis correlacionadas

  9. Testes de significância para variáveis contínuas • Quando se conhece o erro padrão: teste da diferença das médias (mean difference); • Quando não se conhece o erro padrão: teste t

  10. Teste de hipóteses: sumário • Escolher um nível de α (nível de significância) • Efetuar um teste estatístico baseado na hipótese nula. • Comparar o resultado do teste estatístico com o valor crítico, rejeitando a hipótese nula se o valor encontrado for maior ou igual ao valor crítico • Considerar o valor de p (probabilidade de observar um teste de significância supondo que a hipótese nula seja verdadeira).

  11. Pesquisa experimental: análise da variância - ANOVA • ANOVA simples – teste estatístico da diferença de médias de dois ou mais grupos. • Este teste não é adequado para testar a relação linear entre variáveis, pois é sensível somente a diferenças nas médias amostrais, independentemente da ordem entre as categorias da variável independente.

  12. Regressão e técnicas de correlação para variáveis contínuas • O gráfico de dispersão (scatterplot) para mostrar a relação entre variáveis mensuradas continuamente.

  13. Banco de dados “Pesquisa de opinião” - Educativo do SPSS

  14. Medidas de associação • Característica principal da maioria das medidas de associação empregadas na metodologia quantitativa para as ciências sociais: PRE – proportional reduction in error (redução proporcional no erro) – permite o cálculo da redução em erros de predição da variável dependente, com base no conhecimento de sua relação com uma variável independente.

  15. Medidas de associação – r de Pearson • O coeficiente de correlação produto-momento, ou r de Pearson indica a direção e a magnitude da associação. Varia de -1 a 1.

  16. Medidas de associação para variáveis nominais • Lambda (λ) – para variáveis nominais. Varia de 0 a 1. O lambda é um coeficiente assimétrico: o valor obtido ao prever Y de X não é, em geral, o valor obtido ao prever X de Y. • V de Cramer e coeficiente de contingência (C) – não se baseiam no princípio PRE

  17. Medidas de associação para variáveis ordinais • Gama (γ) – coeficiente mais usado associação de variáveis ordinais. Gama é simétrico e varia de -1 a 1, com 0 indicam ausência de relação. O valor de gama não depende dos totais marginais de linhas ou colunas. Porém, somente os pares não vinculados (untied pairs) de casos são usados para calcular gama. • Tau b (τb) – considera todo par possível de observações na tabela de contingência, inclusive o número de pares vinculados, embora não o número de vínculos nas duas variáveis. É adequado quando o número de linhas é igual ao número de colunas. • Tau c (τc) – quando o número de linhas não é igual ao número de colunas

  18. Medidas de associação para variáveis ordinais • Sommers`s dyx é uma medida assimétrica cujo valor depende de qual variável desempenha qual papel (similar ao caso de lambda para variáveis nominais). • Ρ (Rô) de Spearman – para dados ranqueados (medidas discretas ordenadas), em que cada observação recebe um número de 1 a N (número de casos da amostra), que reflete sua colocação relativa a outras observações. Ex: os alunos de uma classe, ordenados por suas notas, desde que não haja casos vinculados, ou seja, mais de um aluno com a mesma nota. • Coeficientes para tabelas 2 x 2: Q de Yule – medida simétrica de associação, equivalente a gama. • Phi (Φ) – é idêntico ao r de Pearson, só que para tabelas 2 x 2. Diferentemente do Q de Yule, Φ não é sensível à distribuição de casos nas linhas e colunas marginais da tabela.

  19. Medidas de associação para variáveis ordinais • Odds ratio (razão de possibilidades) – constitui hoje a medida mais importante para tabelas 2 x 2 e maiores, por causa de sua relação com os modelos log-lineares (análise multivariada de variáveis discretas). A associação entre um par de variáveis discretas pode ser mensurada calculando o quociente entre o produto das células extremas da diagonal principal e o produto das células extremas da diagonal secundária da tabela de contingência.

  20. Medidas de associação e níveis de mensuração

More Related