Un enfoque de estatísticas básicas para analizar datos cuantitativos
Os modelos de regresión lineal son usados para mostrar ou predecir a relación entre dúas variables ou factores . O factor que está a ser previsto (o factor que resolve a ecuación) chámase variable dependente. Os factores que se usan para predecir o valor da variable dependente chámanse as variables independentes.
Os bos datos non sempre contan a historia completa. A análise de regresión úsase habitualmente na investigación xa que establece que existe unha correlación entre as variables.
Pero a correlación non é o mesmo que a causal . Incluso unha liña nunha simple regresión lineal que encaixa nos puntos de datos non pode dicir algo definitivo sobre unha relación de causa e efecto.
En regresión lineal simple, cada observación consta de dous valores. Un valor é para a variable dependente e un valor para a variable independente.
- Análise de regresión lineal sinxela A forma máis sinxela dunha análise de regresión emprega unha variable dependente e unha variable independente. Neste sinxelo modelo , unha liña recta aproxima a relación entre a variable dependente ea variable independente.
- Análise de regresión múltiple Cando se utilizan dúas ou máis variables independentes na análise de regresión, o modelo xa non é un simple lineal.
Modelo de regresión lineal simple
O modelo simple de regresión lineal está representado así: y = ( β 0 + β 1 + Ε
Por convención matemática, os dous factores que están implicados nunha simple análise de regresión lineal están designados x e y .
A ecuación que describe como está relacionada a x é coñecida como o modelo de regresión . O modelo de regresión lineal tamén contén un termo de erro que está representado por Ε , ou a letra grega epsilon. O termo de erro utilízase para explicar a variabilidade en y que non se pode explicar pola relación lineal entre x e y .
Hai tamén parámetros que representan a poboación estudada. Estes parámetros do modelo que están representados por ( β 0+ β 1 x ).
Modelo de regresión lineal simple
A ecuación de regresión lineal simple está representada así: Ε ( y ) = ( β 0 + β 1 x ).
A ecuación de regresión lineal sinxela é representada en liña recta.
( β 0 é a interceptación y da liña de regresión.
β 1 é a inclinación.
Ε ( y ) é o valor medio ou esperado de y para un valor dado de x .
Unha liña de regresión pode mostrar unha relación lineal positiva, unha relación lineal negativa ou sen relación. Se a liña grafica nunha regresión lineal simple é plana (non inclinada), non hai relación entre as dúas variables. Se a liña de regresión inclínase cara a arriba co extremo inferior da liña no e intercepto (eixo) do gráfico, eo extremo superior da liña que se estende cara arriba no campo gráfico, lonxe da interceptación x (eixe) existe unha relación lineal positiva . Se a liña de regresión inclina cara a abaixo co extremo superior da liña no e (eixe) do gráfico, eo extremo inferior da liña que se estende cara a abaixo no campo gráfico, cara á interceptación x (eixe) existe unha relación lineal negativa.
Ecuación de regresión lineal estimada
Se os parámetros da poboación eran coñecidos, a ecuación de regresión lineal simple (mostrada a continuación) podería usarse para calcular o valor medio de y para un valor coñecido de x .
Ε ( y ) = ( β 0 + β 1 x ).
Non obstante, na práctica, non se coñecen os valores dos parámetros polo que deben estimarse utilizando datos dunha mostra da poboación. Os parámetros da poboación calcúlanse usando estatísticas de mostra . As estatísticas de mostra están representadas por b 0 + b 1. Cando as estatísticas de mostra substitúense polos parámetros da poboación, fórmase a ecuación de regresión estimada.
A ecuación de regresión estimada móstrase a continuación.
( ŷ ) = ( β 0 + β 1 x
( ŷ ) é pronunciado e sombreiro .
O gráfico da ecuación de regresión simple estimada chámase a liña de regresión estimada.
O b 0 é a interceptación y.
O b 1 é a inclinación.
O ŷ ) é o valor estimado de y para un valor dado de x .
Nota importante: A análise de regresión non se usa para interpretar as relacións de causa e efecto entre as variables. Non obstante, a análise de regresión pode indicar como se relacionan as variables ou ata que punto as variables están asociadas entre si.
Ao facelo, a análise de regresión tende a facer relacións salientes que garanten que un investigador experimentado mire de cerca .
Tamén coñecido como: regresión bivariante, análise de regresión
Exemplos: The Least Squares Method é un procedemento estatístico para usar datos de mostra para atopar o valor da ecuación de regresión estimada. O Método Least Squares foi proposto por Carl Friedrich Gauss, que naceu no ano 1777 e morreu en 1855. O Método Least Squares aínda é amplamente utilizado.
Fontes:
Anderson, DR, Sweeney, DJ e Williams, TA (2003). Essentials of Statistics for Business and Economics (3ª ed.) Mason, Ohio: Southwestern, Thompson Learning.
______. (2010). Explicado: Análise de regresión. Novas do MIT.
McIntyre, L. (1994). Usar datos de cigarro para unha introdución á regresión múltiple. Revista de Educación Estadística, 2 (1).
Mendenhall, W., e Sincich, T. (1992). Estatísticas para a Enxeñaría e as Ciencias (3ª ed.), Nova York, NY: Dellen Publishing Co.
Panchenko, D. 18.443 Estatísticas para solicitudes, outono de 2006, sección 14, regresión lineal sinxela. (Instituto de Tecnoloxía de Massachusetts: MIT OpenCourseWare)