of 21

• date post

16-Nov-2014
• Category

• view

3.205

0

TAGS:

• function of variables

Embed Size (px)

description

linear regression ,linear equation, one variabel , correlation coefficient, residual analysis, regression equation , hipotesis nula, media, media aritmetica, hipotesis nula, distribucion mestrual, error estandar, error tipo1, error tipo11, jose cintron, mba4help.com http://www.mba4help.com

• 1. STAT. 555
DATE: 9/026/09
JOSE CINTRON,MBA

2. Linear regression
Linear regression attempts to model the relationship between two variables by fitting a linear equation to observed data.
One variable is considered to be an explanatory variable, and the other is considered to be a dependent variable
3. Linear regression
Before attempting to fit a linear model to observed data, a modeler should first determine whether or not there is a relationship between the variables of interest.
This does not necessarily imply that one variable causes the other, but that there is some significant association between the two variables
4. Linear regression
A linear regression line has an equation of the form
Y = a + bX, where X is the explanatory variable and Y is the dependent variable.
The slope of the line is b, and a is the intercept (the value of y when x = 0).
5. If the goal is prediction, or forecasting, linear regression can be used to fit a predictive model to an observed data set of y and X values.
6. Correlation Coefficient
Correlation coefficient indicates the strength and direction of a linear relationship between two random variables.
In general statistical usage, correlation refers to the departure of two random variables from independence.
7. Pearson product-momentcorrelation coefficient
A number of different coefficients are used for different situations.
The best known is the Pearson product moment correlation coefficient, which is obtained by dividing the covariance of the two variables by the product of their standard deviations.
8. Pearson product-moment correlation coefficient.
The correlation coefficient X, Y between two random variables X and Y with expected values Xand Y and standard deviations X and Y is defined as:

FORMULA
9. Residual analysis
The analysis of residuals plays an important role in validating the regression model. If the error term in the regression model satisfies the four assumptions, then the model is considered valid.
Since the statistical tests for significance are also on these assumptions, conclusions resulting from these significance text are called into question.
10. This type of overlaid plot is useful for showing the relationship between the data and the predicted values from the regression function.
11. Regression analysis
Refers to techniques for modeling and analyzing several variables, when the focus is on the relationship between a dependent variable and oneor more independence variables.
More specifically, regression analysis helps us understand how the typical value of the
dependent variable changes when any one of theindependent variables is varied, while the other independent variables are held fixed.
12. The regression equation deals with the following variables:
The unknown parameters denoted as ; this may be a scalar or a vector of length k.
The independent variablesX.
The dependent variable, Y.
Regression equation is a function of variables X and .
13. Regression analysis
Regression analysis is widely used for prediction (including forecasting of time-series data).
Use of regression analysis for prediction has substantial overlap with the field of machine learning.
Regression analysis is also used to understand which among the independent variables are related to the dependent variable, and to explore the forms of these relationships.
14. Media aritmetica
Porque la media aritmtica de una muestra no es un buen estimador de la media de la poblacin?
Es sensible a los valores extremos. No es recomendable emplearla en distribuciones muy asimtricas.(Entindase asimetra cuando la informacin es dispersa en una muestra, valores muy asimtricos que no se parecen en nada) Si se emplean variables discretas o cuasi-cualitativas, la media aritmtica puede no pertenecer al conjunto de valores de la variable.
15. Porque el error estndar de la media disminuye
Porque el error estndar de la media disminuye cuando el tamao de la media aumenta?
El error estndar es una medicin de dispersin de las medias de muestras alrededor de la media de poblacin. Si la dispersin disminuye (se hace mas pequea) entonces los valores tomados por la muestra tienden a agruparse mas cercanamente a u (miu). Por el contrario si la dispersin se incrementa (se hace mas grande) los valores tomados por la media de la muestra tienden a agruparse menos cercanamente alrededor de u (miu).
16. Porque el error estndar de la media disminuye
entonces: al disminuir el error estndar, el valor de cualquier media de muestra probablemente se acercara al valor de la media de la poblacin, los especialistas describen este fenmeno de otra manera: al disminuir el error estndar se incrementa la precisin con la que se puede usar la media de la muestra para estimar la media de la poblacin.
17. Porque la media de una distribucin muestral
Porque la media de una distribucin muestral parece una distribucin normal en el caso de una muestra grande cuando la poblacin de la distribucin no es normal? Profesor esta respuesta la asimilo a lo que usted explico en clase referente a lo del profesor GOSSET. Que hacia referencia a demostraron que en este caso se obtiene una distribucin diferente de la normal, aunque para tamaos lo bastante grandes se parecen bastante. Esta nueva distribucin se conoce con el nombre de t de Student con n - 1 grados de libertad.
18. Porque la media de una distribucin muestral
Esto significa que por cada medida de la muestra, n, en realidad tenemos una distribucin diferente. Si la variable que estudiamos sigue una distribucin normal con media m y desviacin tpica s conocida, entonces: sigue una distribucin normal estndar. La distribucin t de Student con n grados de libertad, que denotaremos por tn, es muy parecida a la distribucin normal (0,1): es simtrica alrededor del cero, pero su desviacin tpica es un poco mayor que la dela normal (0,1), es decir, los valores que toma esta variable estn un poco ms dispersos. No obstante, cuanto mayor es el nmero de grados de libertad, n, ms se aproxima la distribucin tn de Student a la distribucin normal (0,1).
19. Cual es la diferencia entre una distribucin
Cual es la diferencia entre una distribucin de probabilidad y una distribucin de muestra? La diferencia bsicamente radica en que la distribucin de probabilidad la podemos concebir como una distribucin terica de frecuencia, es decir, es una distribucin que describe como se espera que varen los resultados. Dado que esta clase de distribuciones se ocupan de las expectativas son modelos de gran utilidad para hacer inferencias y tomar decisiones en condiciones de incertidumbre Y la distribucin muestral es lo que resulta de considerar todas las muestras posibles que pueden ser tomadas de una poblacin. Su estudio permite calcular la probabilidad que se tiene, dada una sola muestra, de acercarse al parmetro de la poblacin. Mediante la distribucin muestral se puede estimar el error para un tamao de muestra dado.
20. Cual es la utilidad de la hiptesis nula
Cual es la utilidad de la hiptesis nula y porque utilizamos la hiptesis alterna? En la hiptesis nula generalmente se requiere rechazar y que no muestre diferencias respecto al valor de referencia o entre poblaciones. Plantea que no hay cambio en el estado de las cosas, adems es la que contrastamos, los datos pueden refutarla y no debera ser rechazada sin una buena razn. Y usamos la hiptesis alterna porque niega la hiptesis nula, los datos pueden mostrar evidencia a favor lo que suele ser de inters principal en las investigaciones.
21. Cual es la diferencia entre un error tipo I y tipo II
Cual es la diferencia entre un error tipo I y un error tipo II?
Consiste en rechazar Ho cuando es cierta esto es, el investigador niega una hiptesis cierta. Y un error de tipo II Consiste en aceptar Ho cuando es falsa, esto es, admite como cierta una hiptesis cuando es falsa.