Manual de estadística no paramétrica aplicada a los negocios - Carlos Caycho Chumpitáz - E-Book

Manual de estadística no paramétrica aplicada a los negocios E-Book

Carlos Caycho Chumpitáz

0,0

Beschreibung

Muchas de las investigaciones en el campo de los negocios utilizan variables cuyos datos son de tipo cualitativo o categórico, en las que no es posible la aplicación de las técnicas paramétricas. Ante esta situación, y debido a que no se dan las condiciones para utilizar los métodos de la inferencia estadística, dada la rigidez en su aplicación, los investigadores se ven limitados a desarrollar solamente un análisis descriptivo y de resumen de los datos. Desde esta óptica, la estadística no paramétrica se presenta como una alternativa de solución, con una serie de técnicas y procedimientos que permiten realizar el análisis de dichos datos evitando las restricciones de la estadística inferencial clásica. En este manual, se presenta un conjunto de técnicas no paramétricas referidas a una muestra, seguido de los casos de dos o más muestras relacionadas, así como de dos o más muestras independientes; finalmente se encontrarán las muestras correspondientes a las medidas de asociación.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 180

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Colección Manuales

Manual de estadística no paramétrica aplicada a los negocios

Primera edición impresa: abril, 2019

Primera edición digital: abril 2020

De esta edición:

© Universidad de Lima

Fondo Editorial

Av. Javier Prado Este 4600,

Urb. Fundo Monterrico Chico, Lima 33, Perú

Apartado postal 852, Lima 100, Perú

Teléfono: 437-6767, anexo 30131

[email protected]

www.ulima.edu.pe

Diseño, edición y carátula: Fondo Editorial de la Universidad de Lima

Imagen de portada: everything possible/Shutterstock.com

Versión e-book 2020

Digitalizado y distribuido por Saxo.com Perú S. A. C.

https://yopublico.saxo.com/

Teléfono: 51-1-221-9998

Avenida Dos de Mayo 534, Of. 404, Miraflores

Lima - Perú

Prohibida la reproducción total o parcial de este libro, por cualquier medio,sin permiso expreso del Fondo Editorial.

ISBN 978-9972-45-518-6

Índice

Introducción

Capítulo 1. Estadística no paramétrica

1. Concepto de estadística no paramétrica

2. Pruebas de hipótesis

2.1 Formulación de las hipótesis

2.2 Determinación del nivel de significación

2.3 Elección del estadístico de prueba o de contraste

2.4 Determinación del valor crítico

2.5 Regla de decisión

3. Tipos de variables y datos

3.1 Tipos de variables

3.2 Medición de las variables

3.3 Tipos de datos

4. Ventajas de las pruebas no paramétricas

Capítulo 2. Caso de una muestra

1. Prueba binomial

1.1 Procedimiento de la prueba binomial

1.2 Dócima de hipótesis de la prueba binomial

1.3 Caso de aplicación de la prueba binomial

2. Prueba ji-cuadrado

2.1 Procedimiento de la prueba ji-cuadrado

2.2 Dócima de hipótesis de la prueba ji-cuadrado

2.3 Caso de aplicación de la prueba ji-cuadrado

3. Prueba de Kolmogorov-Smirnov

3.1 Procedimiento de la prueba de Kolmogorov-Smirnov

3.2 Dócima de hipótesis de la prueba de Kolmogorov-Smirnov

3.3 Caso de aplicación de la prueba de Kolmogorov-Smirnov

4. Prueba de rachas

4.1 Procedimiento de la prueba de rachas

4.2 Dócima de hipótesis de la prueba de rachas

4.3 Caso de aplicación de la prueba de rachas

Capítulo 3. Caso de dos muestras relacionadas

1. Prueba de McNemar

1.1 Procedimiento de la prueba de McNemar

1.2 Dócima de hipótesis de la prueba de McNemar

1.3 Caso de aplicación de la prueba de McNemar

2. Prueba de Wilcoxon

2.1 Procedimiento de la prueba de Wilcoxon

2.2 Dócima de hipótesis de la prueba de Wilcoxon

2.3 Ejemplo de aplicación de la prueba de Wilcoxon

3. Prueba de los signos

3.1 Procedimiento de la prueba de los signos

3.2 Dócima de hipótesis de la prueba de los signos

3.3 Caso de aplicación de la prueba de los signos

Capítulo 4. Caso de dos muestras independientes

1. Prueba ji-cuadrado

1.1 Procedimiento de la prueba ji-cuadrado

1.2 Dócima de hipótesis de la prueba ji-cuadrado

1.3 Caso de aplicación de la prueba ji-cuadrado

2. Prueba de Kolmogorov-Smirnov

2.1 Procedimiento de la prueba de Kolmogorov-Smirnov

2.2 Dócima de hipótesis de la prueba de Kolmogorov-Smirnov

2.3 Caso de aplicación de la prueba de Kolmogorov-Smirnov

3. Prueba U de Mann-Whitney

3.1 Procedimiento de la prueba U de Mann-Whitney

3.2 Dócima de hipótesis de la prueba U de Mann-Whitney

3.3 Caso de aplicación de la prueba U de Mann-Whitney

4. Prueba de reacciones extremas de Moses

4.1 Procedimiento de la prueba de reacciones extremas de Moses

4.2 Dócima de hipótesis de la prueba de reacciones extremas de Moses

4.3 Caso de aplicación de la prueba de reacciones extremas de Moses

5. Prueba de rachas de Wald-Wolfowitz

5.1 Procedimiento de la prueba de rachas de Wald-Wolfowitz

5.2 Dócima de hipótesis de la prueba de rachas de Wald-Wolfowitz

5.3 Ejemplo de aplicación de la prueba de rachas de Wald-Wolfowitz

Capítulo 5. Caso de k muestras relacionadas

1. Prueba Q de Cochran

1.1 Procedimiento de la prueba Q de Cochran

1.2 Dócima de hipótesis de la prueba Q de Cochran

1.3 Ejemplo de aplicación de la prueba Q de Cochran

2. Prueba de Friedman

2.1 Procedimiento de la prueba de Friedman

2.2 Dócima de hipótesis de la prueba de Friedman

2.3 Caso de aplicación de la prueba de Friedman

3. Prueba W de Kendall

3.1 Procedimiento de la prueba W de Kendall

3.2 Dócima de hipótesis de la prueba W de Kendall

3.3 Ejemplo de aplicación de la prueba W de Kendall

Capítulo 6. Caso de k muestras independientes

1. Prueba ji-cuadrado

1.1 Procedimiento de la prueba ji-cuadrado

1.2 Dócima de hipótesis de la prueba ji-cuadrado

1.3 Caso de aplicación de la prueba ji-cuadrado

2. Prueba de Kruskal-Wallis

2.1 Procedimiento de la prueba de Kruskal-Wallis

2.2 Dócima de hipótesis de la prueba de Kruskal-Wallis

2.3 Caso de aplicación de la prueba de Kruskal-Wallis

3. Prueba de la mediana

3.1 Procedimiento de la prueba de la mediana

3.2 Dócima de hipótesis de la prueba de la mediana

3.3 Caso de aplicación de la prueba de la mediana

4. Prueba Jonckheere

4.1 Procedimiento de la prueba Jonckheere

4.2 Dócima de hipótesis de la prueba Jonckheere

4.3 Caso de aplicación de la prueba Jonckheere

Capítulo 7. Medidas no paramétricas de correlación

1. Medidas de asociación basadas en la distribución ji-cuadrado

1.1 Coeficientes de asociación

1.2 Caso de aplicación de las medidas de asociación basadas en la distribución ji-cuadrado

2. Coeficiente de correlación por rangos de Spearman

2.1 Procedimiento de cálculo del coeficiente de correlación por rangos de Spearman

2.2 Dócima de hipótesis del coeficiente de correlación por rangos de Spearman

2.3 Caso de aplicación del coeficiente de correlación por rangos de Spearman

3. Coeficiente de correlación por rangos de Kendall

3.1 Procedimiento de cálculo del coeficiente de correlación por rangos de Kendall

3.2 Dócima de hipótesis del coeficiente de correlación por rangos de Kendall

3.3 Caso de aplicación del coeficiente de correlación por rangos de Kendall

Bibliografía

Anexos

1. Distribución normal estándar

2. Distribución ji-cuadrado

3. Distribución T-Student

4. Valores críticos de la prueba de Kolmogorov-Smirnov para una muestra

5. Valores críticos de la prueba de rachas

6. Valores críticos de la prueba Jonckheere

7. Valores críticos de la tau de Kendall

8. Coeficiente de concordancia de Kendall

9. Distribución binomial

Introducción

La metodología empleada para un análisis estadístico consiste en identificar las técnicas y los métodos de muestreo que van a ser de utilidad para la recopilación de datos; hacer una evaluación de la calidad de los instrumentos a diseñar para recopilar los datos; aplicar las técnicas estadísticas de clasificación, presentación, reducción y generalización para cuantificar los datos; e interpretar los resultados para establecer las afirmaciones sobre el problema de estudio.

La investigación cuantitativa se desarrolla con el objeto de obtener información que permita conocer una situación problemática de manera fehaciente y, por ende, determinar el modelo adecuado para su medición, interpretación y generalización.

Este proceso tiene como referente al positivismo, en el que se indicaba que solo se podía obtener conocimiento a partir de lo que estaba permitido por las ciencias, es decir, se consideraba a la ciencia como el único medio en condiciones de solucionar, en el transcurso del tiempo, todos los problemas humanos y sociales que hasta entonces habían ocurrido.

Ahora bien, en la investigación cuantitativa estadística, se enfatiza la medición objetiva, la demostración de la causalidad y la generalización de los resultados obtenidos. Para ello, es necesario que los procedimientos de recopilación de los datos sean de forma estructurada y sistemática. En el análisis estadístico de los datos y en su alcance, el propósito es la búsqueda de leyes generales de la conducta de los individuos, sujetos u objetos que se observan con base en las mediciones que se han obtenido de ellos.

En ese sentido, se puede indicar que el enfoque cuantitativo de la investigación permite recopilar y analizar datos sobre las características de la población bajo estudio, esto es, sobre sus variables, con el fin de obtener el conocimiento de sus propiedades y fenómenos medidos de forma cuantitativa.

Los elementos del planteamiento del problema de investigación en el enfoque cuantitativo son los siguientes: la determinación del problema, la formulación del problema, los objetivos generales y específicos, la importancia y los alcances de la investigación, y la limitación del problema. En la determinación del problema, se presenta la idea central de la investigación, es decir, se indican el objetivo, las preguntas y la justificación de la investigación; en la formulación, se plantean las interrogantes respecto a la idea central de la investigación, cuyas respuestas se deben obtener en el proceso mismo de la investigación. Los objetivos generales y específicos son los ejes centrales del proceso de investigación con los cuales se establecen las actividades y tareas a lo largo del proceso de investigación. En la importancia y los alcances de la investigación, se presentan con meridiana claridad la trascendencia de la investigación y todos los aspectos que van a permitir su desarrollo. En la limitación de la investigación, se establece también claramente la delimitación del tema de investigación, de modo que esta pueda ser viable y se logre la consecución de los objetivos propuestos.

Fundamentalmente, los procedimientos estadísticos están diseñados para analizar variables, y requieren el cumplimiento de algunos supuestos que en ocasiones pueden resultar demasiado exigentes, puesto que están referidos a la prueba de hipótesis respecto a algún parámetro; la exigencia del cumplimiento de supuestos sobre las poblaciones originales de las que se extraen los datos (generalmente normalidad y homocedasticidad); y el análisis de los datos obtenidos en una escala de medida de intervalo o razón, características que, combinadas, permiten agrupar estos procedimientos estadísticos en una gran familia de técnicas de análisis denominadas pruebas paramétricas.

Muchas de las investigaciones en los negocios utilizan variables cuyos datos son de tipo cualitativo o categórico, a los cuales no es posible aplicar las técnicas paramétricas. Ante esta situación, los investigadores se ven limitados solamente a desarrollar un análisis descriptivo y de resumen de los datos, ya que no se dan las condiciones para utilizar los métodos de la inferencia estadística, dada la rigidez y la complejidad en su aplicación.

Teniendo en cuenta las limitaciones de la estadística paramétrica en el tratamiento de los datos cualitativos, existe la alternativa de la estadística no paramétrica, que es un conjunto de métodos y procedimientos que permiten poner a prueba hipótesis no referidas a parámetros poblacionales; no requieren el cumplimiento de supuestos exigentes; y no es necesario trabajarlos con datos de escala de intervalo o razón.

Este documento plantea la aplicación de la estadística no paramétrica en la investigación cuantitativa de los negocios, para lo cual se hace una presentación de cada técnica y/o prueba estadística detallando sus aplicaciones y limitaciones correspondientes; su propósito principal es brindar una alternativa a los investigadores cuando disponen de datos que no satisfacen los supuestos de la estadística paramétrica.

El presente trabajo de investigación, a la luz de lo propuesto por Siegel (1957), toma en consideración de forma precisa esta circunstancia, y trata sobre la presentación de las técnicas y/o pruebas estadísticas no paramétricas referentes a datos que se miden en escala nominal u ordinal:

– Caso de una muestra: prueba binomial, prueba ji-cuadrado, prueba de Kolmogorov-Smirnov, prueba de rachas.

– Caso de dos muestras independientes: prueba ji-cuadrado, prueba de Kolmogorov-Smirnov, prueba U de Mann-Whitney, prueba de reacciones extremas de Moses, prueba de rachas de Wald-Wolfowitz, prueba exacta de Fischer.

– Caso de dos muestras relacionadas: prueba de McNemar, prueba de Wilcoxon, prueba de los signos.

– Caso de k muestras independientes: prueba ji-cuadrado, prueba de Kruskal-Wallis, prueba de la mediana, prueba de Jonckheere.

– Caso de k muestras relacionadas: prueba Q de Cochran, prueba de Friedman, prueba W de Kendall.

– Medidas no paramétricas de correlación: coeficiente de contingencia, coeficiente de correlación por rangos de Spearman, coeficiente de correlación por rangos de Kendall.

Capítulo

1

Estadística no paramétrica

 

 

1. CONCEPTO DE ESTADÍSTICA NO PARAMÉTRICA

Tal como se ha señalado anteriormente, las pruebas no paramétricas son una alternativa a las pruebas paramétricas cuando no se cumplen los supuestos o las condiciones para realizarlas.

Las pruebas no paramétricas son procedimientos estadísticos relativamente sencillos de aplicar, con los cuales se hacen contrastes de hipótesis para una o varias poblaciones. Estas pruebas no exigen que los datos recopilados tengan una distribución normal o una distribución especifica; sin embargo, estas pruebas presentan algunas desventajas frente a las pruebas paramétricas, porque en muchos casos ignoran cierta porción de información de la población y no tienen la eficiencia que se observa en las pruebas paramétricas.

2. PRUEBAS DE HIPÓTESIS

Uno de los aportes más importantes de la estadística es el referido a los diversos métodos inferenciales, que tratan fundamentalmente los temas relacionados con la estimación de los parámetros y las pruebas de hipótesis.

Las pruebas o contrastes de hipótesis, llamadas también pruebas o contrastes de significación, son métodos y técnicas estadísticas desarrollados para contrastar la validez de una hipótesis o la afirmación que se hace sobre la naturaleza de una población de acuerdo con la información muestral. Lo que se busca es comprobar si la información obtenida de la muestra concuerda (o es compatible) con los supuestos que se plantean acerca de las características poblacionales en estudio.

La formulación de la hipótesis implica obviamente la elección entre dos opciones, que depende del resultado o el valor de un estadístico, obtenido a partir de una muestra aleatoria.

Por lo general, cualquier modelo utilizado para contrastar hipótesis se basa en el uso de estadísticos calculados a partir de muestras aleatorias. Como los estadísticos tienen una distribución muestral asociada, nuestra decisión será tomada en presencia de cierta variación aleatoria, lo que implica a su vez el empleo de reglas claramente definidas para elegir la opción acertada, es decir, para tomar la decisión correcta.

Sobre el particular, Newbold y Carlson (2008) hacen una analogía muy interesante al compararlo con un juicio con jurado, donde se supone que el acusado es inocente y el jurado decide que una persona es culpable solo si existen pruebas muy contundentes en contra de la presunción de inocencia. El proceso para elegir entre la culpabilidad y la inocencia requiere de:

1. Rigurosos procedimientos para presentar y evaluar la evidencia.

2. Un juez para aplicar las reglas.

3. Un proceso de decisión que supone que el acusado es inocente a menos que exista evidencia que demuestre lo contrario.

Además, Newbold y Carlson (2008) hacen notar que este proceso no condena a algunas personas que, en realidad, son culpables. Pero, si se rechaza la inocencia de una persona y se le encuentra culpable, tenemos la firme convicción de que es culpable.

Queda claro entonces que, para tomar una decisión sobre una hipótesis particular, requerimos contar con un procedimiento que se base en la información obtenida y tenga en cuenta, además, el riesgo que estamos dispuestos a tolerar si acaso nuestro criterio de decisión no es el correcto.

Las pruebas de hipótesis, según el cumplimiento o no de determinados supuestos, pueden clasificarse en dos grandes grupos: pruebas paramétricas y pruebas no paramétricas.

Las pruebas paramétricas se realizan bajo el cumplimiento, entre otras, de ciertas condiciones de normalidad, homocedasticidad e independencia; mientras que las pruebas no paramétricas no están sometidas al cumplimiento de dichas condiciones, por lo que se constituyen en alternativas válidas cuando no se logra el cumplimiento de alguna de las condiciones previstas para las pruebas paramétricas.

Con el fin de simplificar el procedimiento para el desarrollo de una prueba de hipótesis, se plantean los siguientes pasos, que serán tomados en cuenta en el desarrollo de las pruebas que se presentan en este documento:

1. Formulación de las hipótesis

2. Determinación del nivel de significación

3. Elección del estadístico de prueba o de contraste

4. Determinación del valor crítico

5. Regla de decisión

6. Conclusión

2.1 Formulación de las hipótesis

El procedimiento de desarrollo de una prueba o contraste de hipótesis empieza con la formulación de las hipótesis estadísticas correspondientes. Una hipótesis estadística es un supuesto, una conjetura o una afirmación, considerada provisionalmente cierta, que se hace sobre la distribución de una variable aleatoria, es decir, sobre las características de una población.

Asimismo, se dice que una hipótesis estadística es no paramétrica si el supuesto, la conjetura o la afirmación se hace sobre alguna característica de la población bajo estudio. Por ejemplo, la ubicación de mujeres y hombres en la cola de atención de un banco es aleatoria; la variable X sigue una distribución binomial; no se observa una tendencia general de los clientes por la preferencia de un producto sobre otro.

En general, lo que se requiere de un procedimiento de prueba de hipótesis es que permita la especificación de dos conjuntos posibles de valores, que constituyan, a la vez, dos hipótesis estadísticas: la hipótesis nula, designada por H0, y la hipótesis alternativa, designada por H1.

Actualmente, cuando se utiliza el término “hipótesis nula”, nos referimos a cualquier hipótesis que se ha formulado con el propósito de rechazarla; sin embargo, la mantenemos como cierta a menos que existan suficientes evidencias o pruebas en contra de ella.

En el desarrollo de una prueba de hipótesis, estamos interesados en probar una hipótesis nula contra una hipótesis alternativa, bajo el supuesto de que la hipótesis nula es verdadera. Si la hipótesis nula es rechazada, entonces aceptaremos la denominada hipótesis alternativa. Sin embargo, si la hipótesis nula no es rechazada, no quiere decir necesariamente que es la correcta, ya que pueden presentarse las dos siguientes situaciones:

1. Efectivamente, la hipótesis nula es la correcta.

2. La hipótesis alternativa es la correcta, pero no tenemos suficientes evidencias muestrales para rechazar la hipótesis nula.

Lo que queremos decir es que una hipótesis nula será rechazada cuando se tengan suficientes evidencias muestrales de que es menos probable que sea cierta; mientras que, si la hipótesis nula no es rechazada, no implica necesariamente que sea cierta, y solo podremos afirmar que no existen evidencias muestrales suficientes para asegurar su rechazo.

No existe una regla general que permita especificar unívocamente a estas dos hipótesis, de modo que tal designación se hace de forma arbitraria. Sin embargo, es común especificar la hipótesis nula de manera exacta, al hacerla corresponder la ausencia o la “nulidad” de efectos de la variable que se investiga; es decir, en la hipótesis nula se acostumbra especificar como una negación lo que se supone verdadero (Ya-Lun, 1988). Por ejemplo: el dado no está cargado, no existen diferencias entre dos grupos al comparar sus preferencias por un producto, no hay diferencias en la aplicación de dos métodos, etc.

La hipótesis alternativa se especifica generalmente con menos precisión, y es común establecerla al afirmar que la variable que se investiga ejerció algún efecto. Se expresa de forma opuesta a la hipótesis nula y es la que se conoce como la hipótesis de investigación. Por ejemplo: el dado está cargado, hay diferencias entre dos grupos al comparar sus preferencias por un producto, existen diferencias en la aplicación de dos métodos, etc.

La formulación de las hipótesis se enuncia de forma operacional y la naturaleza de la hipótesis de la investigación determina cómo debe ser formulada. Existen tres tipos de pruebas que se identifican de acuerdo con la manera en la que las hipótesis nula y alternativa han sido formuladas.

i) Prueba unilateral o de una cola

Cuando la hipótesis de investigación hace referencia a una dirección determinada:

1. De cola izquierda

2. De cola derecha

ii) Prueba bilateral o de dos colas

Cuando la hipótesis de investigación hace referencia a una diferencia:

2.2 Determinación del nivel de significación

Una prueba de hipótesis en la práctica consiste en probar la hipótesis nula contra la hipótesis alternativa de acuerdo con la información muestral. Este contraste, debido al carácter aleatorio del muestreo, nos puede conducir a cometer dos posibles errores.

i) Rechazar la hipótesis nula (H0)

Esto se decide cuando en realidad H0 es verdadera; es decir, que ocurre cuando la información obtenida de la muestra no es compatible con H0, que se conoce como error tipo I y la probabilidad de cometerlo recibe el nombre de nivel de significación, que se representa con la letra griega α.

ii) No rechazar la hipótesis nula (H0)

Situación que se da cuando en realidad H0 es falsa, que se conoce como error tipo II y la probabilidad de cometerlo no tiene un nombre conocido, pero es representada por la letra griega β. En realidad no es correcto decir: “Aceptar la hipótesis nula”, y en su lugar se debe decir: “No rechazar la hipótesis nula”, porque:

1. Efectivamente la hipótesis nula es verdadera.

2. La hipótesis nula no es verdadera, pero no tenemos suficientes evidencias estadísticas para rechazarla:

Es claro entonces que, cuando incurrimos en alguno de los errores mencionados, nuestra decisión no será la correcta, de modo que las probabilidades de cometerlos pueden ser consideradas como los riesgos de tomar decisiones incorrectas. La tabla 1.1 proporciona información sobre los posibles errores y su probabilidad de cometerlos.

Según la regla de decisión mostrada en la tabla anterior, podemos establecer lo siguiente:

Primero

La probabilidad de cometer el error tipo I, o de rechazar una hipótesis nula cuando es verdadera, representada por α, es “pequeña”. α es el nivel de significación y, por lo general, su valor se controla cuando decidimos el nivel del riesgo que estamos dispuestos a tolerar al rechazar H0 verdadera.

Segundo