Ratamiento Y Análisis De La Información De Mercados. Uf1781. - Carmen Arenal Laza - E-Book

Ratamiento Y Análisis De La Información De Mercados. Uf1781. E-Book

Carmen Arenal Laza

0,0

Beschreibung

Puede solicitar gratuitamente las soluciones a todas las actividades en el email [email protected] Capacidades que se adquieren con este Manual: - Aplicar técnicas estadísticas y de tratamiento de datos a la información disponible en el SIM para facilitar su análisis, interpretación y posterior presentación en informes comerciales. - Elaborar informes a partir de la información gestionada por el SIM para su transmisión en los soportes informáticos y/o físicos adecuados y por los canales establecidos.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 141

Veröffentlichungsjahr: 2025

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Tratamiento y Análisis de la Información de Mercados. UF1781.

Autora: Carmen Arenal Laza.

© EDITORIAL TUTOR FORMACIÓN

C/ San Millán, 7, bajo 10

26004 Logroño (La Rioja)

Tlf. 610687276

Email: [email protected]

Web: https://editorial.tutorformacion.es   o   https://tutorformacion.es

Edición: septiembre 2019

ISBN: 978-84-17943-19-6

Depósito legal: LR1027 - 2019

Reservados todos los derechos de publicación en cualquier idioma.

Según el código penal vigente ninguna parte de este o cualquier otro libro puede ser reproducida, grabada en alguno de los sistemas de almacenamiento existentes o transmitida por cualquier procedimiento, ya sea electrónico, mecánico, reprográfico, magnético o cualquier otro, sin autorización previa y por escrito de D. Miguel Ángel Ladrón Jiménez; su contenido está protegido por la ley vigente que establece penas de prisión y/o multas a quienes intencionadamente reprodujeren o plagiaren, en todo o en parte, una obra literaria, artística o científica.

Contenido

Codificación y tabulación de datos e información de mercados

1.Introducción.

2.Objeto de la codificación y tabulación de datos.

3.Trabajos previos a la codificación y tabulación de datos.

3.1.Edición de datos.

3.2.Limpieza de datos: verificación de rangos y consistencia.

4.Elaboración de un código maestro.

4.1.Codificación de respuestas sobre preguntas cerradas de respuesta única.

4.2.Codificación de respuestas sobre preguntas cerradas de respuesta múltiple.

4.3.Codificación de respuestas sobre preguntas abiertas.

4.4.Utilización de hojas de cálculo para la creación de tablas de doble entrada para el registro de los datos.

5.Tabulación de datos.

5.1.Distribución de frecuencias.

5.2.Tabulación unidireccional.

5.3.Tabulación cruzada.

6.Resumen.

7.Autoevaluación.

Análisis estadístico de la información de mercados

1.Introducción.

2.Análisis descriptivo.

2.1.Medidas de posición: media, moda, mediana y cuartiles.

2.2.Medidas de dispersión: rango muestral, varianza, desviación típica, coeficiente de variación de Pearson.

3.Probabilidad

3.1.Sucesos y experimentos aleatorios.

3.2.Frecuencia y probabilidad.

3.3.Probabilidad de sucesos condicionados y dependencia de sucesos.

3.4.Regla de Bayes.

3.5.Principales distribuciones de probabilidad.

4.Inferencia estadística.

4.1.Concepto de inferencia.

4.2.Estimación puntual.

4.3.Estimación por intervalos.

4.4.Contraste de hipótesis.

5.Análisis estadístico bivariante.

5.1.Tablas de contingencia.

5.2.Contraste de independencia entre variables.

5.3.Regresión.

5.4.Covarianza

5.5.Correlación.

6.Introducción al análisis multivariante en la investigación de mercados.

6.1.Alcance del análisis multivariante.

6.2.Descripción y aplicaciones de los métodos de análisis de dependencia cuantitativa y cualitativa.

6.3.Descripción y aplicaciones de los métodos de análisis de interdependencia.

7.Utilización de programas informáticos para el análisis estadístico en la investigación de mercados.

7.1.Herramientas de análisis estadístico en hojas de cálculo.

7.2.Software específico para el tratamiento estadístico de datos.

8.Resumen.

9.Autoevaluación.

Informes y presentaciones comerciales de la información de mercados

1.Introducción

2.Informes comerciales.

2.1.Diseño preliminar del informe: Identificación necesidades, objetivos, elección del tipo de informe adecuado y elaboración de un esquema inicial.

2.2.Estructura del informe.

2.3.Recomendaciones prácticas para la planificación y elaboración de informes.

2.4.Utilización de herramientas para la generación de gráficos en hojas de cálculo y procesadores de texto.

3.Presentaciones orales.

3.1.Organización del trabajo de presentación.

3.2.Actitudes adecuadas para las presentaciones orales.

3.3.Utilización de recursos informáticos y audiovisuales para presentaciones orales.

4.Resumen.

5.Autoevaluación.

Bibliografía

Codificación y tabulación de datos e información de mercados

1.Introducción.

Los datos recogidos en la investigación de mercado deben ser elaborados y clasificados con arreglo a ciertos criterios de sistematización, para proceder luego al recuento de estos conforme al sistema más adecuado o factible.

Se utiliza posteriormente el tratamiento estadístico matemático de los datos.

La masa de datos disponibles es de para utilidad si no se procede a la elaboración de estos de acuerdo con los objetivos de la investigación.

2.Objeto de la codificación y tabulación de datos.

Una vez realizado el trabajo de campo y la edición de los datos obtenidos, es necesario efectuar el procesamiento de los datos, es decir, que los mismos se preparan para ser analizados, para ello se apela a dos técnicas de elaboración de los datos: la codificación y la tabulación.

Codificar datos es asignar números a las modalidades observadas o registradas de las variables que constituyen la base de datos, así como asignar código (valor numérico) a los valores faltantes (aquellos que no han sido registrados u observados).

Ejemplo:

Si la base de datos incluye la variable Sexo, hay que asignar un número a las mujeres y otro a los hombres. Si se trata de variables cuantitativas, hay que definir el número de decimales que van a ser registrados.

Algunas consideraciones que se deben tener en cuenta en la codificación:

•La codificación de preguntas cerradas se suele presentar directamente en el cuestionario.

•En el caso de preguntas abiertas la codificación debe de llevarse a cabo una vez que se ha recolectado la información. En primer lugar, se listan las respuestas de una muestra representativa de los cuestionarios, y posteriormente se agrupan en categorías, a las cuales se les asigna un código. (normalmente alcanzan 2 dígitos).

•A las categorías NS y NC se les suelen asignar códigos separados de los previstos para el sistema de categorías de la variable.

•No es recomendable que existan más de 10 códigos por variable.

•Si una opción de respuesta recoge menos del 5% de las respuestas no es muy útil.

•La opción "Otros" no debe registrar más del 10% de las respuestas.

•Existe un principio que dice que nunca hay que introducir letras, siempre números.

Una variable categórica (por ejemplo, el nombre de la provincia donde ha nacido la persona entrevistada), no se introduce escribiendo el nombre de la categoría, sino un número, es el código numérico que le corresponde.

Así, por ejemplo, Sevilla puede tener el código numérico 8, mientras que Cádiz tiene asignado el número 3.

Los números tienen muchas ventajas.

Algunas de ellas:

•Es difícil equivocarse al introducir un número, pero fácil si se teclea un texto. Para el programa de análisis de datos, Cádiz, Cádiz, CADIZ y Cádiz con cuatro valores

diferentes.

•Es más rápido escribir “3” que “Cádiz”.

•Algunos programas de ordenador toman decisiones que no deberían tomar. Una frecuente es considerar que, si la variable es literal o de cadena, no se pueden llevar a cabo determinadas acciones. Al introducir la variable como numérica, dejamos que sea el usuario (el ser humano, por tanto) quien tome las decisiones y no una máquina.

Los datos (todos los registros) de todos los encuestados se guardan en archivos informáticos, como se ilustra en la tabla siguiente.

Esta tabla demuestra el caso más común de codificación, donde puede utilizarse más de un registro para cada encuestado.

En esta tabla, las columnas representan los campos; y las filas, los registros.

Estos datos se codificaron de acuerdo con el esquema de codificación especificado en la figura las columnas 1 a 3 representan un solo campo y contienen los números de código de los encuestados 001 a 271.

La columna 4 contiene el número de registro. Esta columna tiene el valor de 1 para todas las filas, porque sólo se presenta el primer registro de los encuestados.

Las columnas 5 y 6 contienen el código del proyecto, que es 31.

Las siguientes dos columnas, 7 y 8, muestran el código del entrevistador, que varía de 01 a 55 porque se utilizaron 55 entrevistadores.

Las columnas 26 a 35, que representan cada una un campo, contienen las calificaciones de familiaridad para las 10 tiendas, con valores que van de 1 a 6.

Por último, la columna 77 representa la calificación de la tienda 10 en relación con los precios. Advierta que las columnas 78 a 80 están en blanco.

Hay 10 registros para cada encuestado y 2,710 filas que indican que el archivo contiene los datos de los 271 encuestados.

3.Trabajos previos a la codificación y tabulación de datos.

La codificación es un procedimiento técnico mediante el cual, los datos obtenidos se clasifican en categorías y se traducen en símbolos, ya sean cifras o letras; es decir, se asigna a cada opción de respuestas un número o una letra que permita tabularla rápidamente.

Es importante señalar que la elaboración de un sistema de categorías y la codificación se pueden efectuar en forma simultánea, pero desde un punto de vista lógico, la codificación depende del sistema de categorías o valores que adopte la variable o alternativas que presente la pregunta.

3.1.Edición de datos.

El primer paso es la edición, un análisis e interpretación de datos, un proceso de revisar y ajustar los datos obtenidos de la investigación.

La edición es la revisión de los cuestionarios con el objetivo de incrementar su exactitud y precisión.

Consiste en examinar los cuestionarios para identificar respuestas ilegibles, incompletas, incongruentes o ambiguas.

Las respuestas pueden ser ilegibles si se registraron mal, lo cual es muy frecuente en cuestionarios con un gran número de preguntas no estructuradas.

Los aspectos más importantes de la edición de datos son:

Legibilidad

Las respuestas deben ser claras, de no ser así pueden ser corregidas por la persona que las registró o deducidas a través de otras partes del instrumento.

Integridad

Para las preguntas sin respuesta se puede contactar al entrevistador para determinar si la pregunta no tuvo respuesta o si fue éste el que no la registró. Si faltan demasiados elementos se puede eliminar el cuestionario o volverlo enviar al campo.

Consistencia

Se verifican las respuestas para ver si tienen que ver entre ellas, de no ser así se puede solicitar al investigador resolver las inconsistencias o eliminar el instrumento.

Exactitud

Esto tiene que ver con el sesgo del entrevistador, se debe buscar un patrón en las respuestas para determinar si existe o no.

Clasificación de respuesta

Al tomar en cuenta la dificultad que tienen las respuestas abiertas se pueden preguntar al entrevistador qué quiso decir o intentar deducir la respuesta, el riesgo en ambas opciones es elevado.

Los datos deben ser legibles para codificarlos en forma correcta. Asimismo, los cuestionarios pueden estar incompletos en diferentes grados. Las preguntas no respondidas pueden ser pocas o muchas.

Hasta este punto, el investigador hace una revisión preliminar de la congruencia. Es fácil detectar algunas incongruencias evidentes.

Por ejemplo, un encuestado reporta un ingreso anual de menos del sueldo mínimo mensual, pero informa de compras frecuentes en tiendas por departamento de prestigio.

Las respuestas a preguntas no estructuradas pueden resultar ambiguas y difíciles de interpretar con claridad.

Tal vez la respuesta esté abreviada o quizá se utilizaron palabras ambiguas.

Lo primero que hay que tener en cuenta es que un ítem del cuestionario y una variable del archivo de datos no tienen por qué ser la misma cosa.

Un ítem puede generar varias variables y una variable puede provenir de varios ítems.

Luego, si el cuestionario tiene 30 preguntas, el archivo de datos no tiene por qué contar con 30 variables.

La primera de todas las variables que debe constar en un archivo de datos es el número de caso o de registro.

En la práctica, lo que hacemos es numerar los cuestionarios y pasar a esa primera variable el número o código numérico asignado a cada uno.

De esta forma, si hay que revisar un cuestionario porque hemos encontrado una ausencia o una incoherencia en el archivo de datos en el registro con el código 71, no hay más que buscar el cuestionario número 71 y resolver el problema.

Algunas variables no tienen por qué encontrarse en el cuestionario de papel, como el código numérico del grupo de trabajo que ha recogido los datos, la zona en donde se aplicó ese cuestionario, el código numérico de la persona que hizo la entrevista...

Es posible que el cuestionario escrito cuente con espacio para indicar esta información, o tal vez no. En cualquier caso, es interesante que sí conste en el archivo de datos.

3.2.Limpieza de datos: verificación de rangos y consistencia.

El proceso de calidad de los datos se hace necesario para mantener los datos, indicadores y reportes, relevantes, precisos y consistentes, dado que en el proceso de recolección y almacenamiento se puede generar datos defectuosos que impacten la legitimidad de los análisis y los resultados.

Con datos limpios se pueden tomar mejores decisiones y asegurar que los resultados obtenidos se asemejan a la realidad del objeto de estudio.

Entre los objetivos del control de la calidad de los datos tenemos:

•Entender y documentar la calidad y confiabilidad de los datos.

•Descubrir en los datos los problemas de calidad que deben ser resueltos.

•Asegurar la estandarización e integración de los datos comunes en las diferentes operaciones estadísticas.

•Especificar las reglas de transformación y validación que deben aplicarse a los datos, para asegurar el nivel de calidad que se requiere en una migración hacia el repositorio de información.

La verificación de rangos consiste en comprobar que los códigos de la variable categóricas y numéricas, cualidad, y cantidad, estén entre los admisibles. 

Por ejemplo, si el código de posibles respuestas es de 1 a 10, no puede existir un valor menor a 1 y superior a 10 porque estaría fuera del rango.

Podemos aplicar dos métodos:

Uno, dejar en blanco la respuesta y dos imputar el dato de dos formas.

•Dando un valor a la pregunta bien de forma manual o automáticamente.

•Rellenar la respuesta con el valor medio de los entrevistados que han respondido correctamente a la pregunta.

Hay que tener en cuenta que muchas personas eligen la opción No sabe/ No contesta porque la pregunta está mal hecha.

Y por supuesto no se debe abusar de implementar la categoría No sabe/No contesta en las preguntas de los cuestionarios.

Puesto que la experiencia demuestra que muchas veces los entrevistados recurren a dicha categoría para ahorrar tiempo y evitar pensar sobre el resto de las categorías.

La consistencia de los datos obtenidos hace referencia a la coherencia existente entre un conjunto que datos, como, por ejemplo, detectamos una persona viuda de diez años. Indudablemente es una inconsistencia.

En las investigaciones asistidas por ordenador el software se encargará de implementar reglas para evitar inconsistencias.

Con la codificación mediante software se evitarán mayores errores.

•Si el número de inconsistencias es elevado hay que preguntar a los suministradores de información, es decir, a los entrevistadores.

•Siempre hay que crear una categoría de «inválidos».

•Se corrige el dato añadiendo un valor consistente con los demás explicando tal corrección.

Se trata de considerar una forma segura de identificar cada cuestionario para volver a consultarlos y relacionarlos con otros adicionales o posteriores.

Por ejemplo, crear un fichero que resuma las variables geográficas, región, provincia, municipio, y asociar un código que aparece en el cuestionario».

Es necesario para poder hacer una limpieza de los datos, determinar cuáles son cualitativos y cuantitativos en el cuestionario.

•Análisis de datos cualitativos

Los datos cualitativos son los que miden una cualidad no definida por número como por ejemplo de dato cualitativo sería el estado civil o la nacionalidad.

•Los datos cuantitativos miden una característica mediante un número, como puede ser el peso, altura. A su vez los datos cuantitativos pueden ser discretos y continuos.

En los datos cuantitativos discretos los valores son enteros, por ejemplo, los miembros de la unidad familiar y en los datos cuantitativos continuos los valores posibles son ilimitados, por ejemplo, el peso y altura.

Los errores en la codificación y tabulación de datos se pueden clasificar en erráticos y sistemáticos.

•Los errores erráticos son aquellos que se comenten en la manipulación y codificación de la información.

Por ejemplo, al codificar una respuesta se introduce mal el código en el ordenador.

•Los errores sistemáticos son los que seguirían produciéndose en caso de que la encuesta se repitiera en las mismas condiciones.

Por ejemplo “las respuestas deliberadamente falsas por parte del entrevistado sobre preguntas acerca de la renta, opiniones políticas, etc.

A sí que hay que evitar en la medida de lo posible la limpieza de los errores porque ocasionarían errores de interpretación, con lo cual los datos finales no serán fiables.

Se entiende por depuración de datos de una encuesta al conjunto de técnicas que nos permiten a partir de la información recogida en la encuesta, y, a veces a partir de otra información adicional, corregir una parte de los errores presentes.

Actualmente, la macro depuración de la codificación y tabulación de datos supone una investigación a nivel agregado, a nivel de tablas, estudiando las distribuciones de las variables tratando de identificar áreas de problemas, por ejemplo, cuando bastantes sujetos contestan mal a una pregunta.