Métodos Científicos: Conceptos, Técnicas y Aplicaciones
Metodología de la Investigación Científica
Introducción
Los seres humanos utilizamos un amplio conjunto de conocimientos para desarrollar nuestra vida y realizar actividades. Por ejemplo, si un profesor nos dice (o leemos en un libro o periódico) que la economía del país crece a un ritmo del 4% anual, podemos utilizar y recordar esta afirmación (cierta o falsa), incorporándola y relacionándola con otros conocimientos previos.
Cuando nos preocupamos por el modo en que se ha adquirido un conocimiento o intentamos encontrar uno nuevo, surgen cuestiones de variada índole, muchas de las cuales integran el campo de la Metodología.
El Conocimiento a Través de la Historia
Desde que la especie humana comenzó a crear cultura, es decir, a modificar y remodelar el ambiente para sobrevivir y desarrollarse, fue necesario comprender la naturaleza y las mutaciones de los objetos del entorno. Tareas hoy sencillas, como edificar una vivienda precaria, domesticar animales o trabajar la tierra, solo fueron posibles tras cuidadosas observaciones: el ciclo de los días y las noches, las estaciones del año, la reproducción de animales y vegetales, el clima, las tierras, la geografía, etc.
El conocimiento de esas épocas no se circunscribió al conocimiento instrumental, aplicable al mejoramiento de las condiciones materiales. Apareció simultáneamente la inquietud por conocer el sentido del cosmos y de la vida. La toma de conciencia de la muerte originó los primeros intentos de elaborar explicaciones globales de la naturaleza.
Estas construcciones del intelecto forman parte de un amplio proceso de adquisición de conocimientos que muestra la dificultad de aproximarse a la verdad: en la historia del pensamiento, nadie ha alcanzado la verdad pura y completa sin pasar antes por el error.
Esto implica que el conocimiento llega como un proceso, no como un acto único donde se pasa de la ignorancia a la verdad, tanto histórica como individualmente. Si concebimos al hombre como un ser complejo, con capacidad de raciocinio y afectividad, veremos que tiene muchas maneras de aproximarse a los objetos de su interés.
Ante una cadena montañosa, puede maravillarse ante su majestuosidad, estudiar su composición mineral, emocionarse y verla como la obra de Dios, o evaluar sus posibilidades de aprovechamiento. El conocimiento científico es uno de los modos posibles, quizá el más útil, pero no el único.
El Conocimiento Científico
La ciencia es una actividad humana, un conjunto de acciones encaminadas a obtener conocimiento verificable sobre los hechos. El pensamiento científico se ha ido gestando históricamente, acelerándose notablemente a partir del Renacimiento. La ciencia se distancia del «conocimiento vulgar«, estableciendo una diferencia gradual con el lenguaje cotidiano. La ciencia no puede designar con el mismo nombre fenómenos que, aunque aparentemente semejantes, son de naturaleza diferente.
Cualidades de la Ciencia
- Objetividad: se busca un conocimiento que concuerde con la realidad del objeto.
- Racionalidad: la ciencia se aleja de la religión y sistemas con elementos no racionales o sobrenaturales.
- Coherencia: se preocupan por construir sistemas de ideas organizadas coherentemente.
- Generalidad: la preocupación científica no es ahondar en un solo objeto, sino lograr que cada conocimiento parcial sirva para alcanzar una comprensión mayor.
- Falibilidad: la ciencia reconoce explícitamente la posibilidad de equivocación.
El método científico establece criterios para distinguir entre ciencia y pseudociencia, fijando la superioridad epistemológica de la ciencia sobre otras formas de conocimiento.
El Método Científico
El conocimiento científico se caracteriza por el método adoptado, no solo por el objeto de estudio. Cuando el método aplicado es el hipotético-deductivo (con todas sus implicaciones), se deslinda claramente entre conocimiento científico y no científico. Este método establece momentos y reglas a seguir.
Podemos distinguir un método general (que sirve de guía a todas las disciplinas científicas) y métodos particulares o tácticas diferenciadas según el objeto y complejidad del estudio. «Método«, en sentido propio, es el conjunto de operaciones teóricas, lógico-epistemológicas y procedimentales que permiten validar o justificar las teorías científicas.
La esencia del método general (hipotético-deductivo) reside en la posibilidad de anticipar conocimientos (aún los más ocultos a la experiencia directa). Esta es la función de las hipótesis formalmente deducidas de un cuerpo teórico, que luego se confirman o refutan con datos de la realidad.
Los conocimientos científicos se manifiestan a dos niveles interconectados: un conjunto de conocimientos presentados mediante conceptos (elementos de las leyes y teorías) y una integración lógica de dichos conceptos (teorías) que conducen a conocimientos nuevos. La integración lógica aplicada a la totalidad de los conocimientos produce un sistema teórico que supera la suma de los conocimientos aislados.
El método hipotético-deductivo posibilita el ordenamiento coherente de conocimientos al aplicar la racionalidad a los pasos lógicos. Los métodos particulares son herramientas útiles para comprobar hipótesis de investigación objetivas, deducidas desde el esquema del método general. La táctica experimental, la selectiva, la observacional y las técnicas de recogida de información son objeto de estudio de la metodología, y su validez depende del grado de adecuación a las hipótesis que se someten a prueba. El uso de una técnica no concede automáticamente status científico a los datos.
Una investigación y su conocimiento se consideran científicos cuando, siguiendo las reglas del método, es posible presentar los hechos en forma de enunciados, conceptos, teorías explicativas y, a partir de estas reglas, deducir consecuencias (hipótesis) cuyo grado de comprobación lógica o empírica permite consolidar o reformular las teorías.
Para la comprobación empírica, se ponen en marcha métodos particulares que determinan procedimientos de observación adecuados (tácticas de investigación) para una correcta recopilación de datos. La clasificación de los mismos (mediante análisis estadísticos o no) conduce a conclusiones que verifican o refutan las hipótesis. Las hipótesis verificadas pasan a ser consideradas leyes e introducidas en el sistema (teoría).
Los conocimientos científicos trascienden al sujeto cognoscente: son aceptados por todos, independientemente de gustos, valores o ideología, dado que pueden ser reproducidos y sometidos a inspección pública. Son una representación (pactada) de los objetos de la realidad que se estudian (el pacto de la operativización) y adquieren el estado de «verdaderos«, aunque no son infalibles ni autosuficientes.
La fase de comprobación empírica de las hipótesis exige una adecuación de los procedimientos a los enunciados a verificar. Para esta adecuación han surgido diversas tácticas (métodos particulares) de investigación que hacen posible la operativización de los enunciados deducidos de las teorías a verificar.
Estas tácticas de investigación son lo que se denomina en la mayoría de los textos «métodos de investigación«, aunque en su connotación más restringida significa: camino a seguir para salvar los obstáculos que nos conduzcan a un fin determinado. Serán las características de estas hipótesis las que determinen el método de investigación a seguir.
Toda investigación parte de un problema a estudiar y, por una serie de fases, se llega a resultados empíricos relevantes para el problema planteado, que sirven de base para contrastar las conjeturas realizadas.
Fases del Método Científico
- Planteamiento del Problema: Delimitación del problema según tiempo, lugar, características de los sujetos, etc.
- Formulación de Hipótesis: Elaboración de hipótesis a comprobar, confrontando su enunciado teórico con los hechos empíricos.
- Definición Operacional de Variables: Los términos deben ser claros y concretos para poder definirlos operacionalmente.
- Comprobación Empírica: Verificación de la hipótesis mediante métodos particulares y técnicas de investigación.
- Análisis de Datos: Clasificación y análisis de datos para obtener conclusiones.
- Conclusiones: Verificación o refutación de las hipótesis y formulación de nuevas teorías.
Tipos de Hipótesis
- Hipótesis Nula: Señala que no hay diferencia entre los grupos.
- Hipótesis de Trabajo: Explicación tentativa del fenómeno investigado, operacional por presentar cuantitativamente la hipótesis conceptual.
- Hipótesis Alternativas: Diferentes hipótesis como respuesta a un mismo problema.
En estudios exploratorios, el objetivo puede ser obtener conocimientos mínimos para formular una hipótesis. En estudios descriptivos, las hipótesis suelen ser del tipo «todos los X poseen la característica Y» o «X pertenece al tipo Y«. En investigaciones explicativas, es necesario formular claramente las hipótesis. El uso correcto de las hipótesis permite poner a prueba aspectos de la realidad, disminuyendo la distorsión de los deseos o gustos del investigador.
Muestreo
Población es la totalidad del fenómeno a estudiar. Muestra es una selección de elementos de la población para averiguar algo sobre ella. La muestra descansa en el principio de que las partes representan al todo y refleja las características de la población de la que fue extraída.
Leyes del Muestreo
- Ley de los grandes números: la frecuencia de un suceso tiende a acercarse a su probabilidad al aumentar el número de pruebas.
- Cálculo de probabilidades: la probabilidad es la relación entre casos favorables y casos posibles.
- Ley de la regularidad estadística: un conjunto de unidades tomadas al azar de un conjunto mayor, casi seguro que tendrá las características del grupo mayor.
- Ley de la compensación: si una parte de un grupo varía en una dirección, es probable que otra parte varíe en dirección opuesta.
- Ley de la permanencia de los números pequeños: una muestra grande y representativa será semejante a otra muestra de igual magnitud.
Para evitar sesgos, se utiliza una tabla de números aleatorios. Existen diferentes tipos de muestreo:
- Muestreo aleatorio simple
- Muestreo estratificado: se divide la población en estratos para dar representatividad a los distintos factores.
- Muestreo por cuotas: se asigna una cuota para diferentes categorías y se seleccionan las unidades de muestreo a juicio del investigador.
- Muestreo tipo (master simple): aplicación combinada de tipos de muestra existentes.
Variables
Las variables son aquello que se mide, controla y estudia en una investigación. Es importante saber qué variables se medirán y cómo.
- Variable independiente: propiedad que se evalúa por su capacidad de influir en otras variables. Puede ser por manipulación (aplicada por el investigador) o asignada (no modificable por el investigador).
- Variable dependiente: cambios sufridos por los sujetos como consecuencia de la manipulación de la variable independiente.
- Variables inter: estudian simultáneamente varios grupos de sujetos. Las comparaciones se establecen entre los grupos.
Las variables extrañas deben controlarse mediante eliminación, igualación de condiciones o balanceo. El control aleatorio es un método sencillo y utilizado en ciencias sociales.
Tipos de Variables
- Variable discreta: valores numéricos enteros previamente establecidos.
- Variable continua: puede tomar cualquier valor dentro de un intervalo.
No se debe afirmar que la variable dependiente es causada por la variable independiente.
Observación
La observación es un método de recolección de datos que presenta ventajas como la posibilidad de observar comportamientos específicos sin necesidad de la cooperación de las personas. Sin embargo, presenta desventajas como la dificultad para observar un comportamiento específico en el momento deseado y el efecto de la observación sobre el comportamiento de los sujetos.
- Observación participante: el observador participa en la vida del grupo observado.
- Observación no participante: el observador no participa en la vida del grupo observado.
- Observación estructurada: se tienen claramente definidos los objetivos de la observación.
- Observación no estructurada: se tiene una idea vaga de lo que se va a observar.
Es conveniente que más de una persona observe el mismo fenómeno para comparar las observaciones. La información debe registrarse en el momento y situación en que se manifiesta la conducta para ser más objetivo. Los resultados deben presentarse de manera organizada y sistemática (por ejemplo, una tabla de frecuencias).
Diseño de la Investigación
Para iniciar una investigación, es necesario organizar adecuadamente las actividades y tener un conocimiento amplio del tema. Se debe distinguir entre actividades que requieren más tiempo y aquellas que demandan un esfuerzo personal más específico.
Elementos del Anteproyecto
- Búsqueda bibliográfica
- Planteamiento del problema: definición del problema y título.
- Justificación: motivaciones del investigador.
- Límites del problema: alcance, viabilidad, lugar, tiempo y financiación.
- Marco teórico: soporte teórico del tema.
- Metodología: diseño de técnicas de recolección, población y muestras, técnicas de análisis, índice analítico tentativo.
- Cronograma: plan de trabajo.
- Gestión de archivos: archivos físicos y lógicos.
El texto debe ser claro y fácil de leer, utilizando la escritura científica. Las referencias bibliográficas deben anotarse como pies de página. Si hay materiales o métodos que impedirían una lectura ágil, se pueden utilizar apéndices. No se deben incluir más ilustraciones que las pertinentes.
Organización y Análisis de Datos
Las unidades de observación pueden tener existencia natural (persona, cosa) o estar definidas artificialmente (áreas de una empresa). Para que los datos sean útiles, necesitamos organizar nuestras observaciones para distinguir patrones y llegar a conclusiones lógicas. Los especialistas en estadística seleccionan sus observaciones de manera que todos los grupos relevantes estén representados en los datos.
Los datos ayudan a tomar decisiones bien pensadas acerca de las causas y efectos probables de ciertas características. El conocimiento de tendencias permite estar al tanto de posibles resultados y actuar en consecuencia. Cuando los datos están ordenados de manera compacta y útil, se puede obtener información confiable para tomar decisiones inteligentes. Los administradores deben asegurar que los datos utilizados están basados en suposiciones e interpretaciones correctas.
El estudio de muestras es más sencillo, cuesta menos y lleva menos tiempo que el estudio de la población completa. En algunos casos, el muestreo puede elevar el nivel de calidad.
Conceptos Clave
- Población: conjunto de todos los elementos que se estudian.
- Muestra: fracción de la población completa.
- Muestra representativa: contiene las características relevantes de la población en las mismas proporciones.
Una forma común de organizar los datos consiste en dividirlos en categorías o clases parecidas y luego contar el número de observaciones que quedan dentro de cada categoría. El objetivo es ver rápidamente características de los datos: alcance, patrones evidentes, valores alrededor de los cuales tienden a agruparse, valores que aparecen con mayor frecuencia, etc.
Recomendaciones para el Análisis Estadístico
- Definir claramente la población objeto de análisis.
- Organizar y analizar los datos mediante métodos estadísticos.
- Resumir y presentar los datos para obtener información crítica de manera rápida y sencilla.
Tipos de Distribuciones de Frecuencias
- Arreglo de datos: organización de los datos sin procesar en orden ascendente o descendente.
- Distribución de frecuencias: tabla que organiza los datos en clases.
- Distribución de frecuencias relativas: muestra la fracción o porcentaje del total de datos que cae en cada clase.
- Distribución de frecuencias acumuladas: muestra cuántas observaciones están por encima o por debajo de ciertos valores.
- Clase de extremo abierto: clase que permite que el extremo superior o inferior no esté limitado.
- Datos continuos: datos que pueden pasar de una clase a la siguiente sin interrupción.
- Curva de frecuencias: polígono de frecuencias alisado.
Representaciones Gráficas
- Histograma: serie de rectángulos cuyo ancho es proporcional al alcance de los datos y cuya altura es proporcional al número de elementos en cada clase.
- Polígono de frecuencias: línea que une los puntos medios de las barras de un histograma.
- Ojiva: gráfica de una distribución de frecuencias acumuladas.
Las gráficas resaltan patrones que no se distinguen fácilmente en las tablas. Permiten estimar valores con una mirada y verificar visualmente la precisión de las soluciones.
Medidas de Tendencia Central
Se usan estadísticas sumarias para describir las características de un conjunto de datos. Las curvas simétricas tienen una forma tal que una línea vertical que pase por el punto más alto dividirá el área en dos partes iguales. En las curvas sesgadas, los valores están concentrados en el extremo inferior o superior de la escala de medición.
Media Aritmética
La media aritmética representa un conjunto de datos. Cada conjunto de datos tiene una media, es única y útil para procedimientos estadísticos como la comparación de medias de varios conjuntos de datos. No se puede calcular la media para conjuntos de datos con clases de extremo abierto.
Mediana
La mediana es la observación central de un conjunto de datos. Es fácil de entender y se puede calcular a partir de cualquier tipo de datos, incluso datos agrupados con clases de extremo abierto (a menos que la mediana entre en una clase de extremo abierto).
Moda
La moda es el valor más frecuente de un conjunto de datos. Rara vez se utiliza la moda de datos no agrupados. Cuando los datos están agrupados, la moda se localiza en la clase con mayor frecuencia.
Selección de la Medida de Tendencia Central
La selección de la media, mediana o moda depende del tipo de datos y del objetivo del análisis. Distribuciones simétricas con una sola moda tienen el mismo valor para la media, mediana y moda. En distribuciones sesgadas, la mediana suele ser la mejor medida de posición.
Medidas de Dispersión
Para aumentar el entendimiento del patrón de los datos, debemos medir también su dispersión, extensión o variabilidad. La dispersión puede medirse en términos de la diferencia entre dos valores seleccionados del conjunto de datos.
Alcance
El alcance es la diferencia entre el valor máximo y el valor mínimo de un conjunto de datos. Las distribuciones de extremo abierto no tienen alcance.
Alcance Interfractil
El alcance interfractil es la diferencia entre dos fractiles de una distribución de frecuencias. Los fractiles tienen nombres especiales dependiendo del número de partes iguales en que se dividen los datos (cuartiles, deciles, percentiles).
Alcance Intercuartil
El alcance intercuartil mide qué tan lejos de la mediana tenemos que ir en cualquiera de las dos direcciones antes de recorrer la mitad de los valores del conjunto de datos.
Varianza y Desviación Estándar
Las descripciones más comprensivas de la dispersión son aquellas que tratan con la desviación promedio con respecto a alguna medida de tendencia central. La varianza es el promedio de las distancias al cuadrado entre cada observación y la media. La desviación estándar es la raíz cuadrada de la varianza.
Teorema de Chebyshev
El teorema de Chebyshev establece que, independientemente de la forma de la distribución, al menos el 75% de los valores caen dentro de ±2 desviaciones estándar de la media, y al menos el 89% dentro de ±3 desviaciones estándar.
Regla Empírica
Para distribuciones normales:
- Aproximadamente el 68% de los valores cae dentro de ±1 desviación estándar de la media.
- Aproximadamente el 95% de los valores cae dentro de ±2 desviaciones estándar de la media.
- Aproximadamente el 99,7% de los valores cae dentro de ±3 desviaciones estándar de la media.
La desviación estándar es útil para describir qué tan lejos las observaciones individuales se apartan de la media. El resultado estándar indica cuántas desviaciones estándar ocupa una observación por encima o por debajo de la media.
Coeficiente de Variación
El coeficiente de variación es una medida relativa de la dispersión que expresa la desviación estándar como porcentaje de la media. Es útil para comparar la dispersión de conjuntos de datos con diferentes unidades de medida.
Teoría de la Probabilidad
La teoría de la probabilidad es la base de la inferencia estadística. Nuestra necesidad de tratar con la incertidumbre nos lleva a estudiarla y utilizarla. Al organizar la información sistemáticamente, podemos reconocer nuestras suposiciones, comunicar nuestro razonamiento y tomar decisiones más sólidas.
Tipos de Probabilidad
- Probabilidad clásica (a priori): número de resultados favorables dividido entre el número total de resultados posibles.
- Frecuencia relativa: fracción de veces que se presenta un evento cuando las condiciones son estables.
- Probabilidad subjetiva: probabilidad asignada a un evento por un individuo, basada en la evidencia disponible.
Conceptos Clave en Probabilidad
- Espacio muestral: conjunto de todos los posibles resultados de un experimento.
- Eventos mutuamente excluyentes: eventos que no pueden ocurrir simultáneamente.
- Eventos estadísticamente independientes: la presentación de un evento no afecta la probabilidad de presentación del otro.
- Probabilidad condicional: probabilidad de que ocurra un evento dado que otro evento ya ha ocurrido.
- Probabilidad conjunta: probabilidad de que ocurran dos o más eventos simultáneamente.
- Dependencia estadística: la probabilidad de un evento depende de la presentación de otro.
- Probabilidades marginales: probabilidades de eventos simples bajo dependencia estadística.
- Árbol de probabilidades: representación gráfica de los resultados posibles de una serie de experimentos y sus probabilidades.
- Diagrama de Venn: representación gráfica de conceptos de probabilidad.
Reglas de Probabilidad
- Regla de la suma: para eventos mutuamente excluyentes, la probabilidad de que ocurra al menos uno de ellos es la suma de sus probabilidades individuales.
- Regla del producto: para eventos estadísticamente independientes, la probabilidad de que ocurran ambos es el producto de sus probabilidades individuales.
Distribuciones de Probabilidad
Una distribución de frecuencias teórica es una distribución de probabilidades que describe la forma en que se espera que varíen los resultados. Una distribución de frecuencias es un listado de las frecuencias observadas, mientras que una distribución de probabilidad es un listado de las probabilidades de todos los posibles resultados.
Tipos de Distribuciones de Probabilidad
- Distribución continua: la variable puede tomar cualquier valor dentro de un intervalo dado.
- Distribución discreta: la variable solo puede tomar un número limitado de valores.
Variable Aleatoria
Una variable aleatoria es un valor o magnitud que cambia de una presentación a otra sin seguir una secuencia predecible. Su distribución de probabilidad proporciona una probabilidad para cada valor posible.
Valor Esperado
El valor esperado de una variable aleatoria discreta se calcula multiplicando cada valor por su probabilidad y sumando los productos. Para variables aleatorias continuas, se utiliza la función de densidad de probabilidad.
Función de Distribución de Probabilidades
La función de distribución de probabilidades representa la probabilidad de que la variable aleatoria sea menor o igual que un determinado valor.
Función de Densidad de Probabilidad
La función de densidad de probabilidad mide la concentración de probabilidades alrededor de un punto para variables aleatorias continuas.
Modelos de Probabilidad
- Distribución binomial: describe procesos de Bernoulli (experimentos con dos resultados posibles, éxito o fracaso, con probabilidades constantes).
- Distribución de Poisson: describe la probabilidad de obtener x éxitos en un intervalo continuo. Se utiliza para modelar eventos que ocurren aleatoriamente en un intervalo de tiempo o espacio.
- Distribución normal: describe una variedad de procesos y se ajusta a muchas distribuciones de frecuencias reales. Se define por su media y desviación estándar.
- Distribución exponencial: describe procesos donde se estudian fenómenos como tiempo entre o distancia entre dos eventos.
Aproximaciones a la Distribución Normal
La distribución de Poisson puede aproximarse a la distribución binomial cuando n es grande y p es pequeña. La distribución normal puede aproximarse a la distribución binomial cuando np y nq son al menos 5.
Teorema del Límite Central
El teorema del límite central establece que la suma de un gran número de variables aleatorias independientes, con esperanza y varianza finitas, tiene aproximadamente una distribución normal.
Inferencia Estadística
La inferencia estadística utiliza conceptos de probabilidad para tomar decisiones en condiciones de incertidumbre. Se basa en el muestreo para inferir propiedades de una población a partir de una muestra.
Parámetros y Estadísticos
Los parámetros describen las propiedades de una población, mientras que los estadísticos describen las propiedades de una muestra. Se utilizan letras griegas para los parámetros y letras latinas para los estadísticos.
Tipos de Muestreo
- Muestreo aleatorio simple: cada muestra posible tiene igual probabilidad de ser seleccionada.
- Muestreo sistemático: los elementos se seleccionan a intervalos uniformes.
- Muestreo estratificado: la población se divide en estratos y se selecciona una muestra de cada estrato.
- Muestreo de racimo: la población se divide en racimos y se selecciona una muestra de racimos.
Distribución de Muestreo
La distribución de muestreo de una estadística es la distribución de probabilidad de todos los valores posibles que puede tomar esa estadística para un tamaño de muestra dado.
Error Estándar
El error estándar mide el grado en que se espera que varíen las estadísticas de diferentes muestras. Un error estándar pequeño indica mayor precisión en la estimación del parámetro de población.
Teorema del Límite Central
El teorema del límite central establece que la distribución de muestreo de la media se acerca a la normalidad cuando el tamaño de la muestra aumenta, independientemente de la forma de la distribución de la población.
Estimación
Una estimación puntual es un solo número que se utiliza para estimar un parámetro de población desconocido. Una estimación por intervalo proporciona un rango de valores con una probabilidad asociada de contener el parámetro de población.
Propiedades de un Buen Estimador
- Imparcial (no sesgado): en promedio, asume valores por encima y por debajo del parámetro con la misma frecuencia.
- Coherencia: se acerca más al parámetro al aumentar el tamaño de la muestra.
- Eficiencia: tiene un error estándar menor que otros estimadores.
- Suficiencia: utiliza toda la información disponible en la muestra.
Intervalos de Confianza
Un intervalo de confianza es un rango de valores que tiene una probabilidad determinada de contener el valor real del parámetro de la población. El nivel de confianza indica qué tan seguros estamos de que el intervalo contiene el parámetro.
Tamaño de Muestra
El tamaño de la muestra debe ser lo suficientemente grande para asegurar una precisión adecuada, pero también debe ser compatible con los recursos disponibles.
Pruebas de Hipótesis
Una prueba de hipótesis comienza con una suposición (hipótesis) sobre un parámetro de población. Se recolectan datos de muestra, se producen estadísticas de muestra y se usa esta información para decidir qué tan probable es que sea correcta la hipótesis.
Hipótesis Nula y Alternativa
La hipótesis nula es la suposición que se pone a prueba. La hipótesis alternativa es la suposición que se acepta si se rechaza la hipótesis nula.
Nivel de Significancia
El nivel de significancia indica el riesgo de rechazar la hipótesis nula cuando es cierta (error tipo I).
Errores Tipo I y Tipo II
- Error tipo I: rechazar la hipótesis nula cuando es cierta.
- Error tipo II: aceptar la hipótesis nula cuando es falsa.
La probabilidad de cometer un tipo de error puede reducirse solo si se incrementa la probabilidad de cometer el otro.
Pruebas de Un y Dos Extremos
- Prueba de dos extremos: rechaza la hipótesis nula si la media de muestra es significativamente mayor o menor que la media de la población hipotetizada.
- Prueba de un extremo: solo hay una región de rechazo (extremo inferior o superior).
Curva de Potencia
La curva de potencia representa la probabilidad de rechazar la hipótesis nula cuando es falsa (potencia de la prueba).
Pruebas No Paramétricas
Las pruebas no paramétricas no hacen suposiciones restrictivas sobre la forma de las distribuciones de las poblaciones. Son menos precisas que las pruebas paramétricas, pero se pueden usar con muestras pequeñas o cuando no se cumplen los supuestos de las pruebas paramétricas.
Prueba de Kolmogorov-Smirnov
La prueba de Kolmogorov-Smirnov es una prueba no paramétrica para determinar si existe una diferencia significativa entre una distribución de frecuencia observada y una frecuencia teórica. Es una prueba poderosa y fácil de utilizar.
Índices
Un índice mide el cambio en una variable durante un cierto período. Un solo número índice puede reflejar una variable compuesta o un grupo de variables.
Tipos de Índices
- Índice de agregados no pesados: asigna igual importancia a cada valor.
- Índice de agregados pesados: asigna pesos a los valores.
Métodos para Calcular Índices
- Método Laspeyres: utiliza las cantidades consumidas durante el período base.
- Método Paasche: utiliza las cantidades consumidas durante el período actual.
- Método de agregados de pesos fijos: utiliza pesos de un período representativo.
- Método de promedio no pesado de relativos: suma los porcentajes relativos y divide entre el número de productos.
- Método de promedio pesado de relativos: pondera la importancia del valor de cada elemento.
Los índices de cantidad miden la producción real, eliminando los efectos de la fluctuación de precios. Un índice de valor mide los efectos combinados de los cambios de precios y cantidad.
Consideraciones para la Construcción de Índices
- Selección de los pesos apropiados
- Selección de un período base
- Falta de conocimiento general con respecto a índices publicados
- Efecto del paso del tiempo en un índice