Metodo TAGUCHI

  • El proceso de jerarquización analítica, conocido como AHP por sus siglas en inglés (Analytic Hierarchy Process), es una herramienta creada en 1980 por el Dr. Thomas L. Saaty, profesor de la Universidad de Pittsburgh, en Estados Unidos de Norteamérica.
    En su aspecto más básico, el AHP se propone asignar pesos relativos a los criterios de evaluación de un cierto problema de decisión. Para esto, parte de comparar cada criterio i con cada criterio j, obteniendo unos valores , que es posible agrupar en una matriz cuadrada de orden n: la llamada matriz de comparaciones binarias.
  • El análisis PMI toma su nombre de las siglas en inglés PMI (Plus, Minus, Interesting), que en español significa Más, Menos, Intereses.
    El análisis PMI es una matriz de datos que ayuda a estructurar los pros y contras, y los intereses particulares (o implicaciones) para considerar en el momento de tomar una decisión, llevar a cabo un proyecto o una idea.
  • Árbol de decisiones
    A partir de la evaluación gráfica y consecutiva de opciones o alternativas de solución, el árbol de decisión es una herramienta que permite ir edificando la solución a un problema Los elementos que lo conforman se estructuran de la siguiente manera 1-. se define el problema que se va analisar 2. se eligen las alternativas de solucion al problema 3.- se describen cuales serian los escenarios posible para cada una de las alternativas
  • .1 Origen de la teoría de colas
    El descubrimiento de la teoría de colas se le atribuye a Agner Krarup Erlang (1878-1929), matemático y estadístico oriundo de Dinamarca, que en 1908 se unió a la compañía telefónica de Copenhagen, como parte del equipo de científicos colaboradores, y comenzó a desarrollar problemas basados en llamadas telefónicas.
  • Por qué estudiar sistemas de colas?
    La idea primordial para estudiar un sistema de colas es conocer el estado actual de un sistema de línea de espera. Partiendo de ello, podremos elaborar estrategias para mejorar el estado actual. Siempre que se encuentre lo siguiente: -tiempos de espera elevados en la fila  -tiempos de espera elevados en el servidor o en la totalidad del sistema -una baja utilizando del sistema
    -una saturacion evidnte de entidades en el sitema
  • En un sistema de filas de la distribución Poisson, donde un cliente es elegido de la fila para ser atendido por el primer servidor que se encuentre disponible, la frecuencia de llegadas es λ clientes por hora.  Cabe destacar que los problemas de colas atienden a servidores que se encuentran en paralelo. Los sistemas que poseen servidores en serie pueden ser mejorados empleando la simulación. Incluso, la simulación es capaz de atender ambos casos.  Los clientes en el sistema incluyen los que está atendiendo el servidor y los que se encuentran en la fila.
  • 4.1 Determinación de la tasa de servicio
    Para estimar los parámetros necesarios (tasa de servicio, tasa de llegadas y tamaño de la fila) para un estudio de teoría de colas, se requiere determinar lo siguiente:
    La ubicación de los elementos en el sistema que se está estudiando: servidores, clientes atendidos, clientes que no logran entrar al sistema, población o fuente de entrada de clientes al sistema, y clientes que entran al sistema de servicio y esperan en la fila para ser atendidos.
    El lapso de tiempo en que se presenta el problema: pueden ser horas pico u horas donde se presente una situación crítica; es decir, donde sea evidente que el servicio no satisface las necesidades de los clientes.  La ubicación de esos elementos en el sistema que se está estudiando- ya sea un banco, un establecimiento de comida rápida, oficinas de gobierno, centros de atención, etc. es muy importante.
  • Presentación del programa WinQSB
    Con el propósito de facilitar la aplicación de modelos matemáticos y asegurar la confiabilidad en los resultados de los mismos, se hace imperante la necesidad del uso de software de aplicación.
    Como ya se dijo, las nuevas tecnologías y su influencia en los mercados globalizados y la competencia son eslabones muy grandes en nuestra economía, una forma de sacarle provecho, es ir a la par con esta dinámica económica y organizacional, donde el común denominador de la competencia es el servicio al cliente.
    El creador del sistema WinQSB es el Dr. Yih-Long Chang,profesor de gestión de las operaciones de la Georgia Tech University, en la Ciudad de Atlanta, Georgia, quien en 1986 publicó junto con R.S. Sullivan, el manual de usuario y software QSB (Quantitative Systems for Business).
    El impacto de tal aportación ha contribuido notablemente en la mejora sistemática en organizaciones, haciendo eco en áreas importantes de la empresa tales como: -calidad -inspeccion – inventarios – compras – materiales -administracion de las operaciones – gerencia general 
  • Entre las herramientas que más destacan en el uso de WinQSB se encuentran las siguientes:

    • Teoría de colas, Planeación agregada, Toma de decisiones, Pronósticos, Programación lineal, Procesos Markovianos, Gráficos de control, MRP, Muestreo de aceptación

    Para entender mejor el arranque del software WinQSb,  revisa el siguiente problema de teoría de colas:

  • Diagrama de Pareto
    -El diagrama de Pareto, toma su nombre de Vilfredo Pareto (1848-1923), economista italiano que llevó a cabo estudios sobre la distribución de la riqueza, sosteniendo que la mayor parte de la misma se distribuía en un pequeño número de habitantes. Posteriormente, otro autor de la calidad contemporánea, Joseph Juran, bautiza el gráfico como Diagrama de Pareto en honor al economista italiano.
    Según varios autores el principio de Pareto proviene de la creencia de que el 80% del problema es causado por un 20% de anomalías. En la vida real, al analizar la relación causa –efecto de un problema -no significa que siempre se obtiene esa proporción (80/20). Más bien, el enfoque de esta teoría ayuda a reflexionar que debes investigar más a fondo el problema, para encontrar la causa raíz que lo genera, y así poder establecer una solución efectiva.
    Entonces el enfoque es encontrar las causas que generan la problemática. Pueden ser una o dos causas, que impactan en un problema mucho mayor en toda una organización. El efecto o magnitud de esas anomalías puede ser catastrófico en el logro de los objetivos. Por ejemplo:
    -Un desastre aéreo donde la causa raíz es un tornillo defectuoso.
    Un descarrilamiento de un tren, donde el problema sea un durmiente podrido en un pequeño tramo de vía.
    La pérdida masiva de clientes por mala atención o servicio post venta.
    La pérdida masiva de clientes por no contar con producto estrella en inventario o en anaquel.

  • ste proceso se llama proceso de tamizado en el cual se van encontrando las causas reales al problema que está ocurriendo.
    Como viste en el ejemplo anterior, primero se atendió el (los) problema(s) que más incidencias causaba (n), sin embargo, en el análisis realizado, salieron a la luz otros proyectos potenciales que todavía quedaron pendientes de ser atendidos.
    De ahí que el proceso de tamizado que se da en el desarrollo del diagrama de Pareto es uno de los rasgos característicos de la reciente filosofía de calidad denominada Seis sigma, ya que permite ir tamizando aquellos proyectos que son viables para la compañía.
    Por lo tanto, lo que se ha visto ayuda a ir seleccionando y/o visualizando aquellos proyectos que cumplan con 2 características esenciales para que se puedan concretar y tener éxito en su desarrollo: que sean físicamente realizables y por supuesto, económicamente factibles.
    6.2 Diagrama de Ishikawa
    Este diagrama toma el nombre de su inventor el Dr. Kaoru Ishikawa (1915-1989), Ingeniero Químico y Doctor en Ingeniería por la Universidad de Japón. Conocido como uno de los pilares más importantes de la calidad en el país Nipón.
    Conocido como el padre del análisis científico en problemas organizacionales, su aportación más reconocida es el empleo del diagrama de Ishikawa; el cual, se encargará de “agrupar” de forma gráfica las causas posibles a una problemática determinada.

  • El índice de correlación lineal fue desarrollado por Sir. Francis Galton (1822–1911) científico empírico de origen británico dedicado a realizar un sin fin de investigaciones por su cuenta en una amplia gama de disciplinas, de entre las que destacan la antropología, psicología, geografía, etc.
    Probablemente estos intereses en tan diversas disciplinas provengan de familia, ya que era primo de otro importante científico empírico (Charles Darwin, autor del origen de las especies, donde presenta que el origen del hombre no es del orden divino, si no que provenimos de la evolución del mono).
    Y es en este campo, donde una de sus aportaciones en el tema de la bioestadística fue el de hacer un estudio sobre la antropología biológica y evolutiva del hombre en cuanto a la relación que existe en la estatura de generación en generación; Sir. Francis Galton sostenía la siguiente proporción:
    Estatura del Hijo = 85 cm + 0.50 (la estatura del padre)

  • Introducción al diseño experimental
    El diseño de experimentos fue publicado por vez primera en el libro Statistical methods for research workers por el matemático, estadístico y científico londinense Sir Ronald Fisher (1860- 1962). De hecho, él es considerado como el creador de la estadística inferencial en 1920. El diseño experimental surgió de la inquietud de Fisher y otros colegas científicos por explicar ciertas interrogantes de investigación relacionadas con la investigación aplicada en el campo de la agronomía.
    Ronald Fisher afirma que el diseño de experimentos en cierta forma se sustenta por Thomas Bayes en un artículo de su autoría en el año 1763, en el cual se explicaba el uso de la estadística como Método Inductivo, es decir, su uso para explicar fenómenos que van de lo particular a lo general.
    Método Inductivo como elemento de orden de la ciencia en la generación de paradigmas:



  • 1- factorial completo:
    Se destaca por desplegar de forma completa todos los experimentos posibles 2k
    K= número de factores a analizar
    2 significa los niveles u opciones a utilizar por cada factor.

  • 2- factorial fraccionado.

  • El diseño de experimentos factorial fraccionado opera con una parte del experimento. En ejemplo de la panificadora La Guadalupana se observó que en total serían 8 experimentos a realizar:
    e7-9
    3-. tuguchi
  • Este método es muy similar al diseño factorial fraccionado, ya que también emplea diseños ortogonales; es decir, plantillas para determinar los niveles que se utilizarán para cada experimento.

    A diferencia del diseño factorial fraccionado, el método Taguchi se utiliza cuando el número de factores a utilizar en el experimento es mucho mayor; por lo tanto, se incrementa notablemente el número de experimentos a utilizar, los recursos a utilizar y por ende, los costos de la investigación. Además, el llevar un control, debido a la cantidad de experimentos, factores y niveles que se tienen que seguir durante el desarrollo del experimento, puede ser una tarea muy difícil.
  • 4-superficie de respuesta (evop)

a superficie de respuesta es una forma de diseño experimental que toma el resultado óptimo a partir de una superficie gráfica de respuestas posibles, empleando el cálculo diferencial. Es mucho más compleja que el resto de los diseños experimentales, y es ampliamente utilizada para encontrar la respuesta optima en procesos químicos y físicos muy específicos; volúmenes de agua, contenido de proteínas en alimentos, contenido de humedad en granos y semillas, etc. Es una herramienta muy requerida en el campo de la investigación a nivel doctoral.

Tomando en cuenta los diferentes tipos de diseños experimentales puedes afirmar lo siguiente:

En general, el diseño factorial fraccionado es ampliamente utilizado en otros países, tanto en la industria como en el área de la administración,  ya que permite realizar un menor número de experimentos y así ahorrar recursos durante el desarrollo de la investigación, y es estadísticamente tan bueno y consistente y más fácil de utilizar y entender, que el resto de sus homólogos  (factorial completo, Taguchi y superficie de respuesta).
El campo de acción del diseño experimental en empresas de éxito en el ámbito global, ha tenido repercusiones y aplicaciones en las áreas de

8.1 Programación lineal (método simplex)

La programación lineal trata de modelar matemáticamente un problema en el cual se pretende, ya sea maximizar utilidades o minimizar costos. Los elementos de un modelo de programación lineal son:

e8-1