Diferencia entre revisiones de «Wikiversidad:Zona de pruebas»

Contenido eliminado Contenido añadido
m CONCEPTOS BASICOS DE CONTROL ESTADISTICOS DE LA CALIDAD
Lsanabria (discusión | contribs.)
Limpiando la zona de pruebas.
Etiqueta: Reemplazo
Línea 1:
{{/encabezado}}
''''''CONCEPTOS BASICOS DE CONTROL ESTADISTICOS DE LA CALIDAD'''''''
<!-- REALIZA TUS PRUEBAS DEBAJO DE ESTA LÍNEA -->
 
ACCIÓN CORRECTIVA:
 
Actividad realizada para eliminar la causa del problema y brindar solución a los problemas presentados en la prestación del servicio y/o Sistema de Gestión (Calidad y/o Integral), esta se lleva a cabo por medio de una lluvia de ideas o diagrama de espina de pescado, para hacer un análisis profundo de la situación encontrar las causas y darle una solución definitiva para que no se vuelva a presentar.
 
Dentro de un proceso de Gestión de Calidad, las acciones correctivas son todas aquellas decisiones, medidas, actividades y soluciones orientadas a la eliminación de causas potenciales y reales de un problema.
 
La acción correctiva no debe confundirse con la acción preventiva, que es aquella que se aplica antes de que tengan lugar los fallos. Tal y como su nombre indica, la idea es corregir algo que ha fallado dentro del proceso de calidad y que necesita una intervención urgente, además de soluciones eficaces, entre otros. El objetivo es que estos fallos no vuelven a repetirse.
 
AMEF:
 
El Análisis del Modo y Efecto de Fallas (AMEF), es un procedimiento que permite identificar fallas en productos, procesos y sistemas, así como evaluar y clasificar de manera objetiva sus efectos, causas y elementos de identificación, para de esta forma, evitar su ocurrencia y tener un método documentado de prevención.
 
Una de las ventajas potenciales del AMEF, es que esta herramienta es un documento dinámico, en el cual se puede recopilar y clasificar mucha información acerca de los productos, procesos y el sistema en general. La información es un capital invaluable de las organizaciones.
 
 
 
MARCOS VELASQUEZ ESPINOZA
 
CALIDAD (BASADO EN LA NORMA ISO 9000-2015)
 
Esta Norma Internacional proporciona los conceptos fundamentales, los principios y el vocabulario para los sistemas de gestión de la calidad.
 
Esta Norma Internacional propone un SGC bien definido, basado en un marco de referencia que integra conceptos, principios, procesos y recursos fundamentales establecidos relativos a la calidad para ayudar a las organizaciones a hacer realidad sus objetivos.
 
Contiene siete principios de gestión de la calidad.
 
Principio 1: Enfoque al Cliente.
 
La empresa debe tener claro que las necesidades de sus clientes no son estáticas, sino dinámicas y cambiantes a lo largo del tiempo, además de ser los clientes cada vez más exigentes y cada vez está más informado
 
Principio 2: Liderazgo
 
El liderazgo es una cadena que afecta a todos los directivos de una organización, que tienen personal a su cargo. Si se rompe un eslabón de esa cadena, se rompe el liderazgo de la organización
 
Principio 3: Participación del personal
 
La motivación del personal es clave, así como una red de comunicación que permita que todos conozcan los objetivos y su participación en la consecución de los mismos, así como un feedback adecuado, donde todos puedan aportar ideas innovadoras y propuestas de mejora
 
Principio 4: Enfoque basado en procesos
 
El cambio reside en la concepción de “organización”. Ha dejado de ser una organización por departamentos o áreas funcionales para ser una organización por procesos orientados para la gestión de la creación de valor para los clientes.
 
Principio 5: Mejora
 
Esa mejora continua de los procesos se consigue siguiendo el ciclo PCDA del Dr. E. Deming: Planificar – Desarrollar – Controlar – Actuar, para mejorar.
 
Principio 6: Enfoque basado en hechos para la toma de decisión
 
Para tomar decisiones acertadas, frías y objetivas debemos asegurarnos de minimizar toda subjetividad que pueda afectarlas.
 
Principio 7: Gestión de las Relaciones
 
Es necesario conocer, escuchar y fomentar el desarrollo de las partes interesadas, desarrollando alianzas estratégicas con el objetivo de ser más competitivos y mejorar la productividad, la rentabilidad, y la relación con la sociedad.
 
Esta Norma Internacional contiene los términos y definiciones que se aplican en todas las normas de gestión de la calidad y las normas de sistemas de gestión de la calidad desarrolladas por el Comité Técnico ISO/TC 176, y otras normas de SGC sectoriales basadas en aquellas normas, en el momento de su publicación, La empresa tiene que mejorar de forma continua la idoneidad, adecuación y eficacia del Sistema de Gestión de la Calidad según la norma ISO 9001:2015.
 
 
Referencias
 
WEB, S. (s.f.). https://www.iso.org/obp/ui/es/#iso:std:iso:9000:ed-4:v1:es. Obtenido de ISO.
 
 
JOEL CONTRERAS FRIAS
 
 
CONTROL: El control de calidad consiste en la implantación de programas, mecanismos, herramientas y/o técnicas en una empresa para la mejora de la calidad de sus productos, servicios y productividad, el control de la calidad es una estrategia para asegurar el cuidado y mejora continua en la calidad ofrecida.
 
Objetivos
 
Establecer un control de calidad significa ofrecer y satisfacer a los clientes al máximo y conseguir los objetivos de la empresa. Para ello, el control de calidad suele aplicarse a todos los procesos de la empresa. En primer lugar, se obtiene la información necesaria acerca de los estándares de calidad que el mercado espera y, desde ahí, se controla cada proceso hasta la obtención del producto/servicio, incluyendo servicios posteriores como la distribución.
 
Ventajas de establecer procesos de control de calidad
 
Muestra el orden, la importancia y la interrelación de los distintos procesos de la empresa. Se realiza un seguimiento más detallado de las operaciones.
 
Se detectan los problemas antes y se corrigen más fácilmente.
 
Plan de calidad
 
Es un plan donde se recogen los proyectos y acciones orientados a maximizar la calidad de las operaciones y, por consiguiente, la satisfacción de los consumidores.
 
Estas acciones han de ser lo suficientemente relevantes como para tener un impacto en los objetivos de la compañía.
 
 
CAPACIDAD DEL PROCESO: La capacidad de proceso es el grado de aptitud que tiene un proceso para cumplir con las especificaciones técnicas deseadas. Cuando la capacidad de un proceso es alta, se dice que el proceso es capaz, cuando se mantiene estable a lo largo del tiempo, se dice que el proceso está bajo control, cuando no ocurre esto se dice que el proceso no es adecuado para el trabajo o requiere de inmediatas modificaciones.
 
MARCO ANTONIO ARMENTA
 
CONFORMANCIA.
 
Esto se refiere básicamente al grado en que el producto o servicio cumple con los estándares o normas de calidad.
 
En este concepto la frase de “Hacer las cosas bien a la primera vez” queda perfectamente ya que es la calidad de conformancia se enfoca a la manera de hacer las cosas con materiales correctos, maquinaria y equipos en buen estado, personal capacitado y motivado.
 
 
 
 
 
 
 
 
PHVA.
 
Es el ciclo de mejora continua que consiste en Planear, Hacer, Verificar y Actuar. En cualquier actividad se requiere el ciclo de mejora PHVA.
 
 
 
 
 
 
Planear. - consiste en establecer los objetivos en tiempo y meta describiendo cada una de las actividades, marcar tiempos personas que desempeñaran las labores, señalándoles que hacer, como hacerlo bajo un procedimiento para el logro de los mismos.
 
Hacer. - Actuar sobre las actividades de acuerdo a lo establecido en lo planeado.
 
Verificar. -Constantemente tenemos que verificar nuestros procesos contra los objetivos y metas con la finalidad de estar seguros que vamos por el camino correcto.
 
Actuar. -Retomar el camino incluso perfeccionando nuestras actividades para el cumplimiento y poner nuevos objetivos y metas. Aquí surgen las preguntas ¿qué podemos mejorar y como lo podemos mejorar?
 
HIPOLITO ZUÑIGA
 
 
COEFICIENTE DE VARIACIÓN
 
El coeficiente de variación, también denominado como coeficiente de variación de Spearman, es una medida estadística que nos informa acerca de la dispersión relativa de un conjunto de datos. Su cálculo se obtiene de dividir la desviación típica entre el valor absoluto de la media del conjunto y por lo general se expresa en porcentaje para su mejor comprensión.
 
El coeficiente de variación se puede ver expresado con las letras CV o r, dependiendo del manual o la fuente utilizada. Su fórmula es la siguiente:
 
El coeficiente de variación se utiliza para comparar conjuntos de datos pertenecientes a poblaciones distintas. Si atendemos a su fórmula, vemos que este tiene en cuenta el valor de la media. Por lo tanto, el coeficiente de variación nos permite tener una medida de dispersión que elimine las posibles distorsiones de las medias de dos o más poblaciones.
 
El coeficiente de variación elimina la dimensionalidad de las variables y tiene en cuenta la proporción existente entre una medida de tendencia y la desviación típica o estándar.
 
CAPACIDAD DE UN PROCESO
 
Una necesidad muy frecuente en los procesos consiste en evaluar la variabilidad y tendencia central de una característica de calidad, para así compararla con sus especificaciones de diseño. La capacidad de proceso es el grado de aptitud que tiene un proceso para cumplir con las especificaciones técnicas deseadas.
 
Cuando la capacidad de un proceso es alta, se dice que el proceso es capaz, cuando se mantiene estable a lo largo del tiempo, se dice que el proceso está bajo control, cuando no ocurre esto se dice que el proceso no es adecuado para el trabajo o requiere de inmediatas modificaciones.
 
Mientras los procesos no sufran modificaciones o reajustes, para evaluar su capacidad suele recurrirse a algunas de las siete herramientas de la calidad, tales como:
 
Histogramas
Gráficos de control
Planillas de inspección
 
Cuando el proceso se ve modificado, por ejemplo, con la implementación de una nueva máquina, o con un reajuste de métodos, debe efectuarse un estudio de índices de capacidad.
 
 
El concepto de capacidad, hablando de proceso, se refiere a la anchura de la campana de Gauss que lo caracteriza. En un estudio de capacidad (capability study), se compara la anchura de la distribución normal obtenida (lo que llamamos la Voz del Proceso) con los límites de tolerancias (la Voz del Cliente).
 
Tradicionalmente se define la capacidad de proceso como la distancia de 3 veces sigma de cada lado de la media. Por lo tanto, corresponde a un valor igual a 6 veces la desviación estándar. En algunos casos, se quiere abarcar más anchura de la campana por lo que se lleva a incluir hasta 6 veces la distancia sigma de cada lado (un total de 12 sigmas).
 
 
La fórmula del índice de capacidad Cp., como indicador de calidad, es la siguiente:
 
(Límite superior de tolerancia – Límite inferior de tolerancia) /6 sigma
 
Queremos que nuestro proceso sea capaz de operar dentro de los límites de especificaciones (requerimientos del cliente) por lo que el valor obtenido con la formula debe ser grande (por lo menos superior a 1).
 
Claro está que un proceso capaz (Cp >>1) podría generar defectos en caso de que esté descentrado. Es la razón por la cual se asocia el índice Cpk al del Cp.
 
La fórmula de cálculo del Cpk es la siguiente:
 
Se calcula un indicador del lado superior: (límite superior – media) /3 sigma
Se calcula un indicador del lado inferior: (media – límite inferior) /3 sigma
Se elige, como índice Cpk, el valor mínimo de estos dos indicadores calculados siendo este el caso más desfavorable (el caso en el cual la campana se acerca más del límite con el riesgo de provocar defectos)
 
Entendemos por las propias fórmulas que un proceso perfectamente centrado tendrá: Cp=Cpk.
 
Tenemos que tener en cuenta también que todas estas fórmulas funcionan en caso de tener unos datos que se ajustan a una distribución normal.
 
 
 
JUAN CARLOS CRUZ.
 
 
CURTOSIS: La curtosis de una variable estadística/aleatoria es una característica de forma de su distribución de frecuencias/probabilidad. Una mayor curtosis implica una mayor concentración de valores de la variable muy cerca de la media de la distribución (pico) y muy lejos de la misma (colas), al tiempo que existe una relativamente menor frecuencia de valores intermedios (hombros). Esto explica una forma de la distribución de frecuencias/probabilidad con colas más gruesas, con un centro más apuntado y una menor proporción de valores intermedios entre pico y colas.
 
 
 
 
 
 
 
 
CUANTILES: Los cuantiles son puntos tomados a intervalos regulares de la función de distribución de una variable aleatoria. El cuantil de orden p de una distribución (con 0 < p < 1) es el valor de la variable x p {\displaystyle x_{p}} XP que marca un corte de modo que una proporción p de valores de la población es menor o igual que x p {\displaystyle x_{p}} XP. Los cuantiles suelen usarse por grupos que dividen la distribución en partes iguales; entendidas estas como intervalos que comprenden la misma proporción de valores. Los más usados son:
 
Los cuartiles, que dividen a la distribución en cuatro partes (corresponden a los cuantiles 0,25; 0,50 y 0,75);
Los quintiles, que dividen a la distribución en cinco partes (corresponden a los cuantiles 0,20; 0,40; 0,60 y 0,80);
Los deciles, que dividen a la distribución en diez partes;
Los percentiles, que dividen a la distribución en cien partes.
 
 
CUARTILES: Los cuartiles son los tres valores de la variable que dividen a un conjunto de datos ordenados en cuatro partes iguales.
 
Q1, Q2 y Q3 determinan los valores correspondientes al 25%, al 50% y al 75% de los datos.
 
Q2 coincide con la mediana.
 
 
DAVID VÁZQUEZ MARTÍNEZ
 
 
 
 
 
 
 
CUSUM: Se debe a que es una carta en la cual se grafica la suma acumulada de las desviaciones con respecto a la media global (si el proceso está centrado, se podrían considerar las desviaciones con respecto al valor nominal de la característica de interés). Sean X – 1, X – 2, X – 3..., X – m las medias observadas en m subgrupos y sea μˆ la media global estimada. Entonces, en los primeros puntos de inspección sobre la carta CUSUM se grafican las sumas acumuladas
 
Mientras el proceso se mantenga en control estadístico centrado sobre μˆ, los valores de estas sumas acumuladas oscilarán alrededor de cero, Esto hace que, si el proceso se va modificando poco a poco o cambia a una nueva media, las sumas acumuladas sean bastante sensibles para detectar el cambio rápidamente, en particular si éste tiene una magnitud de alrededor de 1 o x.
 
La CUSUM de dos lados, que se interpreta con un dispositivo especial llamado “máscara” y la CUSUM tabular o de un sólo lado, en la cual se consideran de manera separada las sumas acumuladas por arriba y las sumas acumuladas por abajo.
 
La CUSUM tabular es la más recomendada en la práctica, ya que se evita el engorroso diseño de la máscara; sin embargo, ambos procedimientos tienen el mismo desempeño y menor dificultad si se utiliza un software apropiado
 
 
CUSUM: se grafican las sumas Si definidas antes, y para detectar cambios se usa una especie de cono en forma de la letra V, al cual se le denomina máscara y se coloca de manera horizontal sobre los puntos graficados.
 
 
 
 
 
CONTROL ESTADÍSTICO DE LA CALIDAD (C.E.C.)
 
la aplicación de diferentes técnicas estadísticas a procesos industriales (mano de obra, materias primas medidas, máquinas y medio ambiente), procesos administrativos y/o servicios con objeto de verificar si todas y cada una de las partes del proceso y servicio cumplen con unas ciertas exigencias de calidad y ayudar a cumplirlas, entendiendo por calidad “la aptitud del producto y/o servicio para su uso.
 
En todo proceso industrial cabe distinguir la calidad de diseño que no es objetivo de la asignatura y la calidad de fabricación, sobre la que nos centraremos especialmente, aplicando los métodos estadísticos.
 
El objetivo del Control Estadístico de la Calidad es:
 
1. Detectar rápidamente la ocurrencia de variabilidad debida a causas asignables
 
2. Investigar la(s) causa(s) que la han producido y eliminarla(s).
 
3. Informar de ella para la toma de decisión oportuna, pues de lo contrario se producirían gran cantidad de unidades de calidad no aceptable, originando una disminución de la capacidad productiva e incremento de costos del producto terminado (supervisor).
 
4. Eliminar, si es posible, o al menos reducir al máximo la variabilidad del proceso (dirección).
 
La aplicación de técnicas estadísticas al control está basada en el estudio y evaluación de la variabilidad existente en cualquier tipo de proceso que es principalmente el objeto de la Estadística.
 
Las fuentes que producen la variabilidad objeto de estudio en la Estadística, se clasifican en “variabilidad controlada” o “corregible” que no entra dentro de nuestro campo, pero si es posible detectarla por causar una variabilidad muy grande (ajuste incorrecto de la máquina, errores humanos, siendo posible eliminar la causa o causas que la han producido, y la “variabilidad debida al azar”, también denominada “variabilidad no controlable
 
CONTROL ESTADÍSTICO DE PROCESO (CEP)
 
es la rama de calidad que consiste en la colecta, análisis e interpretación de datos, establecimiento de calidades, comparación de desempeños, verificación de desvíos, todo eso para su utilización en las actividades de mejoría y control de calidad de productos, servicios y diagnóstico de defectos, la utilización del CEP genera costos menores y eso disminuye principalmente en función de dos razones: la inspección por muestreo y la reducción de rechazo.
 
El CEP permite que las acciones correctivas sean aplicadas antes del surgimiento de inconformidades, responde a la pregunta si el proceso está funcionando como debía o si está fuera de las especificaciones de calidad y ejecuta acciones apropiadas para lograr y mantener un estado de control estadístico.
 
permite conocer el comportamiento del proceso y hacer previsiones sobre su desempeño, ese comportamiento es analizado a través de medidas a él asociadas teniendo en cuenta los conceptos de estabilidad y capacidad.
 
Es muy común en fábricas donde los procesos industriales no son optimizados en el sentido de ser caracterizados por altos niveles de eficiencia, sin embargo, dentro del CEP existen herramientas para monitorizar el proceso y, por tanto, mejorarlo,
 
El control estadístico de procesos (CEP) es una técnica estadística ampliamente usada para asegurar que los procesos incrementen su calidad. Todos los procesos están sujetos a un cierto grado de variabilidad.
 
La variabilidad es definida como un fenómeno común en los temas provenientes de un proceso industrial. Ocurre tanto en indicadores de desempeño de operaciones del proceso, como en su rendimiento, en los indicadores de calidad de los productos producidos, estando el proceso bajo control.
 
El CEP es bastante utilizado para el control de las variabilidades del proceso, teniendo como principal objetivo lograr que el proceso quede bajo control. Esto se logra mediante la identificación y eliminación de cualquier causa de variación no asociada con el proceso.
 
 
JULIO CESAR MOSQUEDA
 
 
EL OBJETIVO DE LA CARTA C. es analizar la variabilidad del número de defectos por subgrupo, cuando el tamaño de este se mantiene constante. En esta carta se grafica que es igual que el número de defectos o eventos en el subgrupo (muestra). Los límites de control se obtienen suponiendo que el estadístico C i sigue una distribución de Poisson; por lo tanto; las estimaciones de la media y la desviación estándar de es este estadístico están dadas por:
 
 
 
 
 
 
 
Por ellos los límites de control de la carta C se obtiene con las expresiones
 
 
LCS =
 
Línea central = C
 
LCI = C -
 
 
INTERPRETACION DE LOS LIMITES DE CONTROL DE LA CARTA C
 
Los límites de una carta c reflejan la variación esperada para el número de defectos por subgrupo. Estos límites no se representan donde se quiere que estén los datos más bien representan la realidad. Como las cantidades de defecto son relativamente altas, se requiere de un plan de acción que reduzca esta problemática y una manera natural de empezar seria estratificar el problema, es decir, localizar el tipo de defecto con mayor frecuencia y el área donde se presenta. En otras palabras, la acción de mejora no debe partir de reaccionar ante lo que se observa en una mesa, ya que no hay problemas especiales. Toda la problemática es común a todas las mesas; por lo tanto, la acción parte de analizar todo el proceso enfocándose en aquellos problemas con mayor recurrencia.
 
La carta de control para los defectos en las mesas muestra un proceso estable (en control estadístico), pero quizá se considere que genera muchos defectos; 6.4 en promedio por mesa. Si fuera el caso, tendría un proceso estable pero malo, o en otras palabras, un proceso estable e incapaz. Una ventaja que ofrece la carta es que no solo ayudara a detectar y prevenir situación anormal en la producción de mesas, sino que además provoca en la administración una mayor conciencia de la magnitud e importancia del problema, además de que permite evaluar el impacto de las acciones de mejora.
 
 
 
 
BENJAMÍN ULLOA.
 
 
CARTA DE ATRIBUTOS
 
Ya conocemos las características del trabajo con atributos, por lo que no es necesario hacer ningún nuevo comentario. Recomendamos al alumno repase los conceptos de defectivo, etc., vistos en la sección dedicada al muestreo.
 
Estas cartas son útiles en primer lugar porque son sencillas. Mucha información que maneja la gerencia está directamente relacionada con atributos y la presentación de su evaluación en forma de cartas resulta en un mejor entendimiento y aprovechamiento de la información. Además, el análisis de atributos globales importantes para la empresa puede indicar dónde hay que hacer un análisis más a fondo y emplear otras cartas.
 
En resumen, en estas cartas se muestra la evolución de la proporción p de unidades que tienen cierto atributo como pueden ser la proporción de envases de vidrio que presentaron desperfectos, el numero defectos por cada unidad producida, la proporción de clientes que presentaron una inconformidad con los productos, etc.
 
En el fundamento estadístico de estas cartas están las distribuciones para variables discretas de Bernoulli, Poisson y la binomial. Es recomendable repasar lo visto sobre ellas en la asignatura de Matemáticas III (Probabilidad y Estadística).
 
 
CARTA DE INDIVIDUALES:
 
CARTA DE INDIVIDUALES Y RANGOS MÓVILES Es un diagrama para variables de tipo continuo, pero en lugar de aplicarse a procesos masivos como en el caso de la carta X-R, se emplea en procesos lentos, en los cuales para obtener una medición o una muestra de la producción se requieren periodos relativamente largos tales como: ü Procesos químicos que trabajan por lotes ü Industria de bebidas alcohólicas, en los que se debe esperar cierto tiempo t para obtener resultados de los procesos de fermentación y destilación. ü Procesos en los que las mediciones cercanas sólo difieren por el error de medición. Por ejemplo, temperaturas en procesos, humedad relativa en el medio ambiente, etc. ü Algunas variables administrativas cuyas mediciones se obtienen cada día, cada semana o más (mediciones de productividad, de desperdicio, de consumo de agua, electricidad, combustibles) ü Para la Carta de Individuales.
 
 
 
 
CARTA DE PRECONTROL:
 
Es una técnica usada para detectar irregularidades en el proceso, que pueden resultar en la producción de unidades fuera de especificaciones.
 
Pre-control, principalmente se presta para el uso de aparatos de medición hechos previamente sobre los límites de las especificaciones. El uso de estos aparatos de medición permite seleccionar fácilmente las unidades que proceden de las que no. Pre-control es usado con frecuencia para determinar los valores de las variables del proceso durante el período de arranque de la producción. Pre-control se basa en la hipótesis de que, si el proceso está operando correctamente, la probabilidad de encontrar dos unidades fuera de los límites de control consecutivamente es demasiado pequeña. Por lo tanto, si dos unidades son encontradas consecutivamente fuera de los límites de control, es razón suficiente como para indicar una falla en el proceso. Ventajas. Pre-control es una técnica simple que a diferencia con el control estadístico del proceso (CEP) no requiere de gráficas de control, ni de cómputos. Desventajas. No existen gráficas de control, por lo tanto, las reglas y procedimientos para reconocer patrones de fallas no pueden ser usados. Dado que se requiere una cantidad muy pequeña de muestras, es riesgoso inferir sobre la totalidad del proceso. Finalmente, Pre-control no proporciona información suficiente para someter el proceso bajo control o para reducir la variabilidad. Recomendaciones. Pre-control sólo debe ser usado cuando la capacidad del proceso (Cp)1
 
es mayor que uno (algunos textos recomiendan como mínimo Cp.=2)
 
2, y cuando sehan alcanzado cero defectos en el proceso. Definición de los límites de Pre-control. Existen dos límites de Pre-control (PC):
 
Upper Pre-control limit (UPCL)y Lower Pre-control limit (LPCL). Cada uno representa ¼ de la distancia entre el límite de especificaciones inferior (LSL) y el límite deespecificaciones superior (USL). La siguiente figura considera un proceso distribuido deacuerdo a la distribución normal
 
JORGE LEON
 
 
CARTA MULTIVARI
 
Es un gráfico que muestra la variación dentro de las unidades, entre las unidades, entre las muestras y entre los lotes. Es útil en la detección de las fuentes de variación dentro de un proceso. son una forma visual de presentar la variabilidad a través de una serie de gráficos. El contenido y formato de las listas ha evolucionado con el tiempo. Multivariables clínicas fueron descritas por primera vez por Leonard Ceder en 1950, aunque se han desarrollado de forma independiente por múltiples fuentes. Se inspiraron en el mercado de valores gráficos de vela o las cartas abiertas de altura-mínimo-cierre.
 
Como se concibió originalmente, el gráfico de múltiples variables se asemeja a una tabla de control de Shewhart individuos con las siguientes diferencias:
 
* La característica de calidad de interés se mide en dos extremos (en torno a su diámetro, a lo largo de su longitud, o en su superficie) y estas mediciones se trazan como líneas verticales que conectan los valores mínimo y máximo en el tiempo.
 
* La característica de calidad de interés se representa a través de tres paneles horizontales que representan:
 
* La variabilidad en una sola pieza
 
* Pieza a pieza, la variabilidad
 
* Tiempo en cuando la variabilidad
 
* La característica de calidad de interés se representa frente a las especificaciones superiores e inferiores en lugar de los límites de control.
 
 
 
CARTA X-R
 
se utilizan cuando la característica de calidad que se desea controlar es una variable continua. Para entender los gráficos X-R, es necesario conocer el concepto de Subgrupos (o Subgrupos racionales). Trabajar con subgrupos significa agrupar las mediciones que se obtienen de un proceso, de acuerdo a algún criterio. Los subgrupos se realizan agrupando las mediciones de tal modo que haya la máxima variabilidad entre subgrupos y la mínima variabilidad dentro de cada subgrupo.
 
Por ejemplo, si hay cuatro turnos de trabajo en un día, las mediciones de cada turno podrían constituir un subgrupo.
 
Supongamos una fábrica que produce piezas cilíndricas para la industria automotriz. La característica de calidad que se desea controlar es el diámetro de las piezas.
 
Hay dos maneras de obtener los subgrupos. Una de ellas es retirar varias piezas juntas a intervalos regulare
 
La otra forma es retirar piezas individuales a lo largo del intervalo de tiempo correspondiente al subgrupo
 
son gráficos realizados para el seguimiento estadístico del control de calidad de piezas en múltiples sectores, incluyendo el de la automoción. Permiten detectar la variabilidad, consistencia, control y mejora de un proceso productivo. En el caso de nuestro sector, se compone de los elementos siguientes:
 
Límite de control superior, o tolerancia máxima
Límite de control inferior, o tolerancia mínima
Valor nominal, o promedio de las tolerancias mínimas y máximas
Variables de medición, que suelen ser puntos de medición por reloj comparador, o puntos de medición por máquina tridimensional Los gráficos X-R son utilizados para el análisis estadístico en cualquier sector que requiera la medición y el análisis de datos variables. La fiabilidad de los datos de estos gráficos y su posterior análisis depende en gran parte de la forma de adquirir estos datos, un aspecto que detectamos hace ya tiempo en Tecnomatrix, y que nos llevó a desarrollar la gama de sistemas de adquisición de datos
 
CARTA X-S
 
Es un diagrama para variables que se aplican a procesos masivos en los que se requiere tener una mayor potencia para detectar pequeños cambios. Esta grafica es el instrumento estadístico que sirve para estudiar el comportamiento de un proceso de manufactura, considerando como indicar la desviación estándar
 
Trabajar con subgrupos significa agrupar las mediciones que se obtienen de un proceso, de acuerdo con algún criterio. Los subgrupos se realizan agrupando las mediciones de tal modo que haya la máxima variabilidad entre subgrupos y la mínima variabilidad dentro de cada subgrupo. Las cartas X s son preferibles a sus contrapartes, las x R cuando:
 
Para obtener la gráfica de medias y desviaciones estándar es necesario que la característica del producto se haya definido con tipo de análisis Variable y tamaño de subgrupo igual o mayor a 2. Cada punto de la gráfica de Medias es el promedio de las muestras de un subgrupo. Cada punto de la gráfica de Desviaciones es la desviación estándar interna de cada subgrupo. Los límites de control se calculan a partir de la Desviación estándar promedio y delimitan una zona de 3 desviaciones estándar de cada lado de la media.
 
ELVA GRACIELA GONZALES ANAYA
 
DATO RARO O ATIPICO: Es una pequeña cantidad de mediciones muy extremas o atípicas son identificadas con facilidad mediante un histograma, debido a que aparece una o mas barras pequeñas bastante separadas a las aisladas de las demás.
 
Desviación estándar o Típica
 
Esta medida nos permite determinar el promedio aritmético de fluctuación de los datos respecto a su punto central o media. La desviación estándar nos da como resultado un valor numérico que representa el promedio de diferencia que hay entre los datos y la media. Para calcular la desviación estándar basta con hallar la raíz cuadrada de la varianza, por lo tanto, su ecuación sería:
 
 
DESVIACIÒN ESTANDAR DEL PROCESO:
 
La desviación estándar (o desviación típica) es una medida de dispersión para variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la estadística. Es una medida (cuadrática) de lo que se apartan los datos de su media, y por tanto, se mide en las mismas unidades que la variable.
 
Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que representan los datos en su distribución, con objeto de tener una visión de los mismos más acorde con la realidad a la hora de describirlos e interpretarlos para la toma de decisiones.
 
 
DESVIACIÒN ESTANDAR MUESTRAL: La fórmula para la desviación estándar muestral es: donde n es el tamaño de la muestra y x-bar es la media aritmética de la muestra. La fórmula para la desviación estándar poblacionales: donde N es el tamaño de la población y μ es la media aritmética de la población.
 
BEATRIZ ADRIANA SANCHEZ MORALES
 
 
DIAGRAMA DE CAJA: El gráfico de caja (“box-plot” en inglés) es una forma de presentación estadística destinada, fundamentalmente, a resaltar aspectos de la distribución de las observaciones en una o más series de datos cuantitativos.
 
Este gráfico utiliza una sola escala: la correspondiente a la variable de los datos que se presentan. Es decir, no utiliza escala de frecuencias.
 
La caja: Es un rectángulo que abarca el recorrido (o rango, o intervalo) intercuartílico (RIC) de la distribución; o sea, el tramo de la escala que va desde el primer cuartil (C1) al tercer cuartil (C3). Esto incluye el 50 % de las observaciones centrales.
 
Prof. Alberto C. Palladino pag.1 año (2011).recuperado https://med.unne.edu.ar/sitio/multimedia/imagenes/ckfinder/files/files/aps/GR%C3%81FICO%20DE%20CAJA.pdf
 
DMAIC: (Definir, Medir, Analizar, Mejorar y Controlar) es la metodología de mejora de procesos usado por Seis Sigma, y es un método iterativo que sigue un formato estructurado y disciplinado basado en el planteamiento de una hipótesis, la realización de experimentos y su subsecuente evaluación para confirmar o rechazar la hipótesis previamente planteada (McCarty et al., 2004).
 
Definir: Es la fase inicial de la metodología, en donde se identifican posibles proyectos de mejora dentro de una compañía y en conjunto con la dirección de la empresa se seleccionan aquellos que se juzgan más prometedores. De acuerdo a Bersbach (2009).
 
Medir: Una vez definido el problema a atacar, se debe de establecer que características determinan el comportamiento del proceso (Brue, 2002).
 
Analizar: Esta etapa tiene como objetivo analizar los datos obtenidos del estado actual del proceso y determinar las causas de este estado y las oportunidades de mejora.
 
Mejorar: Una vez que se ha determinado que el problema es real y no un evento aleatorio, se deben identificar posibles soluciones
 
DPMO:es el número real de defectos observados, extrapolado a cada 1,000,000 de oportunidades, esto es, una "pieza" puede tener múltiples "oportunidades" de ser defectuosa. Las oportunidades deben ser criterios de valor para el cliente.
 
Recuperado(25/09/2018 ).file:///C:/Users/Administrador/Downloads/DPMO%20DPMU.pdf
 
DFC: significa el Despliegue de la Función de Calidad o por su nombre en inglés “Quality Function Deployment, QFD”,.
 
https://www.gestiopolis.com/despliegue-de-la-funcion-de-calidad-dfc-o-la-casa-de-la-calidad/
 
MARIA DEL ROSARO MOSQUEDA PEREZ
 
 
ESTADÍSTICA
 
La Estadística es la ciencia cuyo objetivo es reunir una información cuantitativa concerniente a individuos, grupos, series de hechos, etc. y deducir de ello gracias al análisis de estos datos unos significados precisos o unas previsiones para el futuro. La estadística, en general, es la ciencia que trata de la recopilación, organización presentación, análisis e interpretación de datos numéricos con el fin de realizar una toma de decisión más efectiva.
 
Los métodos estadísticos tradicionalmente se utilizan para propósitos descriptivos, para organizar y resumir datos numéricos. La estadística descriptiva, por ejemplo, trata de la tabulación de datos, su presentación en forma gráfica o ilustrativa y el cálculo de medidas descriptivas.
 
 
ESTADÍSTICOS
 
Los métodos estadísticos tradicionalmente se utilizan para propósitos descriptivos, para organizar y resumir datos numéricos. La estadística descriptiva, por ejemplo, trata de la tabulación de datos, su presentación en forma gráfica o ilustrativa y el cálculo de medidas descriptivas.
 
Los tipos de estadísticos: Posición, centralización, dispersión, Forma.
 
EFICACIA
 
Consiste en alcanzar las metas establecidas en la empresa.
 
EFICIENCIA
 
Se refiere a lograr las metas con la menor cantidad de recursos. Obsérvese que el punto clave en esta definición es ahorro o reducción de recursos al mínimo.
 
EWMA Exponential Weighted Moving Average), como método de estimación de la volatilidad.
 
Este método busca suavizar el impacto de las grandes oscilaciones en la volatilidad observadas en el mercado (lo que técnicamente se conoce como outliers) y que, como vimos al hablar de las medias móviles, pueden afectar bastante a los cálculos en tanto en cuanto se tengan en cuenta para los mismos. El método EWMA asume que las mejor predicción de la volatilidad para el período t es una media ponderada entre la observación del período anterior y la predicción de la volatilidad para ese mismo período anterior. Nótese que en esta entrada estamos asimilando volatilidad con varianza y no con desviación típica. Asumiendo que la volatilidad de un activo o cartera puede ser medida con el cuadrado de su rendimiento (de nuevo hemos de referirnos al anterior post de esta serie) y llamando λ (cuyo valor debe situarse entre 0 y 1) al peso asignado a la anterior estimación de la volatilidad, tenemos que:
 
Tenemos que darnos cuenta de que la ventaja más importante del método EWMA reside precisamente en su recursividad. Gracias a la misma, la estimación de la volatilidad para el período t reúne toda la información histórica de la volatilidad. En efecto, en las expresiones anteriores vemos que la predicción de la volatilidad (de su cuadrado) para el momento t es una función del parámetro λ y de la volatilidad observada en el pasado medida mediante el cuadrado del rendimiento (o el cuadrado de la diferencia entre el rendimiento y su media si es que ésta es distinta de cero).
 
 
JUANA GUADALUPE CRUZ CHIMAL
 
DISTRIBUCIÓN SESGADA
 
Una distribución asimétrica. En una distribución sesgada negativamente, las puntuaciones extremas son inferiores a la media. En una distribución sesgada positivamente, las puntuaciones extremas son superiores a la media.
 
DISTRIBUCIÓN MULTIMODAL
 
Es una distribución con más de una moda. El histograma de una distribución multimodal tiene más de una cima. (cf. Discusión sobre Promedio, mediana y moda).
 
ESTRATIFICACIÓN
 
El término estratificación hace referencia a la noción de estratos o niveles para diferentes órdenes y circunstancias de la vida. En general, la palabra estratificación se puede utilizar tanto en las ciencias naturales (cuando se habla de la estratificación de la Tierra o de la atmósfera) como en las ciencias sociales (cuando se hace referencia a la estratificación socia
 
HISTOGRAMA.
 
El histograma es aquella representación gráfica de estadísticas de diferentes tipos. La utilidad del histograma tiene que ver con la posibilidad de establecer de manera visual, ordenada y fácilmente comprensible todos los datos numéricos estadísticos que pueden tornarse difíciles de entender. Hay muchos tipos de histogramas y cada uno se ajusta a diferentes necesidades como también a diferentes tipos de información. Los histogramas son utilizados siempre por la ciencia estadística. Su función es exponer gráficamente números, variables y cifras de modo que los resultados se visualicen más clara y ordenadamente.
 
EMANUEL CAMACHO FRANCO
 
 
HABILIDAD DE UN PROCESO: es el grado de aptitud que tiene un proceso al cumplir con las especificaciones técnicas deseadas. Cuando la capacidad es alta, se dice que el proceso es capaz, cuando se mantiene estable a lo largo del tiempo, se dice que el proceso está bajo control, cuando no ocurre esto se dice que el proceso no es adecuado para el trabajo.
 
Bryan Salazar López. (206). Capacidad de Proceso. 2016, de Herramientas para el ingeniero industrial Sitio web: https://www.ingenieriaindustrialonline.com/herramientas-para-el-ingeniero-industrial/gestión-y-control-de-calidad/capacidad-de-proceso/
 
INGENIERIA DE CALIDAD: El propósito es combinar métodos de ingeniería y estadística para mejorar un rendimiento rápido de costo y calidad, utilizando diseño de productos y procesos de manufactura para optimizar los mismos. Lleva a cabo actividades dirigidas a reducir las pérdidas causadas por la variabilidad.
 
Prezi Inc. (2018). Ingeniería de la calidad. 2018, de Prezi.com Sitio web: https://prezi.com/yhs1d7zmdsit/ingenieria-de-la-calidad
 
INDICE K: valor que caracteriza la relación existente entre la media del proceso y su distancia al límite de especificación, por el cual el proceso dará un resultado menos correcto. Es el índice utilizado para saber si el proceso se ajusta a las tolerancias, es decir, si la media del proceso se encuentra centrada o no con relación al valor nominal del mismo.
 
ELIZABETH GRANADOS
 
EL CP COMPARA LA TOLERANCIA ESPECIFICADA CON LA VARIACIÓN POTENCIAL DEL PROCESO:
 
El Cp describe la relación entre el espacio disponible para variación de acuerdo con las especificaciones y el espacio ocupado por la variación del proceso.
 
Para caracterizar la ubicación del proceso utilizamos el Cpk, que evalúa la distancia del promedio del proceso con la especificación más cerca de ella, de la siguiente forma:
 
≥ TERESA ESPITIA
 
INDICE DE CAPACIDAD POTENCIAL C
 
La mayoría de las evaluaciones de capacidad pueden agruparse en una de dos categorías: capacidad potencial (corto plazo) y capacidad general. Cada una representa una medida única de la capacidad del proceso.
 
Capacidad potencial
 
La capacidad potencial también se conoce como la "acreditación" del proceso: ignora las diferencias entre los subgrupos y representa cómo podría funcionar el proceso si se eliminaran los cambios rápidos y graduales entre los subgrupos. Los índices de capacidad que evalúan la capacidad potencial incluyen Cp, CPU, CPL y Cpk.
 
Cp.: El Cp, es una medida de la capacidad potencial del proceso. El Cp es una relación que compara dos valores: La dispersión de especificación (LES – LEI)
 
La dispersión del proceso (la variación de 6 σ) con base en la desviación estándar dentro de los subgrupos El Cp evalúa la capacidad potencial con base en la variación del proceso, no en su ubicación.
 
Interpretación: Utilice el Cp para evaluar la capacidad potencial del proceso con base en la dispersión del proceso. La capacidad potencial indica la capacidad que se podría alcanzar si se eliminaran los cambios rápidos y graduales del proceso.
 
Puesto que el Cp no considera la ubicación del proceso, indica la capacidad potencial que podría alcanzar el proceso si estuviera centrado. Por lo general, los valores de Cp más altos indican un proceso más capaz. Los valores de Cp más bajos indican que el proceso puede necesitar mejoras.
 
CPL: El CPL es una medida de la capacidad potencial del proceso con base en su límite de especificación inferior. El CPL es una relación que compara dos valores:
 
La distancia de la media del proceso al límite de especificación inferior (LEI)
 
La dispersión unilateral del proceso (la variación de 3 σ) con base en la desviación estándar dentro de los subgrupos Puesto que el CPL considera tanto la media como la dispersión del proceso, evalúa la ubicación y la variación (dentro de los subgrupos) del proceso.
 
Interpretación: Utilice el CPL para evaluar la capacidad potencial del proceso en relación con su límite de especificación inferior. La capacidad potencial indica la capacidad que se podría alcanzar si se eliminaran los cambios rápidos y graduales del proceso.
 
Por lo general, los valores de CPL más altos indican que el proceso es capaz en la cola inferior de su distribución. Los valores de CPL más bajos indican que el proceso puede necesitar mejoras.
 
CPU: El CPU es una medida de la capacidad potencial del proceso con base en su límite de especificación superior. El CPU es una relación que compara dos valores:
 
La distancia de la media del proceso al límite de especificación superior (LES)
 
La dispersión unilateral del proceso (la variación de 3 σ) con base en la variación dentro de los subgrupos Puesto que el CPU considera tanto la media como la dispersión del proceso, evalúa la ubicación y la variación (dentro de los subgrupos) del proceso.
 
 
Interpretación
 
Utilice el CPU para evaluar la capacidad potencial del proceso en relación con su límite de especificación superior. La capacidad potencial indica la capacidad que se podría alcanzar si se eliminaran los cambios rápidos y graduales del proceso.
 
Por lo general, los valores de CPU más altos indican que el proceso es capaz en la cola superior de su distribución. Los valores de CPU más bajos indican que el proceso puede necesitar mejoras.
 
Cpk: El Cpk es una medida de la capacidad potencial del proceso y es igual al mínimo entre el CPU y el CPL. El Cpk es una relación que compara dos valores: La distancia de la media del proceso al límite de especificación más cercano (LES o LEI)La dispersión unilateral del proceso (la variación de 3 σ) con base en la desviación estándar dentro de los subgruposEl Cpk evalúa tanto la ubicación como la variación (dentro de los subgrupos) del proceso.
 
Interpretación: Utilice el Cpk para evaluar la capacidad potencial del proceso con base tanto en la ubicación como en la dispersión del proceso. La capacidad potencial indica la capacidad que se podría alcanzar si se eliminaran los cambios rápidos y graduales del proceso.
 
Por lo general, los valores de Cpk más altos indican un proceso más capaz. Los valores de Cpk más bajos indican que el proceso puede necesitar mejoras.
 
DC Montgomery. Tercera edición. Limusa Wiley. 2008. Control estadístico de la calidad. Tema 3: “Inferencias sobre la calidad del proceso”. Tema 4: “Métodos y filosofía del control estadístico de procesos”. Tema 5: “Cartas de control para variables”. Tema 7: “Análisis de capacidad del proceso y de sistemas de medición”. ISBN 9780471656319.
 
ANA LILIA
 
 
ÍNDICE CPS
 
Indicador de la capacidad de un proceso para cumplir con la especificación superior de una característica de calidad.
ÍNDICE CP
 
Índice de capacidad de un proceso: Compara el ancho de las especificaciones o variación tolerada para el proceso con la amplitud de la variación real del proceso.
 
ÍNDICE CPK
 
El Cpk es un índice de culpabilidad. Se utiliza para comprobar la calidad de un proceso, admitiendo algunos límites en las especificaciones, y siempre conjuntamente con el Cp.
 
 
CESAR ARIAS MUÑIZ
 
LA MEDIANA: Es el valor del elemento intermedio cuando todos los elementos se ordenan.
LA MEDIA: Es la suma de los valores de los elementos dividida por la cantidad de éstos. Es conocida también como promedio, o media aritmética.
 
LA MODA: Es el valor que se presenta el mayor número de veces.
 
MEDIDA DE TENDENCIA CENTRAL: Un único valor que resume un conjunto de datos. Señala el centro de valores. No hay una sola medida de tendencia central, se consideran 5: la media aritmética, media ponderada, la mediana, la moda y la media geométrica.
 
MEDIDAS DE DISPERSIÓN O VARIABILIDAD: Nos indican si esas puntuaciones o valores están próximas entre sí o sí por el contrario están muy dispersas
ARTURO RODRIGUEZ
 
MULTI-VARI
 
El análisis Multi-Vari permite determinar las fuentes que presentan mayor variación, a través de la descomposición de los componentes de variabilidad del proceso. Las cartas Multi-Vari forman parte de las herramientas desarrolladas por Dorian Shainin[1], encaminadas a la mejora del proceso.
 
El objetivo general de las cartas Multi-Vari es, descubrir los componentes de variación en el proceso y cuantificar las diferentes fuentes de variabilidad, las cuáles pueden ser, por ejemplo: de lote a lote, dentro del lote, de turno a turno, entre turnos, dentro del turno, de máquina a máquina, dentro de la máquina, de operador a operador, dentro del operador, entre operadores, etc.
 
Las cartas Multi-Vari identifican tres principales familias de variación que pueden influenciar en la variabilidad del proceso, éstas son variación posicional, cíclica y temporal.
 
Variación posicional. Se refiere a variaciones dentro de una misma pieza, variaciones producidas de un troquel a otro, dentro de un lote de piezas, de una máquina a otra, de un operador a otro, o de una plata a otra.
 
Variación cíclica. Es la variación entre unidades de un mismo proceso, o variación entre grupos de unidades (lotes)
 
Variación temporal. Variación de diferencia de tiempo (por ejemplo: de hora a hora, de día a día, de semana a semana, etc.), variación de una corrida de producción a otra, o variación de turno a turno.
Una vez identificados las fuentes de variación, el análisis Multi-Vari está diseñado y enfocado a identificar la variable independiente de mayor influencia dentro de las familias de variación descritas anteriormente.
 
Pasos para elaborar una carta Multi-Vari.
 
Selección del proceso. Cualquier proceso que se presente fuera de las especificaciones permitidas es candidato a ser seleccionado para posteriormente ser analizado por medio de cartas Multi-Vari.
 
Plan de muestreo y toma de mediciones. El objetivo es tomar mediciones que otorguen información con respecto a las principales familias de variación que pueden influenciar en la variabilidad del proceso. Es decir, para el caso de variación posicional, tomar mediciones en una máquina y en otra, estas mediciones deben ser tomadas de manera que resulten en un muestreo aleatorio. El muestreo aleatorio puede ser llevado a cabo con tablas de números aleatorios, dichas tablas contienen una serie de columnas y renglones de números, por ejemplo, el último dígito de un número nos puede dar el intervalo de minutos que se debe esperar para tomar la siguiente medición.
 
Toma de mediciones para variación simultánea. Es recomendable también realizar una toma de mediciones que cubra más de una familia de variabilidad,
 
Ejemplo de cartas Multi-Vari.
 
Se ha detectado que el proceso de producción de rondanas de plástico se encuentra fuera de especificaciones. El diámetro exterior especificado es de 1.50” + 0.01”. Se procede a realizar un proceso de reexperimentación a través de cartas Multi-Vari para identificar la fuente de variabilidad.
 
Con este fin se planifica un muestreo aleatorio de cinco diferentes lotes de material que será procesado en dos diferentes inyectoras de plástico. Se toman cinco muestras para cada inyectora y para cada lote. Resultando 50 observaciones.
 
ORIGEN DEL PENSAMIENTO ESTADÍSTICO
 
H. G. Wells, también llamado el hombre que veía el mañana, fue quien, con espíritu de descubrimiento científico, parafraseó que en poco tiempo para un ciudadano eficiente del nuevo y tan complejo mundo que se está desarrollando ahora, sería requisito poder calcular y pensar en promedios, máximos y mínimos, lo que hoy es como aprender a leer y escribir.
 
A la definición y avance del concepto de pensamiento estadístico han contribuido varios especialistas, como Sanee quien lo definió como un conjunto de principios y valores que permiten identificar los procesos, caracterizarlos, cuantificarlos, controlar y reducir su variación para implantar acciones de mejora (Snee, 1993).
 
El pensamiento estadístico está basado en la teoría en administración del Dr. W. Edwards Deming, porque en su libro, The New Economics publicado en 1994 desarrolló el Sistema de Conocimiento Profundo, el cual contiene la esencia de los tres principios del pensamiento estadístico y consta de cuatro partes:
 
La apreciación de un sistema.
El conocimiento sobre la variación.
La teoría del conocimiento.
La psicología.
 
Definición General: En la Special Publication on Statistical Thinking (1996b) está detallada la definición de que el pensamiento estadístico es una filosofía de aprendizaje y acción basada en tres principios inevitables que son:
1. Todo trabajo ocurre en un sistema de procesos interconectados;
2. Variación hay en todos los procesos; y
3. Entender y reducir la variación son las claves del éxito.
 
El primer principio se relaciona con la primera parte del Sistema de Conocimiento Profundo, Apreciación de un sistema. El segundo y tercer principios, se unen a la segunda parte del Sistema de Conocimiento Profundo, Conocimiento sobre la variación.
 
En la ASQC (1996b) se plantea primero que el pensamiento estadístico es una filosofía, o sea es una forma de pensar, o un proceso de pensamiento, en lugar de cálculos que a algunos confunden. Ésta es la diferencia clave entre el pensamiento estadístico y las técnicas estadísticas, y cuya integración se ilustra en la Figura 1.
 
 
Relación entre pensamiento estadístico y métodos estadísticos
Principios: En la práctica se dan diferentes interpretaciones a las situaciones, quizás a través de los datos, y reaccionando diferente de tal forma que se aprecia la no utilización del pensamiento estadístico. Para puntualizar esas diferencias, es necesario examinar los principios fundamentales del pensamiento estadístico.
 
 
Todo trabajo ocurre en un sistema de procesos interconectados. Es decir, toda actividad es un proceso, el cual es un conjunto de actividades conectadas donde las entradas son transformadas en salidas para un propósito específico (ASQC, 1996b; López, 2004).
 
Este principio se refiere al entendimiento de toda actividad y tiene que ver con el aprendizaje, el mejoramiento potencial y las fuentes de variación que se mencionan en el segundo y tercer principios.
 
Variación hay en todo proceso. Este principio proporciona el enfoque para el mejoramiento del trabajo. La variación es la clave. La variación resulta cuando dos o más cosas son diferentes y pudiéramos pensar que deberían ser exactamente iguales. La presencia de la variación crea la necesidad del pensamiento estadístico (Dransfield et. al. 1999). Si no hubiera variación, los procesos podrían ejecutarse mejor, los productos tendrían la calidad deseada, el servicio podría ser más consistente y los directivos podrían administrar mejor (Hoerl y Snee, 2002). Enfocarse en la variación es una estrategia clave para el logro de la mejora.
 
Entender y reducir la variación son las claves del éxito. La calidad de los procesos determina inevitablemente la calidad de los productos que se obtienen, de ahí que la primera gran meta de todo proceso de mejora debe ser: controlar y reducir la variabilidad, de forma tal que los procesos sean estables, consistentes y predecibles.
 
La aplicación de la estadística inicia sobre la base de que hay variación en los datos, de lo contrario no se aplicaría. Por lo que la variación debe cuantificarse para comprender mejor las actividades o procesos y mejorar la toma de decisiones.
 
 
La estadística ha demostrado que las variaciones de un producto o proceso pueden medirse, con lo cual se puede determinar el comportamiento del proceso, o el lote de productos, o los tiempos de atención en el servicio.
 
Deming manifestó el mensaje de toda la vida, reduzca la variación. En la mayoría de las situaciones, reducir variación es calificativo de mejor. Reduciendo variación en el producto se satisface a los clientes, mientras que reduciendo la variación del proceso y de las entradas se reduce la de los productos, y comúnmente se reducen costos en los negocios en general
 
En resumen, debiéramos siempre entender la variación y siempre tratar de reducirla, así el pensamiento estadístico sería pro activo.
 
Respecto a lo anterior puede pensarse que el pensamiento estadístico es un método que consiste en la identificación de los procesos más importantes (pueden ser procesos clave o de apoyo) en una empresa, la determinación de variables, la obtención de datos y finalmente el análisis de los mismos utilizando herramientas estadísticas, desde las más simples hasta quizás otras muy complejas.
 
Percentil P
 
El término percentil forma parte integrante de la enorme cantidad de conceptos que agrupan las matemáticas, por tanto, resulta ser de uso común y frecuente dentro del mencionado ámbito y en el léxico de quienes se dedican al estudio y a la enseñanza de la misma. El percentil es cada uno de los noventa y nueve segmentos que resultan tras dividir algo en cien partes de igual frecuencia.
 
Se lo representa a través de la letra mayúscula P.
Cuando nos referimos a un percentil en concreto será el valor de la variable a observar y que está por debajo del porcentaje que se ha dado. Así es que P20 será la puntuación que se le atribuirá cuando esté por debajo del 20 % de los valores ordenados que se han hallado.
 
El método más sencillo para calcular el percentil es el siguiente:
 
x = n*i/100.
 
En esta fórmula la letra minúscula n representa al número de elementos de la muestra, en tanto, la letra i minúscula será el percentil. Tras la realización de esta operación se obtendrá un número real con una parte entera, que se denominará E y una parte decimal que se pasará a denominar D.
 
Uno de los usos más frecuentes que se le da al percentil es a la hora de satisfacer la necesidad de obtener datos concretos respecto de determinadas cuestiones que hacen al conocimiento más profundo de una sociedad o comunidad, por ejemplo, se quiere evaluar el crecimiento de los niños, entonces, los pediatras, basarán su evaluación justamente en tablas de percentiles para llevar a cabo la mencionada evaluación; se inspirarán entonces en tablas de percentiles diferentes según se trate de mujeres o de varones, con unos valores medios, según la edad y el país que corresponda. Las más usadas son las del peso, la altura y el perímetro craneal.
 
 
Ejemplo de tabla percentil
 
En la imagen se muestra que la mitad de los niños de una misma edad se hallan en el percentil 50, en tanto, un 25 % se halla por arriba de ese nivel y el otro 25 % por debajo. Todas las líneas corresponderán a valores normales, si hay un niño en el percentil 45 de altura será interpretado del siguiente modo: de cien chicos sanos de su edad 55 son más altos que él y 45 son más bajos.
 
PRODUCTIVIDAD
 
La productividad es una medida económica que calcula cuántos bienes y servicios se han producido por cada factor utilizado (trabajador, capital, tiempo, costes, etc.) durante un periodo determinado. Por ejemplo, cuanto produce al mes un trabajador o cuánto produce una maquinaria.
 
El objetivo de la productividad es medir la eficiencia de producción por cada factor o recurso utilizado, entendiendo por eficiencia el hecho de obtener el mejor o máximo rendimiento utilizando un mínimo de recursos. Es decir, cuantos menos recursos sean necesarios para producir una misma cantidad, mayor será la productividad y por tanto, mayor será la eficiencia.
 
Teniendo esto en cuenta, la fórmula para calcular la productividad es el cociente entre producción obtenida y recursos utilizados.
 
Productividad = Producción obtenida / factor utilizado
 
Por ejemplo, para calcular la productividad de un país podemos dividir el PIB entre el número de horas trabajadas. El resultado será cuánto se ha producido en el país por cada hora.
 
Importancia del cálculo de la productividad
 
El aumento de productividad es tan importante porque permite mejorar la calidad de vida de una sociedad, repercutiendo en los sueldos y la rentabilidad de los proyectos, lo que a su vez permite aumentar la inversión y el empleo.
 
Para una empresa, una industria o un país, la productividad es un factor determinante en el crecimiento económico. Cuando se estima la tendencia de crecimiento a largo plazo de un país se descompone en dos componentes principales: los cambios en el empleo (que dependen a su vez del crecimiento de la población y de la tasa de empleo) y la productividad (que depende sobretodo del gasto en bienes de capital y de los factores productivos que veremos más abajo).
 
Un análisis de lo más productivo supone:
 
 
Ahorro de costes: al permitir deshacerse de aquello que es innecesario para la consecución de los objetivos.
Ahorro de tiempo: debido a que permite realizar un mayor número de tareas en menor tiempo y dedicar ese tiempo “ahorrado” a seguir creciendo a través de otras tareas.
Un buen análisis permite establecer la mejor combinación de maquinaria, trabajadores y otros recursos para conseguir maximizar la producción total de bienes y servicios.
 
Tipos de productividad
 
Según los factores que tengamos en cuenta, se puede clasificar en los siguientes tipos:
 
Productividad laboral: Se relaciona la producción obtenida y la cantidad de trabajo empleada.
 
Productividad total de los factores: Se relaciona la producción obtenida con la suma de todos los factores que intervienen en la producción (trabajo, capital, tierra).
 
Productividad marginal: Es la producción adicional que se consigue con la una unidad adicional de un factor de producción, manteniendo el resto constantes. Aquí entra en escena la ley de rendimientos decrecientes, que afirma que en cualquier proceso productivo, añadir más unidades de un factor productivo, manteniendo el resto constantes, dará progresivamente menores incrementos en la producción por unidad.
 
Factores que afectan a la productividad
 
Una de las formas más comunes de aumentar la productividad es invertir en bienes de capital (maquinaria o informática por ejemplo) para hacer el trabajo más eficiente, manteniendo o incluso reduciendo el empleo.
 
Estos son los principales factores que afectan a la productividad de una empresa:
 
Calidad y disposición de recursos naturales; tierra (T): si una empresa o país tiene o se encuentra cerca de recursos naturales será más productiva. Tanto por el valor de esos recursos, por no tener que comprarlos ni transportarlos desde lejos. Este factor de producción se englobaba como factor tierra (T).
 
El capital invertido en la industria (K): la cantidad de capital es un factor directo de la productividad.
 
La cantidad y calidad de los recursos humanos; labor o trabajo (L): el número de empleados de la industria, su nivel de educación y experiencia.
 
El nivel tecnológico (A): cuanto mayor sea el conocimiento y nivel tecnológico mayor será la productividad. Tecnología no solo son productos mecánicos, sino procesos productivos.
 
La configuración de la industria: el tipo de industria afectará enormemente a la productividad de una empresa. No es lo mismo la producción de trigo que de naves espaciales. La estructura de una industria viene determinada por intensidad de la competencia, competidores potenciales, barreras de entrada, productos sustitutivos y poder de negociación. Esta estructura se puede analizar mediante las cinco fuerzas de Porter.
 
Entorno macroeconómico: la coyuntura económica influirá tanto en las demandas de productos y servicios como en la necesidad de innovación y mejorar la eficiencia. Son las fuerzas externas que van a tener un impacto indirecto sobre la organización.
 
Entorno microeconómico: el microentorno tiene un impacto directo en su capacidad de servir su producto o servicio al cliente final, como por ejemplo la regulación de la industria.
 
Ejemplo de productividad
 
Si una empresa puede fabricar 30 pares de zapatos en una hora (productividad = 30 zapatos/hora) y otra empresa fabrica 40 pares en una hora (40 zapatos/hora), diremos que la productividad es mayor en la segunda empresa, ya que la cantidad de bienes producidos en un mismo periodo de tiempo es mayor.
 
Que la segunda empresa sea más productiva que la primera, dependerá de factores como los siguientes:
 
Formación y experiencia de los trabajadores Organización empresarial Tecnología que se utiliza en el proceso productivo.
 
No será lo mismo un aprendiz de zapatero, que una persona que lleva muchos años realizando la misma actividad. Igual que tampoco producirá la misma cantidad una empresa que utiliza las mejores innovaciones tecnológicas, que otra que tenga un sistema de producción mucho más rudimentario.
 
PRE-CONTROL
 
El Pre-Control, es una técnica usada para detectar irregularidades en el proceso, que pueden resultar en la producción de unidades fuera de especificaciones. Pre-control, principalmente se presta para el uso de aparatos de medición hechos previamente sobre los límites de las especificaciones. El uso de estos aparatos de medición permite seleccionar fácilmente las unidades que proceden de las que no. Pre-control es usado con frecuencia para determinar los valores de las variables del proceso durante el período de arranque de la producción.
 
Se basa en la hipótesis de que, si el proceso está operando correctamente, la probabilidad de encontrar dos unidades fuera de los límites de control consecutivamente es demasiado pequeña. Por lo tanto, si dos unidades son encontradas consecutivamente fuera de los límites de control, es razón suficiente como para indicar una falla en el proceso.
 
Ventajas.
 
Pre-control es una técnica simple que a diferencia con el control estadístico del proceso (CEP) no requiere de gráficas de control, ni de cómputos.
 
Desventajas.
 
No existen gráficas de control, por lo tanto, las reglas y procedimientos para reconocer patrones de fallas no pueden ser usados. Dado que se requiere una cantidad muy pequeña de muestras, es riesgoso inferir sobre la totalidad del proceso. Finalmente, Pre-control no proporciona información suficiente para someter el proceso bajo control o para reducir la variabilidad.
 
Recomendaciones.
 
Pre-control sólo debe ser usado cuando la capacidad del proceso (Cp.)[2] es mayor que uno (algunos textos recomiendan como mínimo Cp.=2)[3], y cuando se han alcanzado cero defectos en el proceso.
 
Definición de los límites de Pre-control.
 
Existen dos límites de Pre-control (PC):
 
Upper Pre-control limit (UPCL); Limite superior de Pre-control
 
Lower Pre-control limit (LPCL); Limite inferior de Pre-control
 
Cada uno representa ¼ de la distancia entre el límite de especificaciones inferior (LSL) y el límite de especificaciones superior (USL).
 
pasos a seguir para aplicar Pre-control.
 
Sin cinco unidades están dentro de los límites de Pre-control, cambie a verificación intermitente.
 
Cuando se encuentre en verificación intermitente, no ajuste el proceso hasta que una unidad exceda algún límite de Pre-control. Examine la siguiente unidad, y proceda en A.
 
Si se reinicia el proceso, al menos cinco unidades consecutivas deben caer dentro de los límites de pre-control para cambiar a verificación intermitente.
 
Si el operador toma más de 25 muestras sin reiniciar el proceso, reduzca la frecuencia de las verificaciones
 
DANIEL CHIMAL
 
PHVA: Proceso de cuatro etapas para desarrollar proyectos de mejora; consiste en planear, hacer, verificar y actuar.
 
QFD: Es una herramienta de planeación que introduce la voz del cliente en el desarrollo de un producto o un proyecto.
 
RANGO: Medición de la variabilidad de un conjunto de datos que es resultado de la diferencia entre el dato mayor y el dato menor de la muestra.
 
SESGO: Es una medida numérica de la asimetría en la distribución de un conjunto de datos.
JORGE LUIS MENDOZA
 
SISTEMA DE MEDICIÓN DEL DESEMPEÑO: Se refiere a cuantificar los signos vitales de la organización y con base en ellos encauzar el pensamiento de los empleados y fijar prioridades.
 
TABLAS DE FRECUENCIAS: Representación en forma de tabla de la distribución de unos datos, a los que se clasifica por su magnitud en cierto número de clases.
 
VARIABLES DE ENTRADA DEL PROCESO: Son las que definen las condiciones de operación del proceso e incluyen las variables de control y las que, aunque no son controladas, influyen en el desempeño del mismo.
 
JOSE GUADALUPE CORTEZ
 
VARIABLES DE SALIDA: Son todo tipo de indicadores ya sean numéricos, de texto de nivel, entre otros.
 
VARIABILIDAD:son cambios inevitables que modifican el proceso (ya sean pequeños o casi imperceptibles) que afectan posteriormente al producto que se produce o al servicio que se ofrece. “El enemigo de todo proceso es la variación". Un administrador exitoso es aquel que logra controlarla.
 
6M: Las empresas hoy en día deben no solo buscar que el proceso tenga cero defectos o en verificar los procesos sino en manejar adecuadamente las 6 M´s:
 
* Materia prima: esto es buscar que los proveedores sean los adecuados, que estén certificados de manera tal que ellos también nos ayuden a lograr la calidad
 
* Mano de obra: preocuparse por dar la capacitación sea dada, lo cual nos llevara a tener gente calificada que nos ayude a cumplir con el proceso satisfactoriamente
 
* Maquinaria: estar constantemente dando mantenimiento preventivo de modo tal que no lleguemos a tener alguna contingencia o problema
 
* Medio ambiente: buscar que nuestra gente se identifique con la organización, con la cultura de la empresa, Moral, Valores, etc.
 
* Medición: contar con un adecuado control de la calidad, equipos, calibración, planes de muestro, aseguramiento de la calidad
 
* Métodos: Documentación adecuada de los procesos, por ejemplo 'ISO'
 
''Esto los llevara a que el proceso no solo sea adecuado sino eficiente''
 
 
BEATRIZ ADRIANA SANCHEZ