Icono del sitio Oposinet

Tema 68 – Aplicaciones de la Estadística y el Cálculo de Probabilidades al estudio y toma de decisiones en problemas de las Ciencias Sociales y de la Naturaleza. Evolución histórica.

1. Introducción.

2. Evolución Histórica de la Estadística.

3. Evolución Histórica del Cálculo de Probabilidades.

4. Aplicaciones a las Ciencias Sociales y Naturales.

5. Toma de Decisiones

5.1. Hipótesis Estadísticas.

5.2. Otros Procesos de Decisión.

5.3. Predicción. Bibliografía Recomendada.

1. INTRODUCCIÓN.

La Estadística tiene actualmente el carácter de ciencia básica, fundamentalmente por dos motivos. El primero de ellos es que resuelve problemas de carácter básico y elemental. El segundo, es la cantidad de veces que surgen sus conceptos en la vida diaria.

A través de los medios de comunicación de masas, como son la prensa, radio y televisión, al que actualmente se está incorporando Internet, recibimos noticias y mensajes que nos obligan a tener una idea clara de los conceptos estadísticos. Ejemplos pueden ser la vida media de la población, el aumento del IPC, desviación sufrida en un partido por un jugador de baloncesto con respecto a sus porcentajes, etc.

Algunos ejemplos del uso frecuente que nos encontramos de la Estadística en la vida real pueden ser:

1) “Juan es más alto de lo habitual”. Aquí estamos haciendo uso del concepto de promedio o media de ciertos elementos.

2) “Los padres rubios suelen tener hijos rubios”. En este caso, las ideas de semejanzas y diferencias utilizan el concepto de correlación.

3) “Han tomado muestras de sangre de varios ciclistas elegidos al azar”. Aquí usamos el concepto de muestra, al no poder abarcar todo el espacio muestral.

Además de estas apariciones de la Estadística en la vida diaria, nos encontramos que tiene cada vez más aplicaciones, y más importantes, en sectores tan dispares como la agricultura, la industria, la administración, etc.

Pero además, desde hace ya más de un siglo, han comenzado a utilizarse los métodos estadísticos como una técnica poderosa en la investigación científica experimental. Y desde hace unos pocos años, apareció la Investigación Operativa aplicada a la industria, a la estrategia militar e incluso a la resolución de problemas de gobierno.

Todo lo anterior implica que hoy en día sea necesario conocer las ideas estadísticas mas sencillas, pasando a formar parte del bagaje cultural del hombre, al mismo tiempo que el método estadístico ha de ser un instrumento de trabajo esencial para el ingeniero, economista, sociólogo y sobre todo, para el investigador experimental (biólogo, químico, médico, etc.).

2. EVOLUCIÓN HISTÓRICA DE LA ESTADÍSTICA.

Es muy difícil establecer una cronología exacta de los orígenes de la Estadística. Encontramos los primeros rastros de la Estadística en la historia en el libro de Confucio, en el cual se mencionan por primera vez los censos. Se piensa que fue el emperador Tao, en 2200 a.C. el primero en ordenar censos en China.

También en la época romana aparece la Estadística. En el año 555 a.C. se realizaron censos en Roma, cuyo objetivo era conocer la población existente en aquel momento. Y según nombra Tácito, Augusto (61 a.C a 14 d.C.) mandó enumerar todos los bienes y riquezas del imperio. Así pues, se realizó un inventario de los navíos, los recursos, las rentas públicas y de todos los soldados. A lo largo de la Edad Media y hasta la mitad del siglo XVII la Estadística fue meramente descriptiva.

Aunque acabamos de ver que la Estadística aparece en la antigüedad, no fue hasta 1748 cuando Achenwall, en Alemania, introdujo por primera vez la palabra Estadística. Este matemático, profesor de la universidad de Gotinga, fue considerado el padre de la Estadística por los alemanes.

Achenwall era la cabeza visible de una de las dos escuelas que coexistieron en Alemania en esta segunda mitad del siglo XVII, la escuela descriptiva alemana. La otra era la escuela de matemáticos políticos, cuyo máximo representante era Graunt. Esta escuela ensayó los fundamentos de las previsiones y las leyes sobre la regularidad aproximada de ciertos fenómenos sociales. Fue en 1662 cuando John Graunt, mercader de lencería londinense, publicó un libro en el que puso de manifiesto las cifras brutas de nacimientos y defunciones en Londres durante el periodo de 1604 a 1661, así como las influencias que ejercían las causas naturales, sociales y políticas de dichos acontecimientos. Graunt entabló amistad con Sir William Petty, que también formó parte de la escuela de matemáticos políticos.

Al final del siglo XVII fue creado en Francia el primer centro oficial de Estadística. Y el siglo XVIII, gracias al francés Desparcieu y al sueco Wargentin, fue el punto de partida de la floreciente industria de los seguros. Ello fue debido a que estas dos personas publicaron las primeras tablas de mortalidad, que mostraron la manera práctica de la previsión de los fenómenos colectivos.

Fue en el primer año del siglo XIX cuando Chaptal, ministro del interior de Francia, ordenó el primer censo de la población. Poco tiempo después, Jacques Bernouilli y Laplace introdujeron la utilización del cálculo de probabilidades, por lo que la Estadística fue perdiendo poco a poco su significado descriptivo por un carácter más matemático.

A. Quetelet Lambert (1796-1874) extendió el cálculo de aplicaciones de este método al estudio de las cualidades físicas, morales e intelectuales de los seres humanos, con el objetivo de encontrar un hombre medio ficticio sobre el cual se distribuyeran todos los demás. A él se debe el término “hombre medio” que posteiormente usaría Sir Francis Galton. Fue en 1835, mientras detentaba el cargo de astrónomo real de Bélgica, cuando realiza el primer censo de su país, en el que analiza la influencia que sobre la mortalidad tienen la edad, el sexo, la profesión, la situación económica, etc.

G. T. Fechner (1801-1887), profesor de física de la universidad de Leipzig, aplicó los conocimientos existentes de Estadística de su época a las ciencias sociales, principalmente a la psicología.

Galton (1822-1911) y Pearson (1857-1936) se pueden considerar los padres de la Estadística moderna. A ellos se debe la evolución de la Estadística deductiva, estudiada hasta su época, a la Estadística inductiva, que es la que hoy en día tiene una mayor influencia en todas las ramas del saber.

La teoría de la Correlación y la Regresión es muy reciente, debiéndose su descubrimiento a Sir Francis Galton. Sus trabajos más importantes estuvieron relacionados con sus dos grandes aficiones, el estudio de la herencia y la expresión matemática de los fenómenos vinculados a ella. En 1869 publicó el libro “Hereditary Genius”, y a través del estudio de los problemas de la herencia, obtuvo el concepto de correlación. Fue el primero en asignar a un conjunto de variables un número que permitía obtener una medida del grado de relación existente entre ellas.

Llegó a inferir que las personas muy altas solían tener hijos más bajos que ellas, y también sucedía al revés, las personas muy bajas solían tener hijos más altos que sus progenitores. Esta observación permitió a Galton enunciar su Principio de Regresión a la Mediocridad. Este resultó ser el origen del actual análisis de la regresión.

La observación que realizó Galton es cierta, pero su principio resultó ser falso. La justificación está en que los valores extremos de una distribución se producen al azar, de ahí que, en el caso de la altura, no pasen a los hijos.

Los trabajos de Galton los continuaron Edgeworth, Weldon y Pearson, quienes reelaboraron y mejoraron sus ideas.

Karl Pearson realizó aportaciones muy importantes a la Estadística, como fue la distribución c2 o el test que lleva su nombre, para el estudio de la bondad del ajuste de una distribución empírica a otra teórica.

3. EVOLUCIÓN HISTÓRICA DEL CÁLCULO DE PROBABILIDADES.

Hoy en día, la Teoría de la Probabilidad es una parte importante de las matemáticas, que abarca un campo de aplicaciones muy extenso, incluyendo ramas de las ciencias naturales, técnicas y sociales.

Sin embargo, tuvo un comienzo muy simple. Sus raíces las encontramos en una sencilla Teoría de los Juegos de Azar, dada a conocer hace ya tres siglos. Por ello, resulta complicado establecer una cronología histórica del desarrollo del concepto de probabilidad, debido a que como tal concepto es muy reciente.

En el siglo XVI, el matemático Italiano G. Cardano (1501-1576) obtiene una serie de resultados que escribe en su libro “Libro de los juegos de Azar”, hallado con posterioridad a su muerte y publicado casi un siglo después en la ciudad francesa de Lyon. Los resultados los consigue como consecuencia del estudio de la combinatoria que él mismo desarrolla junto con su compatriota N. Fontana (más conocido como

Tartaglia, por su tartamudez). También plantea en sus escritos problemas sobre juegos con dos y tres dados.

En el libro anteriormente mencionado, Cardano expone conceptos como la equiprobabilidad, la esperanza matemática, elabora tablas de frecuencia para el juego de dados e incluso esboza lo que, 150 años después, sería la Ley de los Grandes Numeros.

Por esa misma época, un jugador italiano se puso en contacto con Galileo Galilei (1564-1642) para mostrarle su sorpresa al comprobar que “al jugar con tres dados a la suma 10, tenía más oportunidades de ganar que cuando jugaba a la suma 9”. Galileo dio la solución al problema planteado, pero sus trabajos fueron publicados por primera vez en 1656, omitiéndose el capítulo dedicado al juego de dados. No fue hasta 1718 cuando se dio a conocer la obra casi completa de Galileo.

En la sociedad francesa de 1650, el juego era un entretenimiento corriente. Debido a que cada vez se introducían más variantes y las cantidades apostadas subían desmesuradamente, se sintió la necesidad de encontrar un método racional para poder ganar. Apareció un noble llamado A. Gombaud, aunque más conocido con el nombre de Caballero de Mère, quien propuso al matemático francés Blaise Pascal (1623-1662) diversos problemas relacionados con estos juegos. En ellos le pedía explicaciones sobre algunas contradicciones aparentes entre su razonamiento teórico y las observaciones que había recogido experimentalmente a través del juego. Alguno de los problemas que Gombaud propuso a Pascal son:

a) Dos personas participan en un juego de azar, ganando la apuesta la primera que logre acumular un cierto número de puntos. Si los jugadores se ven forzados a suspender el juego antes de que éste haya terminado, conocido el número de puntos que ha acumulado cada uno de ellos, ¿Cómo deberá dividirse la apuesta?

b) En 24 tiradas con dos dados, gana el que obtenga al menos un seis doble ¿Qué es más fácil, ganar o perder?

c) ¿Por qué en el juego de tirar tres dados es más frecuente obtener la suma 11 que la suma 12?

Estos problemas permitieron establecer a Pascal correspondencia con otros matemáticos, como Pierre de Fermat. Esta correspondencia, producida sobre el año 1654, se considera el origen de la Teoría de la Probabilidad. Ambos matemáticos resolvieron los problemas propuestos de forma separada. Pascal utilizó su triángulo aritmético haciendo hipótesis sobre las apuestas de cada uno, en cambio Fermat se apoyó en el naciente cálculo combinatorio.

El físico, geómetra y astrónomo holandés C. Huygens (1629-1695) estuvo muy interesado en la correspondencia que existió entre Pascal y Fermat. Publicó, en su idioma natal, una memoria titulada “De Ratiociniis in Ludo Alae”, que es considerada hoy en día el primer trabajo impreso dedicado en exclusividad a la probabilidad. En el trabajo aparecen muchas de las resoluciones realizadas tanto por Pascal como por Fermat, junto con otros problemas interesantes acerca de las probabilidades en los juegos de azar.

En todos los juegos corrientes de azar con dados, monedas, ruletas, etc., cada una de las jugadas que pueden producirse debe dar como resultado uno de entre todos los

posibles. Si se da la circunstancia de que los aparatos están correctamente hechos, cabe suponer que todos los resultados posibles son equivalentes, mirado desde el punto de vista del juego. Esta forma de ver las cosas llevó a dar la definición clásica de probabilidad: “La probabilidad de que se presente determinado suceso es igual al número de casos que son favorables a este suceso dividido por el número total de casos posibles, con tal de que estos casos sean mutuamente simétricos”.

La definición anterior fue admitida de forma tácita por Pascal, Fermat, Laplace y todos sus contemporáneos.

Pero incluso en una primera época, la gran cantidad de observaciones experimentales realizadas con los juegos de azar había revelado una forma general de regularidad. Si en un juego en el cual cada vez se produce una jugada, hay m casos posibles simétricos, y realizamos n jugadas en total, a la larga (cuando n tiende a infinito) todos los casos posibles tienden a presentarse el mismo número de veces.

Se llama frecuencia relativa al cociente entre el número de veces que se presenta un determinado caso y el número total de veces que se repite el experimento, n. A la larga, cualquier suceso tiende a presentarse con una frecuencia relativa aproximadamente igual a su probabilidad.

Las principales dificultades pertenecen al dominio del análisis combinatorio. En cuanto dejamos a un lado los casos mas claros, surgen otros donde la dificultad de separar los casos favorables de los posibles es más grande. Por tanto, las controversias que aparecieron, terminaron por mostrar que la definición clásica de probabilidad no resultó completamente satisfactoria.

A partir del año 1700, comienza un rápido desarrollo de la teoría de la probabilidad.

El impulso vino dado por dos obras escritas por Bernouilli y De Moivre.

En la primera de ellas, encontramos una proposición muy importante conocida como Teorema de Bernouilli, que proporciona la base matemática de las propiedades de regularidad de ciertas razones frecuenciales en una larga serie de repeticiones de un juego.

Centrándonos en el primero de ellos, podemos decir que entre los discípulos más entusiastas de Leibniz se encontraban los hermanos Jakob y Johann Bernouilli. Pero tengamos presente que al menos doce Bernouilli de la misma familia destacaron en Física y Matemática. El primero de ellos, Jakob Bernouilli, fue el miembro más destacado en el estudio de cálculo de probabilidades. Escribió un tratado, conocido hoy como un clásico, titulado “Ars Conjectandi”, que se publicó en 1713 (ocho años después de su muerte). Podemos afirmar que es el primer tratado importante sobre la Teoría de Probabilidades. Consta de cuatro partes.

En la primera de ellas aparecen los trabajos de Huygens junto con un comentario personal del propio autor. La segunda parte contiene una teoría general sobre las combinaciones y permutaciones, lo cual le permite pasar a estudiar las distribuciones binomial y multinomial. Las dos últimas partes están dedicadas por entero a la Teoría de Probabilidades. Podemos destacar que la cuarta parte trata la Ley de los Grandes Números.

En la segunda de las obras, De Moivre enunció la regla de multiplicación de la teoría de probabilidades (probabilidad de la intersección de sucesos) y las primeras indicaciones sobre la distribución normal de probabilidades. En 1711 publicó su obra “Philosophical Transactions”, un largo estudio sobre las denominadas leyes del azar. Posteriormente, en 1718, publicó una ampliación de su trabajo anterior, en el que aparecen gran cantidad de problemas sobre dados, juegos, extracciones de bolas de una bolsa, anualidades de vida, etc. De Moivre estaba particularmente interesado en desarrollar toda la Teoría de Probabilidades con métodos muy generales, como si se tratara de una nueva Álgebra.

En 1733, estando exiliado en Londres, publicó un pequeño folleto donde aparece por primera vez la curva de distribución de los errores, que pasando el tiempo, y no reconociéndole dicho mérito, pasó a llamarse Distribución Normal de Gauss.

A partir de ese momento aparece una idea nueva. Se encontró que la teoría de la probabilidad, que había aparecido gracias a los juegos de azar, podía aplicarse a diversos problemas de campos muy distintos con buenos resultados. Estos otros problemas caían por completo fuera del campo de acción de la definición clásica de probabilidad ya vista.

Entre estos problemas tenemos las estadísticas sobre poblaciones humanas y la teoría de los seguros de vida. Pongamos un ejemplo del primero. Supongamos que observamos el sexo de una serie de niños recién nacidos. Podemos considerar estas observaciones como una serie de repeticiones de un cierto juego de azar. O también podemos anotar, dado un grupo de personas de una determinada edad, si a final de año viven o no. También podría ser considerado como un juego de azar con dos posibles resultados, vivo y fallecido. De esta forma resultó posible el cálculo de tablas de supervivencia, primas de seguros de vida, etc.

Pero quedaba algo pendiente. Debía especificarse que interpretación había que dar a los casos favorables y posibles cuando la definición caía fuera del dominio de los juegos de azar.

El resultado de este proceso de extensión de la definición apareció en las obras de Laplace, fundamentalmente en “Theorie Analytique des Probabilitès” de 1812. Sin embargo, se muestra poco crítico con la definición clásica, aplicándola para todo. El resultado fue que las aplicaciones se desarrollaron mucho, pero la teoría se estancó.

Durante todo este tiempo, tanto Gauss como Laplace utilizaron de forma independiente las aplicaciones al análisis numérico de los errores de medida, creando una teoría de errores sistemática. Tanto esta teoría, como el método de los mínimos cuadrados que se desarrolló junto con ella, han adquirido actualmente una gran importancia tanto teórica como práctica.

El gran desarrollo de los seguros de vida iniciado a principios del siglo XIX fue posible gracias al desarrollo de la matemática actuarial, que a su vez se basaba en la aplicación de la probabilidad a las estadísticas de mortalidad.

Incluso, la Teoría de la Probabilidad se ha llegado a aplicar a la Física Matemática. Aquí nos encontramos como las obras de Maxwell, Boltzman y Gibs sobre Mecánica

Estadística han sido muy importantes para el desarrollo de determinadas partes de la Física Moderna.

Durante el siglo XX, el desarrollo de la Probabilidad a continuado a gran ritmo. Y en el momento actual, tenemos la Teoría de la Probabilidad aplicada sobre campos tan distintos como la genética, la economía, la psicología y la ingeniería.

Es precisamente el siglo XX el que se puede caracterizar por una tendencia a la axiomatización. Podemos destacar, en especial, a Kolmogorov como creador del moderno cálculo de probabilidades. También tenemos a Pearson, Fisher, Neyman, Wald y Gosset, que fundamentaron la Inferencia Estadística, y le dieron carácter científico a algunas aplicaciones. Entre estas aplicaciones tenemos la Teoría de la Correlación y Regresión que, hasta ese momento, eran propias de la Estadística Descriptiva.

4. APLICACIONES A LAS CIENCIAS SOCIALES Y NATURALES.

Si buscamos aplicaciones de la Estadística en la Psicología, nos encontramos que se utiliza de forma práctica para la selección psicotécnica de los trabajadores y para la obtención de encuestas de opinión pública.

En la industria, tenemos aplicaciones en el control de calidad de los productos fabricados. También podemos encontrar usos de la Estadística en la Meteorología, la Balística, la Experimentación Agrícola, etc. Incluso en el campo de la Lingüística, para la determinación de la autoría de obras anónimas, o la verificación de otras.

En todos los casos se sigue el mismo método, conocido como método estadístico, el cual comprende varias etapas.

4.1. Recogida de Datos.

En cualquier campo de investigación (física, biología, medicina, etc.) los datos suelen ser procurados por el investigador. Tenemos campos como el económico y el sociológico en los cuales a veces los datos pueden procurarse de fuentes de información tales como estadísticas oficiales, hechas con fines distintos a los que se persiguen. Es por ello, que en estos casos la confianza que ofrecen los datos debe ser examinada antes de basar en ellos alguna conclusión. Dichas estadísticas oficiales reciben la forma de Censos, estadísticas en el tiempo y encuestas.

Los primeros, los censos, abarcan todo el espacio muestral que se quiere estudiar en un momento dado. Las Estadísticas observan de forma dinámica la evolución de un determinado fenómeno en periodos sucesivos de tiempo. Las encuestas tiene un carácter peculiar. Se realizan sobre muestras tomadas de colectivos, la cual se considera representativa. Esto da lugar a un nuevo problema y es determinar si la muestra es representativa. Aparece así la Teoría del Muestreo.

4.2. Elaboración de Datos.

Una vez obtenidos los datos hay que depurarlos. Después hay que darles forma y estudiar la manera más conveniente de presentarlos, llevarlos a una escala que resulte adecuada, tabularlos y agruparlos.

4.3. Reducción de los Datos.

En el proceso de reducción de los datos, nos vemos obligados a sacrificar elementos informativos a cambio de obtener mayor claridad y flexibilidad, algo necesario para el posterior tratamiento de los mismos. Esta fase dota de consistencia a los datos. Estamos ya en situación de calcular valores centrales, de dispersión, coeficientes de correlación, etc.

Para visualizar mejor los datos, es conveniente incluir gráficos, diagramas y cualquier otro elemento que permita disponer de una idea más clara sobre la distribución.

4.4. Análisis de los Datos.

En algunos estudios, interpretar los datos que representan la distribución es suficiente. En el resto, los cuales son mayoría, el objetivo final de la investigación estadística no es únicamente descriptivo. Los datos se consideran como valores observados de ciertas variables aleatorias, lo cual sugiere buscar un determinado modelo probabilístico que describa de forma adecuada la distribución.

Una vez planteada una determinada hipótesis de que la distribución se ajusta a un determinado modelo de distribución probabilística, hemos de aplicar medidas adecuadas para comprobar el grado de concordancia o la bondad del ajuste.

En otros muchos casos, deseamos estimar ciertos parámetros desconocidos de la población a partir de la muestra elegida, como son la media, varianza, cuartiles, mediana, desviación típica, etc. Siempre será posible si la muestra elegida es aleatoria o representativa del conjunto de la población.

Vemos por tanto que en cualquiera de estos casos se deben tomar decisiones estadísticas.

5. TOMA DE DECISIONES.

5.1. Hipótesis Estadísticas.

Llamaremos Decisiones Estadísticas a aquellas decisiones que se tienen que tomar sobre poblaciones partiendo de la información proporcionada por muestras.

Para poder tomar decisiones de forma adecuada, es conveniente hacer determinadas suposiciones sobre las poblaciones que se estudian. Llamaremos Hipótesis Estadísticas a estas conjeturas, las cuales pueden ser ciertas o no serlo.

Las hipótesis pueden no ser ciertas ya que en determinadas situaciones se formulan con el único objetivo de poder rechazarlas o invalidarlas. En otras ocasiones, en el caso de que se quiera decidir si un procedimiento es mejor que otro, se puede formular una hipótesis que diga que no existe diferencia entre los procedimientos en cuestión. Tales hipótesis reciben el nombre de hipótesis nulas.

Si dada una hipótesis que suponemos es cierta, encontramos que los resultados observados son muy distintos de los que cabría esperar según la hipótesis, podremos decir que las diferencias observadas son significativas, y estaremos en condiciones de rechazar la hipótesis.

Diremos que se ha cometido un Error de Tipo I cuando es rechazada una hipótesis que debía ser aceptada. El Error es de Tipo II si la hipótesis es aceptada cuando tenía que haber sido rechazada.

Todos los ensayos de hipótesis deben ser diseñados de forma que se minimicen los errores de decisión. Lo que sucede es que cuando se intenta disminuir el error de uno de los tipos se aumenta el otro. La única forma de disminuir los dos errores es aumentando la muestra, cosa que a veces no resulta posible.

Llamaremos Nivel de Significación del Ensayo la probabilidad máxima con la que en un ensayo de hipótesis se puede cometer un error de tipo I. En la práctica se utilizan los valores 0’05 ó 0’01. Así, un nivel de significación del 5% (0’05) significa que de cada 100 ocasiones en las que se rechaza la hipótesis, en cinco de ellas debía ser aceptada. Existe por tanto un 95% de confianza de que se está tomando la decisión adecuada.

Existen muchos tipos de ensayos. Comentaremos algunos referentes a la distribución normal.

Supongamos que con una cierta hipótesis dada, la distribución muestral de un estadístico X es normal con media m y desviación típica s. entonces, la distribución de

la variable tipificada Y = X m

cr

es una normal tipificada.

Podemos estar con el 95% de confianza de que, si la hipótesis es cierta, el valor de Y obtenido de una muestra real para el estadístico X se halla entre –1’96 y 1’96, ya que el área bajo la normal entre estos valores es 0’95.

Pero resulta que si al elegir una muestra al azar encontramos que Y está fuera del intervalo [–1’96, 1’96], entonces Y difiere significativamente de lo es era esperable, siendo la hipótesis rechazada con un 5% de Nivel de Significación.

5.2. Otros Procesos de Decisión.

Veamos un ejemplo para poder introducir de forma sencilla las ideas generales de otros procesos de decisión.

“Un vendedor de revistas hace semanalmente un pedido de revistas, cuyo coste por unidad es de 2’5 € y su precio de venta al público de 3 €. Cada unidad no vendida en el día supone una pérdida de 0’05 €. La demanda diaria puede ser 0, 1 ó 2 unidades, pero no es conocida la ley de probabilidad. El problema está en buscar la decisión óptima con el criterio de obtener la ganancia máxima. Para esto se tiene el esquema siguiente:

a/b

0

1

2

1

-0’05

0’5

0’5

2

-0’10

0’45

1

“a” indica la variable de decisión o alternativa (unidades encargadas de forma diaria) y “b” indica las posibles demandas o estados del ambiente. Los elementos de la matriz son los resultados (las ganancias).

Es posible elaborar un árbol de decisión (un grafo en árbol). La decisión mejor sería la que hiciera máxima la esperanza matemática de la ganancia. Así resulta que si los estados de ambiente son equiprobables, la esperanza valdría en un caso 0’95/3 y en el otro 1’35/3, con lo que debería encargar dos revistas diarias. Pero si no sabemos nada de dicha probabilidad, tendremos que elegir un criterio diferente. Se entiende así que el esquema de un proceso de Bayes sea también un proceso de toma de decisiones, aunque el mayor problema es calcular las probabilidades condicionadas que nos encontramos.

5.3. Predicción.

La palabra predicción debemos entenderla en un sentido muy amplio, el cual está relacionado con la posibilidad de responder a preguntas del tipo ¿qué va a ocurrir en determinadas condiciones? ¿qué medida debemos tomar para obtener un determinado resultado?.

La predicción es, por tanto, el fin último de la ciencia. Así, una planificación racional de un sistema educativo, o de una central telefónica, o de la necesidad de un hipermercado, requiere de la predicción.

La fiabilidad de la predicción que se efectúe vendrá determinada por la información, si tenemos o no, sobre las distribuciones de probabilidad ajustadas, lo que nos dice que la toma de decisiones es en sí una predicción.

BIBLIOGRAFÍA RECOMENDADA

Iniciación a la Estadística. Aut. Sixto Rios. Edit. Paraninfo.

Teoría de Probabilidades y Aplicaciones. Aut. Cramer. Edit Aguilar. Estadística Teórica y Aplicada. Aut. A. Nortes. Edit. PPU

Salir de la versión móvil