sábado, 31 de mayo de 2014

Regla de la suma

La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier evento en particular es igual a la suma de las probabilidades individuales, si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo.
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente. P(A o B) = P(A) + P(B) − P(A y B) si A y B son no excluyentes.
Siendo: P(A) = probabilidad de ocurrencia del evento A. P(B) = probabilidad de ocurrencia del evento B. P(A y B) = probabilidad de ocurrencia simultánea de los eventos A y B.

Ejemplo:


1) Sea A el suceso de sacar un As de una baraja estándar de 52 cartas y B sacar una carta con corazón rojo. Calcular la probabilidad de sacar un As o un corazón rojo o ambos en una sola extracción.

Solución:

A y B son sucesos no mutuamente excluyentes porque puede sacarse el as de corazón rojo.

Las probabilidades son:



Reemplazando los anteriores valores en la regla general de la adición de probabilidades para eventos no mutuamente excluyentes se obtiene:



Regla de la multiplicación

La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos estadísticamente independientes es igual al producto de sus probabilidades individuales.
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes. P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes

Ejemplo:
¿Cuál es la probabilidad de obtener dos veces el mismo lado en dos lanzamientos de una moneda?
En vista de que la probabilidad de que caiga un lado es 1/2 en cada lanzamiento y los dos son independietes, la probabilidad es:
P(A)= 1/2
P(B)= 1/2
P(AnB) = (1/2) (1/2)= 1/4

Distribución maestral




El diagrama de árbol es muy útil para visualizar las probabilidades condicional y conjunta y en particular para el análisis de decisiones administrativas que involucran varias etapas.
EJEMPLO: una bolsa contiene 7 fichas rojas (R) y 5 azules (B), se escogen 2 fichas, una después de la otra sin reemplazo. Construya el diagrama de árbol con esta información.

Probabilidad





La probabilidad es una medición numérica que va de 0 a 1 de la posibilidad de que un evento ocurra. Si da cerca de 0 es improbable que ocurra el evento y si da cerca de uno es casi seguro que ocurra.

P (a): nº de resultados en que ocurra a
Nº de resultados posibles

Tipos de sucesos:

*Exhaustivo: se dice que dos o más sucesos son exhaustivos si se consideran todos los posibles resultados.
Simbólicamente: p (A o B o...) = 1

*No exhaustivos: se dice que dos o más sucesos son exhaustivos si no cubren todos los posibles resultados.
*Mutuamente excluyentes: sucesos que no pueden ocurrir en forma simultánea:
P(A y B) = 0 y p(A o B) = p(A) + p (B)
Ejemplo: hombres, mujeres

*No mutuamente excluyentes: sucesos que pueden ocurrir en forma simultánea:
P (A o B) = p (A) + p (B) ? p (A y B)
Ejemplo: hombres, ojos cafés
*Independientes: Sucesos cuya probabilidad no se ve afectada por la ocurrencia o no ocurrencia del otro :
P ( AI B ) = P ( A ); P ( BIA ) = P (B) Y P (A Y B) = P(A) P(B)
Ejemplo: sexo y color de ojos
*Dependientes: sucesos cuya probabilidad cambia dependiendo de la ocurrencia o no ocurrencia del otro:
P ( AI B ) difiere de p (A); P ( BIA ) difiere de P(B);
Y P (A Y B)= P ( A ) P ( BIA )= P (B) P ( AI B )
Ejemplo: raza y color de ojos

Medidas de dispersión


Identificar una de las medidas de tendencia central rara vez es suficiente para describir de manera más completa a los datos. Una descripción más completa del conjunto de datos, puede obtenerse si se mide qué tan dispersos están los datos alrededor de ese punto central, en otras palabras, que tan cerca o que tan lejos pueden estar los datos con relación al punto central. Y eso es lo que hacen las medidas de dispersión, que indican cuanto se desvían las observaciones alrededor de ese punto central .La dispersión se relaciona con la concentración (mayor o menor) de los datos en torno a un valor central, generalmente la media.

Nombre
Concepto
Formula
Varianza
Es una medida de variabilidad que da cuenta del grado de homogeneidad de un grupo de observaciones
s²=
Desviación estándar
Nos permite determinar el promedio aritmético de fluctuación de los datos respecto a su punto central o media. La desviación estándar nos da como resultado un valor numérico que representa el promedio de diferencia que hay entre los datos y la media.
s=
Rango
Es el intervalo entre el valor máximo y el valor mínimo
Dmayor-Dmenor


Medidas de tendencia central

Una de las etapas principales en la investigación estadística es la tabulación y descripción de los resultados, los cuales se pueden presentar por medio de tablas y gráficas, también en esta etapa se calculan las medidas descriptivas.
Medidas de tendencia central
Las medidas de tendencia central son valores que se ubican al centro de un conjunto de datos ordenados según su magnitud:

Nombre
Concepto
Formula
Media aritmética
La media aritmética es la medida de posición utilizada con más frecuencia. Si se tienen n valores de observaciones, la media aritmética es la suma de todos y cada uno de los valores dividida entre el total de valores: Lo que indica que puede ser afectada por los valores extremos, por lo que puede dar una imagen distorsionada de la información de los datos


 \bar{x} = \frac{1}{n} \sum_{i=1}^{n} a_i = \frac{a_1+a_2+\cdots+a_n}{n}
Mediana
Es el valor que ocupa la posición central en un conjunto de datos, que deben estar ordenados, de esta manera la mitad de las observaciones es menor que la mediana y la otra mitad es mayor que la mediana, resulta muy apropiada cuando se poseen observaciones extremas.

Me=n/2
Moda
Es el valor de un conjunto de datos que aparece con mayor frecuencia. No depende de valores extremos, pero es más variables que la media y la mediana.
Se obtiene el valor por observación

Estadística


Stevenson (1981) define a la estadística como el conjunto de teorías y métodos que han sido desarrollados para tratar la recolección, el análisis y la descripción de datos muéstrales con el fin de extraer conclusiones útiles


ü    MÉTODOS ESTADÍSTICOS
Es un conjunto de procedimientos y técnicas, con un orden lógico que tiene por objeto recopilar, por elaboración, presentación y análisis de la información necesaria para la comprobación de la hipótesis.Por ejemplo: la encuesta


ü    FASES O ETAPAS DE LOS MÉTODOS ESTADÍSTICOS.
    ·         Recolección
    ·         Organización
    ·         Presentación
    ·         Análisis
    ·         Interpretación


ü    CLASIFICACIÓN DE LA ESTADÍSTICA:
·           Estadística Descriptiva.- Consiste en organizar, resumir, simplificar información  que a menudo es bastante compleja. El objeto es hacer que las cosas se comprendan más fácilmente. Requiere del uso de modelos numéricos y gráficos para resumir y presentar datos.
Quedan en esta categoría; el índice de desempleo, el costo de la vida, la  precipitación pluvial, los promedios de calificación y el promedio industrial.
El proceso que sigue la estadística descriptiva para el estudio de una cierta población consta de los siguientes pasos:
*Selección de caracteres dignos de ser estudiados.
*Mediante encuesta o medición, obtención del valor de cada individuo en los caracteres seleccionados.
*Elaboración de tablas de frecuencias, mediante la adecuada clasificación de los individuos dentro de cada carácter.
*Representación gráfica de los resultados (elaboración de gráficas estadísticas).
*Obtención de parámetros estadísticos, números que sintetizan los aspectos más relevantes de una distribución estadística.
·           Estadística Probabilística.-  Estudia la probabilidad en los eventos donde intervienen los factores al azar. Ejemplo: Los deportes. 
·           Estadística Inferencial.- Consiste en el análisis e interpretación de una muestra de datos. La idea básica en el muestreo es medir una porción pequeña, pero representativa de alguna población, y después utilizar dicha información para inferir que características tiene la población.



ü  FUENTES DE DATOS 
         Los datos estadísticos se obtienen mediante un proceso que comprende la observación o medición de variables, ya que producen valores que tienden a mostrar cierto grado de variabilidad, al efectuarse mediciones sucesivas.
Una variable es una característica de interés de los elementos
Las variables pueden ser de dos tipos:
*Variables cualitativas o atributos: no se pueden medir numéricamente (por ejemplo: nacionalidad, color de la piel, sexo).
*Variables cuantitativas: tienen valor numérico (edad, precio de un producto, ingresos anuales).

Se manejan  cuatro tipos de datos:
*Variable discretas.- Es la que puede asumir solo valores enteros y los datos discretos  resultan al contar el número de conceptos que posee ciertas características (número de clientes por día, alumnos por salón, etc.)
*Variables continua.-  Pueden asumir cualquier valor en un intervalo continuo y los datos se obtienen de todas las medidas (altura, peso, velocidad, temperatura, etc.)
*Variables nominales.- Comprenden categorías que por naturaleza no son numéricos (sexo, color de ojos, grado de estudio). Y luego se procede a contar cada uno de los elementos.
*Variables Jerarquizadas.- Constan de valores relativos asignados para denotar orden: Primero, segundo, tercero…

Cuando se estudia el comportamiento de una variable hay que distinguir los siguientes conceptos:
Individuo: cualquier elemento que porte información sobre el fenómeno que se estudia. Así, si estudiamos la altura de los niños de una clase, cada alumno es un individuo; si estudiamos el precio de la vivienda, cada vivienda es un individuo.
Población: conjunto de todos los individuos (personas, objetos, animales, etc.) que porten información sobre el fenómeno que se estudia. Por ejemplo, si estudiamos el precio de la vivienda en una ciudad, la población será el total de las viviendas de dicha ciudad.

Muestra: subconjunto que seleccionamos de la población. Así, si se estudia el precio de la vivienda de una ciudad, lo normal será no recoger información sobre todas las viviendas de la ciudad (sería una labor muy compleja), sino que se suele seleccionar un subgrupo (muestra) que se entienda que es suficientemente representativo.

Historia de la Estadistica y Probabilidad


Es una ciencia con tanta antigüedad como la escritura, y es por sí misma auxiliar de todas las ciencias –medicina, ingeniería, sociología, psicología, economía, etcétera–, así como de los gobiernos, mercados y otras actividades humanas.
Desde los comienzos de la civilización han existido formas sencillas de estadísticas, pues ya se utilizaban representaciones gráficas y otros símbolos en pieles, rocas, palos de madera y paredes de cuevas para contar el número de personas, animales y otras cosas.
Hacia el año 3000 a. de C. los babilonios utilizaban ya pequeñas tablillas de arcilla para recopilar datos sobre la producción agrícola y los géneros vendidos o cambiados mediante trueque.
En el antiguo Egipto, los faraones lograron recopilar, alrededor del año 3050 a. de C., prolijos datos relativos a la población y la riqueza del país; de acuerdo con el historiador griego Heródoto, dicho registro de la riqueza y la población se hizo con el propósito de preparar la construcción de las pirámides. En el mismo Egipto, Ramsés II hizo un censo de las tierras con el objeto de verificar un nuevo reparto.
En el antiguo Israel, la Biblia da referencia, en el libro de los Números, de los datos estadísticos obtenidos en dos recuentos de la población hebrea. El rey David, por otra parte, ordenó a Joab, general del ejército, hacer un censo de Israel con la finalidad de conocer el número de habitantes, y el libro Crónicas describe el bienestar material de las diversas tribus judías.
En China ya había registros numéricos similares con anterioridad al año 2000 a. de C. Los griegos, hacia el año 594 a. de C., efectuaron censos periódicamente con fines tributarios, sociales (división de tierras) y militares (cálculo de recursos y hombres disponibles). La investigación histórica revela que se realizaron 69 censos para calcular los impuestos, determinar los derechos de voto y ponderar la potencia guerrera.
Pero fueron los romanos, maestros de la organización política, quienes mejor supieron emplear los recursos de la estadística. Cada cinco años llevaban a cabo un censo de la terpoblación, y los funcionarios públicos tenían la obligación de anotar nacimientos, defunciones y matrimonios, sin olvidar los recuentos periódicos del ganado y de las riquezas contenidas en las tierras conquistadas. En la época del nacimiento de Cristo sucedía uno de estos empadronamientos de la población bajo la autoridad del Imperio.
En la Edad Media, en el año 762, Carlomagno ordenó la creación de un registro de todas sus propiedades, así como de los bienes de la iglesia.
Después de la conquista normanda de Inglaterra en 1066, el rey Guillermo I, el Conquistador, elaboró un catastro que puede considerarse el primero de Europa.
Los Reyes Católicos ordenaron a Alonso de Quintanilla en 1.482 el recuento de fuegos (hogares) de las provincias de Castilla.
En 1.662 un mercader de lencería londinense, John Graunt, publicó un tratado con las observaciones políticas y naturales, donde Graunt pone de manifiesto las cifras brutas de nacimientos y defunciones ocurridas en Londres durante el periodo 1.604-1.661, así como las influencias que ejercían las causas naturales, sociales y políticas de dichos acontecimientos. Puede considerarse el primer trabajo estadístico serio sobre la población.
Curiosamente, Graunt no conocía los trabajos de B. Pascal » (1.623-1.662) ni de C. Huygens(1.629-1.695) sobre estos mismos temas. Un poco más tarde, el astrónomo Edmund Halley (1.656- 1.742) presenta la primera tabla de mortalidad que se puede considerar como base de los estudios contemporáneos. En dicho trabajo se intenta establecer el precio de las anualidades a satisfacer a las compañías de seguros. Es decir, en Londres y en París se estaban construyendo, casi de manera simultánea, las dos disciplinas que actualmente llamamos estadística y probabilidad.
En el siglo XIX, la estadística entra en una nueva fase de su desarrollo con la generalización del método para estudiar fenómenos de las ciencias naturales y sociales. Galton » (1.822-1.911) y Pearson (1.857-1936) se pueden considerar como los padres de la estadística moderna, pues a ellos se debe el paso de la estadística deductiva a la estadística inductiva.
A partir de mediados del siglo XX comienza lo que podemos denominar la estadística moderna, uno de los factores determinantes es la aparición y popularización de los computadores. El centro de gravedad de la metodología estadística se empieza a desplazar técnicas de computación intensiva aplicadas a grandes masas de datos, y se empieza a considerar el método estadístico como un proceso iterativo de búsqueda del modelo ideal.

Actualmente la estadística es una herramienta muy utilizada para realizar encuestas o formar nuevas estadísticas, es común utilizar esta herramienta en la vida cotidiana un ejemplo claro seria las campañas o comicios electorales, pero es preciso destacar que no solo en las campañas se utiliza la estadística también hacemos uso de ellas en nuestras instituciones educativas.
Hoy por hoy la estadística se enfoca en tres campos como lo es la estadística cuantitativa la cual versa en el estado, la estadística social la cual se fundamenta en la población y la más genera que es la estadística metodológica la cual es aplicada en cualquier fenómeno.
En este mismo orden de ideas se puede decir que la estadística es herramienta fundamental en la educación puesto que con el estudio de ella nos permitirá tomar decisiones con fundamentos. 
La Estadística puede dar respuesta a muchas de las necesidades que la sociedad actual nos plantea. Su tarea fundamental es la reducción de datos, con el objetivo de representar la realidad y transformarla, predecir su futuro o simplemente conocerla
La estadística por principio de cuentas la utilizan los expertos para el análisis en áreas de comercialización, contabilidad, control de calidad, consumidores, deportes, administración de hospitales, educación, política, medicina, etc., como por ejemplo: Encuestas tendencias, dispersiones, frecuencias así como cualquier área de control que requiera cuantificar su información.



PROBABILIDAD

La historia de la probabilidad comienza en el siglo XVII cuando Pierre Fermat » y Blaise Pascal »tratan de resolver algunos problemas relacionados con los juegos de azar. Aunque algunos marcan sus inicios cuando Cardano (jugador donde los haya) escribió sobre 1520 El Libro de los Juegos de Azar (aunque no fué publicado hasta más de un siglo después, sobre 1660) no es hasta dicha fecha que comienza a elaborarse una teoría aceptable sobre los juegos.


Christian Huygens conoció la correspondencia entre Blaise Pascal y Pierre Fermat suscitada por el caballero De Méré, se planteó el debate de determinar la probabilidad de ganar una partida, y publicó (en 1657) el primer libro sobre probabilidad: De Ratiociniis in Ludo Aleae, (Calculating inGames of Chance), un tratado sobre juegos de azar.Se aceptaba como intuitivo el concepto de equiprobabilidad, se admitía que la probabilidad de conseguir un acontecimiento fuese igual al cociente entre

Durante el siglo XVIII, debido muy particularmente a la popularidad de los juegos de azar, el cálculo de probabilidades tuvo un notable desarrollo sobre la base de la anterior definición de probabilidad. Destacan en 1713 el teorema de Bernoulli y la distribución binomial, y en 1738 el primer caso particular estudiado por De Moivre » , del teorema central del límite. En 1809 Gauss » inició el estudio de la teoría de errores y en 1810 Laplace, que había considerado anteriormente el tema, completó el desarrollo de esta teoría. En 1812 Pierre Laplace » publicó Théorie analytique des probabilités en el que expone un análisis matemático sobre los juegos de azar.

A mediados del siglo XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de la herencia, la genética, con sus interesantes experimentos sobre el cruce de plantas de diferentes características. Su obra, La matemática de la Herencia, fue una de las primeras aplicaciones importantes de la teoría de probabilidad a las ciencias naturales

Desde los orígenes la principal dificultad para poder considerar la probabilidad como una rama de la matemática fue la elaboración de una teoría suficientemente precisa como para que fuese aceptada como una forma de matemática. A principios del siglo XX el matemático ruso Andrei Kolmogorov » la definió de forma axiomática y estableció las bases para la moderna teoría de la probabilidad que en la actualidad es parte de una teoría más amplia como es la teoría de la medida.

martes, 29 de abril de 2014

Problemas

Ley de los cosenos

Ejemplo:

En el siguiente triángulo α= 60°, b= 3m y c=4m. ¿Cuánto es a?



Estrategia:

Los datos son:

α = 60°

b= 3m


c = 4m

a=?




La ecuación a utilizar es:



Reemplaza los valores en la ecuación como se demuestra a continuación:

a2= b2 + c2– 2bc cos α

a2= (3m)2 + (4m)2– (2) (3m) (4m) cos 60°

a2= 9m2 + 16m2 – (24m2) (0.8660)

a2= 25m2 – (24m2) (0.5) =


a2= 25m2 – 12m2

a2= 13m2

Ahora hay que buscar la raíz cuadrada usando la calculadora:




La respuesta es: la medida del lado a es 3.6m

Problemas

Ley de los senos

  • Ejemplo 1:


Encuentra la medida del lado b para el triángulo ABC según demostrado en la siguiente figura:






Estrategia para resolver el ejercicio:

Determina los datos:

a=10m

A=30°

B =40°


b = ?


Utiliza la siguiente ecuación:






Despeja para la desconocida:



Teoremas para resolver triángulos oblicuos

Ley de los senos

La ley de los senos se usa para encontrar los ángulos de un triángulo en general. Se se conocen dos lados y el ángulo comprendido entre ellos dos, se puede usar junto con la ley de los cosenos para encontrar el tercer lado y los otros dos ángulos.

Si se especifican dos lados y el ángulo opuesto a uno de ellos, entonces se puede calcular el ángulo opuesto al otro. El tercer ángulo se determina por el hecho de que la suma de los ángulos interiores de un triángulo debe ser igual a 180 grados.






Ley de los cosenos

La ley de los cosenos para el cálculo de uno de los lados de un triángulo cuando se conocen el ángulo opuesto y los otros dos lados. Puede ser utilizado en conjunción con la ley de los senos para encontrar todos los lados y ángulos.

Identidades trigonométricas

Una identidad trigonométrica es una igualdad entre expresiones que contienen funciones trigonométricas y es válida para todos los valores del ángulo en los que están definidas las funciones (y las operaciones aritméticas involucradas).

Relación pitagórica
Identidad de la razón


De estas dos identidades, se puede extrapolar la siguiente tabla. Sin embargo, nótese que estas ecuaciones de conversión pueden devolver el signo incorrecto (+ ó −). Por ejemplo, si la conversión propuesta en la tabla indica que , aunque es posible que . Para obtener la única respuesta correcta se necesitará saber en qué cuadrante está θ.
Funciones trigonométricas en función de las otras cinco.En términos de   










De las definiciones de las funciones trigonométricas:

Son más sencillas de probar en la circunferencia trigonométrica o goniométrica (que tiene radio igual a 1):

A veces es importante saber que cualquier combinación lineal de una serie de ondas senoidales que tienen el mismo período pero están desfasadas, es también una onda senoidal del mismo período pero con un desplazamiento de fase diferente. Dicho de otro modo:

Es llamada identidad trigonométrica fundamental, y efectuando sencillas operaciones permite encontrar unas 24 identidades más, muy útiles para problemas introductorios del tipo conocido el valor de la función seno, obtenga el valor de las restantes (sin tabla ni calculadora).

Por ejemplo, si se divide ambos miembros de "sen² + cos² = 1" por cos², se obtiene:

Ahora, dividiendo ambos miembros de la misma expresión por el sen², se obtiene:

Entonces puede expresarse la función seno según alguna otra conocida:


Ejemplo 2:

Utilizando la identidad


Entonces:


(*)

substituyendo en (*):


Realizando las operaciones necesarias se llega a:


Y queda demostrado.

El resto de las funciones se realiza de manera análoga.