Introducción a la estadística matemática - Humberto Llinás Solano - E-Book

Introducción a la estadística matemática E-Book

Humberto Llinás Solano

0,0
6,49 €

oder
-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.

Mehr erfahren.
Beschreibung

Este manual fue desarrollado a partir de las notas de clases de la asignatura Estadística Matemática, impartida por el autor en los programas de postgrados de Estadística e Ingeniería de la Universidad del Norte (Colombia). Consta de cinco capítulos: Preliminares, Distribuciones muestrales, Estimación, Intervalos de confianza y Pruebas de hipótesis; al final de cada capítulo se presenta una serie de ejercicios que permitirán a los estudiantes afianzar sus destrezas frente a los temas tratados.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB

Veröffentlichungsjahr: 2018

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Introducción a la Estadística Matemática

Introducción a la Estadística matemática

Humberto Llinás Solano

Llinás Solano, Humberto.

Introducción a la estadística matemática / Humberto Llinás Solano. — Barranquilla, Col. : Editorial Universidad del Norte, reimp., 2018.

xxxi, 205 p. : il., tablas ; 24 cm.

Incluye referencias bibliográficas (p.197-202) e índice.

ISBN 978-958-741-443-1 (impreso)

ISBN 978-958-741-922-1 (epub)

I. Estadística matemática. II. Probabilidades. 1. Tít.

(519.2 L791em 23 ed.) (CO-BRUNB)

Vigilada Mineducación

www.uninorte.edu.co

Km 5, vía a Puerto Colombia, A.A. 1569

Área metropolitana de Barranquilla (Colombia)

www.ecoeediciones.com

Carrera 19n.° 63C-32

Bogotá (Colombia)

© Universidad del Norte, 2018 Humberto Llinás Solano

Primera edición, abril de 2014

Primera reimpresión, julio de 2016

Segunda reimpresión, enero de 2018

Coordinación editorial

Zoila Sotomayor O.

Maquetación

Humberto Llinás Solano

Procesos técnicos

Munir Kharfan de los Reyes

Diseño de portada

Andrés Racedo

Corrección de textos

Henry Stein

Desarrollo ePub

Lápiz Blanco S.A.S.

Hecho en Colombia

Made in Colombia

© Reservados todos los derechos. Queda prohibida la reproducción total o parcial de esta obra por cualquier medio reprográfico, fónico o informático, así como su transmisión por cualquier medio mecánico o electrónico, fotocopias, microfilm, offset, mimeográfico u otros sin autorización previa y escrita de los titulares del copyright. La violación de dichos derechos puede constituir un delito contra la propiedad intelectual.

El autor

HUMBERTO LLINÁS SOLANO

Licenciado en Ciencias de la Educación, con énfasis en Matemáticas, Física y Estadística de la Universidad del Atlántico (Colombia). Magister en Matemáticas, convenio Universidad del Valle-Universidad del Norte (Colombia). Doctor en Estadística (Dr. rer. nat.) de la Universidad Johannes Gutenberg de Mainz (Alemania). Desde 1998 se desempeña como profesor de tiempo completo de la Universidad del Norte y forma parte de los grupos de investigación de dicha institución Matemáticas y Enfermedades tropicales. Autor de los siguientes textos1:

•Estadística descriptiva y distribuciones de probabilidad (2005, [61])

•Estadística inferencial (2006, [62])

•Una visión histórica del concepto moderno de integral (como editor, 2006, [52])

•Medida e integración (2007, [63])

•Applets de estadística (2007, [65])

•Introducción a la estadística con aplicaciones en Ciencias Sociales (2012, [66])

•Procesos estocásticos con aplicaciones (como coautor, 2013, [1])

•Introducción a la teoría de la probabilidad (2014, [67])

1Se cita el título del texto o applet, el año de publicación y la referencia bibliográfica respectiva. Cuando es necesario, un comentario adicional.

Contenido

Prefacio

Introducción

Convenciones y preliminares

1 Preliminares

1.1 Algunas distribuciones de probabilidad

1.1.1 Distribuciones especiales

1.1.2 Relaciones entre algunas distribuciones

1.2 Vectores aleatorios discretos y continuos

1.3 Variables aleatorias independientes

1.4 Convoluciones

1.5 Teoremas de transformación

1.6 Teoremas de convergencias

1.6.1 Propiedades que se cumplen casi seguro

1.6.2 Tipos de convergencia

1.6.3 Ley de los grandes números

1.7 Teorema central del límite

Breve biografía de J. Bernoulli y A. N. Kolmogorov

Ejercicios

2 Distribuciones muestrales

2.1 Modelos estadísticos

2.2 Estadísticos y distribuciones muestrales

2.2.1 Estadístico

2.2.2 Distribución muestral

2.3 Distribución muestral de la media

2.4 Distribución muestral de la proporción

2.5 Distribución muestral de la diferencia de medias

2.5.1 El caso de muestras independientes

2.5.2 El caso de muestras dependientes o pareadas

2.6 Distribución muestral de la diferencia de proporciones

2.7 Distribución muestral de la varianza

2.8 Distribución muestral de la razón de varianzas

Breve biografía de H. Cramér y W. Gosset

Ejercicios

3 Estimación

3.1 Términos básicos

3.2 Criterios para examinar estimadores

3.2.1 Insesgo

3.2.2 Eficiencia

3.2.3 Varianza mínima

3.2.4 Consistencia

3.2.5 Suficiencia

3.3 Métodos clásicos de estimación

3.3.1 Método de momentos

3.3.2 Método de máxima verosimilitud (ML-estimación)

Breve biografía de R. Fisher

Ejercicios

4 Intervalos de confianza

4.1 Introducción

4.1.1 Intervalo de confianza

4.1.2 Intervalo de confianza como estimación

4.2 Intervalos de confianza para la media

4.3 Intervalo de confianza para la proporción

4.4 Intervalos de confianza para la diferencia de dos medias (muestras independientes)

4.4.1Primer caso: varianzas poblacionales conocidas o desconocidas y muestras grandes

4.4.2Segundo caso: varianzas poblacionales iguales, desconocidas y muestras pequeñas

4.4.3Tercer caso: varianzas poblacionales diferentes, desconocidas y muestras pequeñas

4.5 Intervalos de confianza para la diferencia de dos medias (muestras dependientes o pareadas)

4.6 Intervalo de confianza para la diferencia de dos proporciones poblacionales

4.7 Intervalos de confianza para la varianza

4.8 Intervalos de confianza para la razón de varianzas

Breve biografía de K. Pearson

Ejercicios

5 Pruebas de hipótesis

5.1 Preliminares

5.1.1 Hipótesis estadística, nula y alternativa

5.1.2 Pasos para realizar una prueba de hipótesis

5.1.3 Criterio del error de tipo I

5.1.4 Criterio del P-valor

5.1.5 Criterio de los errores de tipo I y II

5.1.6 Medición de la potencia de un contraste

5.2 Pruebas de la razón de verosimilitud

5.2.1 Pasos para la prueba de la razón de verosimilitud

5.2.2 Pasos para la LR-prueba en problemas concretos

5.2.3 Ejemplos

Breve biografía de J. Neyman

Ejercicios

A Apéndice de resultados

B Apéndice de tablas

1. Distribución binomial

2. Distribución de Poisson

3. Distribución normal estándar

4. Valores críticos para la distribución t

5. Distribución chi-cuadrada

6. Valores críticos para la distribución F

7. Algunas distribuciones discretas

8. Algunas distribuciones continuas

9. Resumen de distribuciones muestrales e intervalos

Bibliografía y referencias

Prefacio

No habrá desarrollo sin educación ni progreso sin cultura.(ALBERTO ASSA)2

Acerca de este libro

Este libro fue desarrollado a partir de un conjunto de notas de clases sobre la asignatura Estadística Matemática en los programas de postgrados Estadística eIngeniería de la Universidad del Norte, pero está dirigido a un público amplio.

Estructura

Este texto consta de:

•Cinco capítulos. En el capítulo 1 se hace un repaso general de los conceptos básicos de la teoría de probabilidad; el 2 lo iniciamos con algunos conceptos básicos y terminologías referentes a las distribuciones de algunos estadísticos; en el 3 planteamos la teoría concerniente a las estimaciones y algunos métodos de estimación; en el 4 explicamos la estimación por intervalos; finalmente, en el 5 exponemos los diferentes procedimientos de pruebas de hipótesis.

Cada sección (y algunos capítulos) comienza con el acontecimiento histórico más importante relacionado con cada capítulo.

Al final de cada capítulo se presenta una serie de ejercicios correspondientes a los temas desarrollados en el mismo. Antes del primer capítulo se introduce una lista de las notaciones más usuales y especiales presentadas en el texto. Obviamente, algunas de las secciones y temas pueden ser omitidos sin que esto haga perder continuidad; ello está sujeto al criterio de la persona que dirija el curso.

Además de desarrollar matemáticamente los aspectos más importantes relacionados con la teoría de la probabilidad, también se presentan muchas citas originales y sugerencias acerca del desarrollo histórico de la misma, así como sus fuentes correspondientes. Por motivos claros, no fue posible presentar una representación detallada de toda la historia. De todas formas, espero que los datos suministrados le permitan al lector tener un enfoque general del desarrollo histórico de la misma, para que se interese por los datos originales.

Para no olvidar la importancia del aspecto humano, se presentan biografías breves de algunos matemáticos (en algunos casos con sus respectivas fotografías) que han contribuido significativamente al desarrollo de los temas tratados en este texto.

•Dos apéndices. En el primero se resumen los resultados más importantes del análisis matemático que se aplicaron en los teoremas introducidos en el texto; en el segundo se presentan las tablas estadísticas de uso frecuente, como la binomial, la de Poisson, la normal, t de Student, chicuadrada y F de Fisher.

• Una bibliografía en la que se relacionan los documentos y libros consultados, citados o no, usados para la elaboración de este texto.

• Un índice de los términos más importantes utilizados en el texto.

Signos convencionales utilizados en este texto

• En este texto se citan afirmaciones de la siguiente manera:

▷ Números de dos niveles y encerrados en paréntesis; por ejemplo (2.1), significa números de las ecuaciones. El primer número corresponde al capítulo donde está la ecuación, y el segundo, al número de la ecuación dentro del capítulo.

▷ Todos los números de dos niveles y sin paréntesis (por ejemplo, 2.2) hacen referencia a secciones, tablas y figuras. El primer número alude al capítulo donde está la sección, tabla o figura, y el segundo, al número de la sección, tabla o figura dentro del capítulo.

▷ Todos los números de tres niveles (por ejemplo, 2.3.4) se refieren a definiciones, axiomas, teoremas y ejemplos del texto (como antes, el primer número corresponde al capítulo, el segundo, a la sección de ese capítulo, y el tercero al número de la definición, axioma, teorema y ejemplo dentro de la sección).

▷ Todos los números de tres niveles y acompañados de una letra (por ejemplo, 2.3.1a) hacen referencia a una parte específica de una definición, axioma, teorema y ejemplo dentro del texto, como por ejemplo, a la parte (a).

▷ Números sin paréntesis aluden a pies de páginas y números de ejercicios.

• Literaturas y referencias se citan con un número dentro de un corchete, e inclusive, a veces, colocadas después del nombre del autor referenciado; por ejemplo, LLINÁS [61]. En algunas ocasiones, las citas bibliográficas aparecen con más detalles; por ejemplo, LLINÁS [61, pág. 132] significa que lo referenciado se encuentra en la página 132 de [61].

• En muchas ocasiones, el nombre y apellido de los matemáticos citados se acompaña de las fechas en que nacieron y murieron (si ese es el caso) y la edad a la que fallecieron. Por ejemplo, JACOB BERNOULLI (1654-1703;49) significa que este matemático nació en 1654 y murió en 1703, a la edad de 49 años.

• Teoremas con una frase y/o literatura(s) en paréntesis significa que dicho teorema se conoce con ese nombre y su correspondiente demostración se puede encontrar en la(s) literatura(s) citada(s).

• Teoremas, lemas, definiciones, etc., con un nombre de un matemático y/o fecha y/o literatura en paréntesis significa que el correspondiente resultado fue introducido por ese matemático en la fecha indicada y publicado en la literatura citada.

• Los símbolos ◀ y ■ indican los finales de un ejemplo y de una demostración, respectivamente.

• Algunos apuntes históricos, bibliografías y fotos fueron tomados de ELSTRODT [20] y de la página web citada en [106], respectivamente.

Al lector

Estimado lector:

Trabajé con mucha dedicación para que este libro resultara eficaz a nivel pedagógico y no tuviera errores.

No obstante, si tiene preguntas, observaciones o sugerencias, por favor, póngase en contacto conmigo a través de esta dirección: [email protected].

Agradecimientos

Mi gratitud a los profesores que, de alguna forma u otra, ayudaron en la revisión de este texto mediante sugerencias y recomendaciones pertinentes.

De igual manera, expreso sinceros agradecimientos a la Editorial Universidad del Norte por darme la oportunidad de publicarlo.

Agradecimiento especial a Greyci y a Brian por escribir gran parte del material en el computador con ayuda del programa MiKTeX.

Finalmente, agradezco a mi madre, esposa e hijos por su apoyo, paciencia, comprensión, amor y ayuda para hacer de este libro una realidad. Lo dedico a ellos.

También lo dedico a los profesores Alberto Assa y Peter Paul Konder y a mi padre, que descansen en paz.

2El profesor Assa nació en Constantinopla (Turquía) en 1909 y falleció en Barranquilla (Colombia) el 14 de marzo de 1996, a los 87 años. Fundó el Instituto de Lenguas Modernas (1952), la organización El Concierto del Mes (1957), la Escuela Superior de Idiomas, la Universidad Pedagógica del Caribe, el Instituto Pestalozzi, la Facultad de Educación de la Universidad del Atlántico y el Instituto Experimental del Atlántico José Celestino Mutis (1970). También fundó el sello editorial Instituto de Lenguas Modernas.

Introducción

Statistics is the grammar of science. (K. PEARSON [76])

Breve sinopsis histórica

El famoso trabajo de T. BAYES (1702-1761;59) publicado en 1763 es conocido como el primero que utiliza la teoría de la probabilidad como un instrumento de razonamiento inductivo, es decir, para argumentar a partir de lo particular a lo general, o de la muestra a la población. Fue publicado postumamente, y no se sabe cuáles hubiesen sido las opiniones de Bayes al respecto si hubiese vivido más tiempo. Se sabe que la razón de su duda para no publicarlo fue que no estaba satisfecho con el postulado requerido para el famoso teorema de Bayes. Aunque muchos rechazan este postulado, también muchos reconocen su grandeza en el análisis de los problemas que debía resolver, debido a que siempre proponía soluciones ingeniosas.

Mientras que BAYES se destacó en la penetración lógica, P. LAPLACE (1749-1827;78) fue inigualable por su dominio de la técnica analítica. Admitió el principio de la probabilidad inversa, fuertemente criticado, en los fundamentos de sus investigaciones. Por otro lado, a él se debe el principio de que la distribución de una cantidad compuesta de partes independientes muestra toda una serie de características (la media, varianza y otras medidas) que son simplemente las sumas de cada característica de las distribuciones de las partes. Esto parece haber sido descubierto posteriormente e independientemente por T. THIELE (1838-1910;72) en 1889, pero los métodos de LAPLACE eran matemáticamente más poderosos que los de THIELE y mucho más influyentes en el desarrollo del tema en Francia e Inglaterra. Un resultado directo del estudio de LAPLACE de la distribución de la resultante de numerosas causas independientes era el reconocimiento de la ley normal de error, ley que generalmente es más atribuida, y con justa razón, a su gran contemporáneo C. GAUSS (1777-1855;78)

GAUSS, por otra parte, se acercó al problema de la estimación estadística en forma empírica, planteando el problema de la estimación no solo en términos de probabilidades sino en términos de otros parámetros cuantitativos. Para este propósito trató de aplicar el método de máxima verosimilitud, aunque intentó derivar y justificar este método con el principio de la probabilidad inversa. Este método fue cuestionado desde un principio porque no tenía conexión real con la probabilidad inversa. Además, GAUSS perfeccionó el ajuste sistemático de las fórmulas de regresión, simple y múltiple, por el método de los mínimos cuadrados (véase [33]), el cual, en los casos en los que sea apropiado, es un ejemplo particular del método de máxima verosimilitud.

En 1872 el geodosista alemán F. HELMERT (1843-1917;74) dio a conocer un buen libro sobre mínimos cuadrados (cuya segunda edición se publicó en 1907), el cual llegó a ser un texto estándar en su época. La primera distribución importante en las pruebas modernas de significancia fue la chi-cuadrada. Fue descubierta por HELMERT como una distribución de la varianza muestral para una distribución normal. Este descubrimiento y otros de sus trabajos fueron descritos en alemán, incluyendo los de él mismo, pero fue desconocido en inglés. La distribución chi-cuadrada fue redescubierta más tarde por K. PEARSON (1857-1936;79) en 1900. Se considera que esta es su gran contribución a los métodos estadísticos.

El estudio de las distribuciones de muestreo exactos de estadística comienza con los trabajos de W. GOSSET (1876-1937;61). En 1905 contactóa K. PEARSON para ir a estudiar en el laboratorio de este, el Galton Eugenics Laboratory, en la University College, en el periodo 1906-07. Durante este tiempo trabajó sobre la convergencia asintótica de Poisson a la binomial y la distribución muestral de la media, desviación estándar y coeficiente de correlación. Más tarde publicó tres importantes trabajos sobre las investigaciones que había realizado durante este año en el laboratorio de PEARSON. Es importante señalar que GOSSET siempre firmó bajo el seudónimo de Student, lo que explica por qué su nombre es menos conocido a pesar de sus importantes resultados en estadística. En 1908 publica su trabajo The Probable Error of a Mean (véase [99]). Allí deriva la distribución t de Student y, por ende, la prueba t al analizar muestras pequeñas para el control de calidad en la fabricación de cervezas. GOSSET descubrió la forma de la distribución t mediante una combinación de trabajos empíricos y matemáticos con números aleatorios, una aplicación inicial del método de Monte Carlo.

También es relevante mencionar los trabajos realizados por R. FISHER (1890-1962;72). En 1919 se convirtió en el estadístico de la Estación Experimental de Rothamsted, cerca de Harpenden (Hertfordshire), e hizo trabajos estadísticos asociados a los experimentos de cultivos de plantas realizadas en ella. Su libro Statistical Methods for Research Workers, publicado en 1925 (véase [27]), fue impreso durante más de 50 años. Sus experimentos de reproducción dieron lugar a teorías sobre la genética dominante que se publicaron en The Genetical Theory of Natural Selection en 1930 (véase [28]). Investigó la relación de los genes de diferentes características y desarrolló métodos de análisis multivariante para responder esas inquietudes. Otro de sus logros más importantes fue el desarrollo del concepto de análisis de la varianza (ANOVA) y el descubrimiento de la llamada distribución F de FISHER3.

Hoy en día se han desarrollado muchas técnicas estadísticas que se aplican en diferentes campos del conocimiento, lo que hace de la Estadística una ciencia muy importante en el desarrollo de la vida.

Listado de algunos estadísticos y probabiĺsticos

Para ver biografías de los personajes listados abajo (organizados en orden alfabético de acuerdo con su primer apellido) puede consultarse [106](b). Al final de los capítulo de este texto se presentan las de J. BERNOULLI, A. KOL-MOGOROV, C. CRAMÉR, R. FISHER, K. PEARSON y J. NEYMAN.

Oskar Johann Viktor Anderson (1887-1960; 73).

Thomas Bayes (1702-1761;59).

Jacob (Jacques) Bernoulli (1654-1705;51).

Irenée-Jules Bienaymé (1796-1878;82)

Ladislaus Josephowitsch Bortkiewicz (1868-1931;63).

Pafnuti Lvóvich Chebyshev (1821-1894;73)

William Gemmell Cochran (1909-1980;71).

Carl Harald Cramér (1893-1985;92).

George Dantzig (1914-2005;91).

Florence Nightingale David (1909-1993;84).

Francis Ysidro Edgeworth (1845-1926;81).

William Feller (1906-1970;64).

Sir Ronald Aylmer Fisher (1890-1962;72).

Francis Galton (1822-1911;89).

Boris Vladimirovich Gnedenko (1912-1995;83).

William Sealy Gosset (1876-1937;61).

Herman Hollerith (1860-1929;69).

William Stanley Jevons (1835-1882;47).

David George Kendall (1918-2007;89).

Maurice George Kendall (1907-1983;76).

Aleksandr Yakovlevich Khinchin (1894-1959;65).

Andrey Nikolaevich Kolmogorov (1903-1987;84).

Pierre-Simon Laplace (1749-1827;78)

Paul Pierre Lévy (1886-1971;85).

Wilhelm Lexis (1837-1914;77).

Yuri Vladimirovich Linnik (1915-1972;57).

Eugene Lukacs (1906-1987;81).

Jerzy Neyman (1894-1981;87).

Florence Nightingale (1820-1910;90).

Karl Pearson (1857-1936;79).

Egon Sharpe Pearson (1895-1980;85).

K. C. Sreedharan Pillai (1920-1985;65).

Siméon Denis Poisson (1781-1840;59).

Lambert Adolphe Jacques Quetelet (1796-1874;78).

Henry Scheffé (1907-1977;70).

Walter Andrew Shewhart (1891-1967;76).

Evgeny Evgenievich Slutsky (1880-1948;68).

Jan Tinbergen (1903-1994;91).

John Wilder Tukey (1915-2000;85).

Abraham Wald (1902-1950;48).

Walter Frank Raphael Weldon (1860-1906;46).

Samuel Stanley Wilks (1906-1964;58).

Wilhelm Winkler (1884-1984;100).

John Wishart (1898-1956;58).

Jacob Wolfowitz (1910-1981;71).

Frank Yates (1902-1994;92).

William John Youden (1900-1971;71).

George Udny Yule (1871-1951;80).

Sociedades estadísticas

Para una descripción detallada de cada sociedad puede consultarse [106](b).

American Statistical Association:

http://www.amstat.org/

Australian Statistical Society:

http://www.statsoc.org.au/

Bulgarian Statistical Society:

http://www.math.bas.bg/~statlab/bsd/

Canadian Statistical Society:

http://www.ssc.ca/

Estonian Statistical Society:

http://www.stat.ee/

Finnish Statistical Society:

http://www.tilastoseura.fi/index_en.html

German Statistical Society:

http://www.dstatg.de/de/startseite/

Korean Statistical Society:

http://www-history.mcs.stand.ac.uk/Societies/Korean_Statistical.html

Royal Statistical Society:

http://www-history.mcs.stand.ac.uk/Societies/Royal_Statistical.html

Statistical Society of Australia:

http://www-history.mcs.stand.ac.uk/Societies/Australian_Statistical.html

Statistical Society of Canada:

http://www-history.mcs.stand.ac.uk/Societies/Canadian_Statistical.html

Swiss Statistical Society:

http://www-history.mcs.stand.ac.uk/Societies/Swiss_Statistical.html

Applets de estadística

En [65] se pueden encontrar diferentes applets relacionados con algunas distribuciones discretas y continuas, y de temas relacionados con el teorema central del límite, la ley de los grandes números, la regresión lineal y tipos de muestreo.

3Se afirma que la distribución F se debe al matemático y estadístico estadounidense GEORGE W. SNEDECOR (1881-1974;93) y que la bautizó F en honor a R. A. FISCHER.

Convenciones y preliminares

Abreviaciones lógicas, abreviaturas y notaciones

Símbolo:

Significado:

AB

De la afirmación A sigue la afirmación B

AB

La afirmación A es equivalente a la afirmación B

A:=B

Por definición, A es igual a B

A:B

Por definición, A es válida si y solo si B es válida

∀ B

Para todo B

Fin de una demostración

Fin de un ejemplo

T., L., C., D., P.,

Teorema, lema, corolario, definición, proposición

def., sec.

Definición, sección

resp.

Respectivamente

hip. ind.

Hipótesis de inducción

teo., prop., ec.

Teorema, proposición, ecuación

rac.

Racional

etc.

Etcéetera, así sucesivamente

n → ∞

n tiende hacia el infinito

AB

B se obtiene de A aplicando E

Aquí E representa un teorema, un corolario, una definición, una igualdad, una desigualdad, una expresión, etc., que ya hemos dado (demostrado). Por ejemplo:

Notación:

Significado:

AB

Teorema 1.2.3

AB

Desigualdad, igualdad o expresión (1)

AB

Parte (a) de un teorema, lema, definición, etc

AB

Hipótesis de inducción.

Significados análogos tienen notaciones como, por ejemplo, , etc.

Conjuntos y operaciones de conjuntos

Sean Ω y Ω′ cualesquiera conjuntos. Entonces

Sea C un sistema o una familia de subconjuntos de Ω, es decir, . Entonces

Diremos que Ai es una UNIÓN DISYUNTA si la familia (Ai)i∈I es disyunta dos a dos.

La notación (x, y) representa a una pareja ordenada. Definimos el producto cartesiano A1× ··· ×An de los conjuntos A1,...,An⊆ Ω como

Para cualquier conjunto Ω y cualesquiera , con i∈I, se cumplen las llamadas LEYES DE DE MORGAN:

Conjuntos numéricos e intervalos

Designaremos con

:= {1, 2, 3, ...}

El conjunto de los números naturales

0

:=

∪ {0}

El conjunto de los números naturales con el cero

El conjunto de los números enteros

El conjunto de los números racionales

El conjunto de los números reales

El conjunto de los números complejos

+

:= {

x

/

x

> 0}

El conjunto de los números reales positivos (análogamente para ℤ+ y ℚ+)

El conjunto de los números reales no negativos (análogamente para )

Sean a, b ∈ ℝ con a≤b. Entonces

(

a

,

b

) := {

x

/

a

<

x

<

b

}

El intervalo abierto de a hasta b

(

a

,

b

] := {

x

/

a

<

x

a

}

El intervalo a, b semiabierto en a

[

a

,

b

) := {

x

/

a

x

<

b

}

El intervalo a, b semiabierto en b

[

a

,

b

] := {

x

/

a

x

b

}

El intervalo cerrado de a hasta b

Sean M y N := {a1,...,an} conjuntos numéricos. Entonces

Supremo, ínfimo de M

Supremo, ínfimo de N

Máximo, mínimo de N

simbolizaremos la llamada PARTE ENTERA de . Con |x| simbolizaremos el VALOR ABSOLUTO de .