Estadística aplicada a las ciencias de la salud

Estadística aplicada a las ciencias de la salud

Autor / Author: Rafael Álvarez Cáceres
Editorial / Publisher: Diaz de Santos
Entrega / Delivery : Nacional / International
Envio desde / Ships from: Colombia
Condición / Condition: Nuevo / New

Nuestro PrecioCOP$501,291
Precio de lista: COP$556,969
Código9788479788230
Stock: 1
Peso: 2150.0
addthis
Guarde la lista de peticiones

Tipo: Libro impreso / Print book

Tamaño / Size: 17.5 x 24.5 cm

Páginas / Pages: 996

Resumen / Summary:

Autor / Author: Rafael Álvarez Cáceres
Editorial / Publisher: Diaz de Santos
Entrega / Delivery : Nacional / International
Envio desde / Ships from: Colombia
Condición / Condition: Nuevo / New



Tabla de contenido / Table of contents:

Prólogo
Prefacio
Guía de lectura

1. Introducción a la estadística

1.1. Estadística
1.2. Historia
1.3. Población y muestra
1.4. Estadística aplicada
1.5. Aplicaciones estadísticas a las ciencias de la salud
1.6. Variables estadísticas: escalas de medida
1.7. Variables en estadística aplicada
1.8. Bibliografía

2. Estadística descriptiva

2.1. Estadística descriptiva
2.2. Variables aleatorias
2.3. Descripción de variables cualitativas
2.4. Descripción de variables cuantitativas
2.5. Medidas de tendencia central
2.6. Medidas de dispersión
2.7. Medidas de posición: n-tiles
2.8. Valores atípicos (outliers)
2.9. Momentos respecto al origen
2.10. Momentos respecto a la media
2.11. Medidas de forma
2.12. Estadística descriptiva con SPSS
2.13. Ejercicios
2.14. Bibliografía

3. Fundamentos matemáticos de la probabilidad

3.1. Sucesos
3.2. Probabilidad
3.3. Cuantificación de la probabilidad
3.4. Técnicas de contar
3.5. Espacio muestral
3.6. Álgebra de sucesos
3.7. Espacio de probabilidad
3.8. Axiomas de la probabilidad
3.9. Regla general de la adición
3.10. Ejercicios
3.11. Bibliografía

4. Probabilidad condicionada. Teorema de Bayes


4.1. Probabilidad condicionada
4.2. Teorema de la multiplicación
4.3. Independencia de sucesos
4.4. Teorema de Bayes
4.5. Ejercicios
4.6. Bibliografía

5. Aplicaciones del cálculo de probabilidades a las ciencias de la salud

5.1. El riesgo. Factores de riesgo y de protección
5.2. Medidas de riesgo
5.3. Diferencia de riesgos
5.4. Riesgo relativo (RR)
5.5. Reducción relativa del riesgo, RRR
5.6. Predominio. Razón de predominio (OR)
5.7. Diagnóstico
5.8. Normalidad, anormalidad y patología de los datos clínicos
5.9. Características probabilísticas de las pruebas diagnósticas
5.10. Sensibilidad y proporción de falsos negativos
5.11. Especificidad y falsos positivos
5.12. Valor predictivo positivo
5.13. Valor predictivo negativo
5.14. Determinación de los valores de la sensibilidad y de la especificidad
5.15. Determinación de los valores predictivos: teorema de Bayes
5.16. Deducción de las expresiones para el cálculo de los valores predictivos mediante el teorema de Bayes
5.17. Ejercicios
5.18. Bibliografía

6. Variable aleatoria

6.1. Variable aleatoria
6.2. Propiedades
6.3. Variable aleatoria discreta
6.4. Función probabilidad de una variable aleatoria discreta
6.5. Función de distribución acumulativa de una variable aleatoria discreta
6.6. Función probabilidad en variables aleatorias continuas
6.7. Propiedades de la función probabilidad en variables aleatorias continuas
6.8. Función de distribución acumulativa en variable aleatoria continua
6.9. Valor esperado de una variable aleatoria
6.10. Propiedades del valor esperado
6.11. Varianza de una variable aleatoria
6.12. Covarianza de dos variables aleatorias
6.13. Propiedades de la varianza
6.14. Teorema de Tchebychev
6.15. Ejercicios
6.16. Bibliografía

7. Distribución de variables aleatorias discretas: binomial, poisson, hipergeométrica, geométrica, multinomial, binomial inversa

7.1. Distribuciones teóricas
7.2. Ensayos o pruebas de Bernouilli
7.3. Distribución binomial
7.4. Distribución multinomial
7.5. Distribución geométrica
7.6. Distribución binomial negativa
7.7. Distribución de Poisson
7.8. Distribución hipergeométrica
7.9. Ejercicios
7.10. Bibliografía

8. Distribuciones de variables aleatorias conti¬nuas: normal, t de Student, Chi-cuadrado, f de Snedecor


8.1. Distribución normal
8.2. Propiedades de la curva normal
8.3. Tipificación de la variable
8.4. Función de distribución acumulativa de una variable aleatoria normal
8.5. Cálculo de probabilidades mediante tablas
8.6. Teorema central del límite
8.7. Aproximación de una distribución binomial a una normal
8.8. Aproximación de la distribución de Poisson a la normal
8.9. Distribución gamma
8.10. La distribución Chi cuadrado (X2)
8.11. Distribución T de Student
8.12. Distribución F de Snedecor
8.13. Ejercicios
8.14. Bibliografía

9. Inferencia estadística: técnicas de muestreo

9.1. Poblaciones estadísticas
9.2. Inferencia estadística
9.3. Muestras estadísticas
9.4. Representatividad de la muestra
9.5. Fracción muestral
9.6. Técnicas de muestreo no probabilístico
9.7. Muestreos probabilísticos
9.8. Muestreo aleatorio simple
9.9. Muestreo sistemático aleatorio
9.10. Muestreo estratificado aleatorio
9.11. Muestreo por conglomerados
9.12. Ejercicios
9.13. Bibliografía

10. Inferencia estadística: estimación de parámetros

10.1. Estimaciones
10.2. Variable aleatoria estimada X: fracción muestral
10.3. Estimadores
10.4. Estimación de la media aritmética poblacional
10.5. Predeterminación del tamaño de la muestra en la estimación de medias
10.6. Estimación de proporciones
10.7. Predeterminación del tamaño de la muestra para estimar proporciones

10.8. Estimación del parámetro de Poisson
10.8.1. Predeterminación del tamaño de la muestra

10.9. Estimación por el método de máxima verosimilitud
10.9.1. El método de máxima verosimilitud

10.10. Estimación de parámetros con SPSS
10.11. Ejercicios
10.12. Bibliografía

11. Inferencia estadística: contrastes de hipótesis

11.1. Introducción
11.2. Extrapolación de los resultados de un contraste de hipótesis estadísticas
11.3. Estructura de un contraste de hipótesis
11.4. Errores aleatorios en un contraste de hipótesis
11.5. Relación entre alfa y beta
11.6. Predeterminación del tamaño de la muestra
11.7. ¿Qué significa estadísticamente significativo?
11.8. Interpretación errónea de contrastes de hipótesis
11.9. Contrastes de hipótesis versus intervalos de confianza
11.10. Ejercicios
11.11. Bibliografía

12. Relaciones entre variables

12.1. Relaciones entre variables
12.2. Asociación entre variables
12.3. Tipos de asociación
12.4. Estudio simultáneo entre dos o más variables: estadística bivariante y multivariante
12.5. Sesgo de confusión
12.6. Interacción
12.7. Bibliografía

13. Comparación de dos proporciones: pruebas paramétricas


13.1. Introducción
13.2. Contraste de hipótesis sobre proporciones: contraste respecto a un valor de referencia
13.3. Predeterminación del tamaño de la muestra
13.4. Comparación de dos proporciones: datos dependientes
13.5. Comparación de dos proporciones: datos independientes
13.6. Ejercicios
13.7. Bibliografía

14. Pruebas basadas en la distribución chi-cuadrado: bondad del ajuste, tablas de contingencia. Prueba de Fisher, prueba de McNemar

14.1. Pruebas basadas en la distribución Chi-cuadrado: bondad del ajuste de datos experimentales a distribuciones teóricas
14.2. Pruebas de independencia y homogeneidad: asociación entre variables cualitativas
14.3. Tablas de contingencia
14.4. Estadística analítica mediante tablas de contingencia 2 X 2: contrastes de hipótesis e intervalos de confianza: pruebas basadas en la distribución chi -cuadrado
14.5. Análisis de tablas de contingencia K X R
14.6. Significación estadística y fuerza de la asociación
14.7. Análisis del riesgo mediante tablas de contingencia
14.8. Análisis estratificado
14.9. Análisis del sesgo de confusión, e interacción entre variables cualitativas
14.10. Bondad del ajuste y análisis de tablas de contingencia con SPSS
14.11. Ejercicios
14.12. Bibliografía

15. Comparación de dos medias, pruebas paramétricas

15.1. Comparación de dos varianzas
15.2. Comparación de dos medias
15.3. Comparación de dos medias, datos dependientes o pareados
15.4. Comparación de dos medias con datos independientes
15.5. Comparación de dos medias con SPSS
15.6. Ejercicios
15.7. Bibliografía

16. Análisis de la varianza


16.1. Análisis de la varianza unifactorial
16.2. Tipos de análisis de la varianza
16.3. Fundamentos del análisis de la varianza
16.4. Aplicaciones experimentales del análisis de la varianza
16.5. Modelo matemático
16.6. Hipótesis de ANOVA
16.7. Asunciones del análisis de la varianza
16.8. Comparación de K varianzas
16.9. Modelos de análisis de la varianza de una vía
16.10. Comparaciones múltiples
16.11. Predeterminación del tamaño de la muestra
16.12. Análisis de la varianza unifactorial con SPSS
16.13. Ejercicios
16.14. Bibliografía

17. Análisis de la varianza: bloques, medidas repetidas

17.1. Análisis de la varianza con bloques aleatorizados. Modelos con efectos fijos y aleatorios
17.2. Modelo matemático
17.3. Variabilidad cuadrática: suma de cuadrados
17.4. Cuadrados medios
17.5. Hipótesis de ANOVA bloques
17.6. Comparaciones múltiples
17.7. Estudio de la interacción: prueba de no aditividad de Tukey
17.8. Medidas repetidas
17.9. ANOVA medidas repetidas con SPSS
17.10. Ejercicios
17.11. Bibliografía

18. Correlación

18.1. Introducción
18.2. Cálculo del coeficiente de correlación lineal de Pearson
18.3. Contraste de hipótesis sobre ρ
18.4. Intervalos de confianza
18.5. Coeficiente de correlación de Spearman
18.6. Correlación con SPSS
18.7. Ejercicios
18.8. Bibliografía

19. Regresión lineal simple

19.1. Introducción
19.2. Tipos de análisis de regresión
19.3. Regresión lineal simple
19.4. Coeficientes de regresión estandarizados
19.5. Variabilidad cuadrática. Relación entre el coeficiente de regresión y el de correlación
19.6. Valores observados, valores esperados y residuos
19.7. Modelo matemático
19.8. Consistencia de la asociación lineal
19.9. Hipótesis en regresión lineal simple
19.10. Regresión y análisis de la varianza
19.11. Intervalos de confianza de los coeficientes de la recta de regresión
19.12. Estimaciones en regresión lineal simple: predicciones
19.13. Asunciones del análisis de regresión
19.14. Análisis de residuos
19.15. Comparación de dos coeficientes de regresión
19.16. Análisis de un modelo de regresión simple: errores más frecuentes
19.17. Ejercicios
19.18. Bibliografía

20. Regresión lineal múltiple

20.1. Regresión lineal múltiple: cálculo de los coeficientes de regresión
20.2. Coeficientes de regresión estandarizados
20.3. Variabilidad cuadrática
20.4. Coeficientes de correlación binarios
20.5. Valores observados, valores esperados y residuos
20.6. Modelo matemático
20.7. Consistencia de la asociación lineal: coeficiente de correlación múltiple, coeficiente de determinación
20.8. Hipótesis general en regresión lineal múltiple. Tabla de ANOV A
20.9. Intervalos de confianza de los coeficientes de regresión
20.10. Estimaciones en regresión lineal múltiple: predicciones
20.11. Asunciones del análisis de regresión múltiple
20.12. Interacción
20.13. Colinealidad
20.14. Correlación parcial y semiparcial
20.15. Confusión en regresión múltiple
20.16. Modelos de regresión con variables cualitativas: variables ficticias o Dummy
20.17. Análisis de residuos en regresión múltiple
20.18. Construcción de un modelo de regresión múltiple
20.19. Análisis de un modelo de regresión múltiple: errores más frecuentes
20.20. Análisis de regresión lineal con SPSS
20.21. Ejercicios
20.22. Bibliografía

21. Regresión logística

21.1. Introducción
21.2. Estimación de los coeficientes de regresión logística
21.3. Contraste de hipótesis de los coeficientes de regresión logística
21.4. Intervalos de confianza de los coeficientes
21.5. Interacción
21.6. Confusión
21.7. Variables ficticias o dummy
21.8. Cálculo de probabilidades: riesgo
21.9. Predominio y razón de predominio (Odds y Odds ratio); probabilidad relativa y riesgo relativo, RR
21.10. Residuos en regresión logística
21.11. Validez de los modelos de regresión logística
21.12. Bondad del ajuste: prueba de Hosmer-Lemeshow
21.13. Regresión logística con SPSS
21.14. Ejercicios
21.15. Bibliografía

22. Estadística no paramétrica


22.1. Estadística paramétrica y no paramétrica

22.2. Pruebas para una sola muestra
22.2.1. Prueba binomial
22.2.2. Bondad del ajuste: prueba X2
22.2.3. Pruebas de Kolmogorov-Smirnov, Kolmogorov-Smirnov-Lilliefors y Shapiro Wilks
22.2.4. Pruebas de aleatoriedad: prueba de las rachas

22.3. Pruebas no paramétricas con dos variables relacionadas
22.3.1. Prueba de los signos para dos variables relacionadas
22.3.2. La prueba de Wilcoxon

22.4. Pruebas no paramétricas para dos muestras independientes
22.4.1. Prueba de la mediana para dos muestras independientes
22.4.2. La prueba de Mann- Whitney
22.4.3. La prueba de Kolmogorov-Smimov para dos variables independientes
22.4.4. La prueba de las rachas de Wald-Wolfowitz para dos variables independientes
22.4.5. La prueba de los valores extremos de Moses

22.5. Pruebas para k variables relacionadas
22.5.1. Prueba de Friedman
22.5.2. Coeficiente de concordancia de Kendall
22.5.3. La prueba de la Q de Cochran

22.6. Pruebas no paramétricas para k variables independientes
22.6.1. La prueba de Kruskal Wallis
22.6.2. La prueba de la mediana para k variables

22.7. Ejercicios

22.8. Bibliografía

23. Función de la estadística en el proceso de investigación


23.1. Investigación científica
23.2. Características principales de una investigación científica
23.3. Objetivos e hipótesis
23.4. Tipo de estudios
23.5. Poblaciones de referencia
23.6. Selección de la muestra
23.7. Variables: mediciones
23.8. Plan estadístico
23.9. Validez interna
23.10. Validez externa
23.11. Bibliografía

24. Características estadísticas de los estudios observacionales: series de casos, transversales, cohortes, casos y controles

24.1. Comunicaciones de un caso
24.2. Series de casos
24.3. Estudios transversales
24.4. Estudios de cohortes
24.5. Estudios de casos y controles
24.6. Bibliografía

25. Características estadísticas de los estudios ex¬perimentales y cuasiexperimentales: ensayos clínicos

25.1. Estudios experimentales
25.2. Estudios cuasiexperimentales: ensayos clínicos
25.3. Fases de los ensayos clínicos
25.4. Factores que influyen en la evolución de las enfermedades
25.5. Control de los factores que pueden influir en la evolución de las enfermedades
25.6. Poblaciones en un ensayo clínico. Selección de los participantes en el ensayo
25.7. Estudios controlados con asignación aleatoria
25.8. Análisis de los resultados
25.9. Análisis estadísticos más utilizados en los ensayos clínicos
25.10. Validez de los ensayos clínicos
25.11. Bibliografía

26. Errores más frecuentes en la aplicación de la estadística a las ciencias de la salud

26.1. Confundir la población diana o poblaciones de interés en investigación con la población estadística del estudio
26.2. Realizar conclusiones inferenciales en muestras no aleatorias
26.3. El extraño caso de las muestras representativas
26.4. Confundir los errores tipo I y tipo II de los contrastes de hipótesis con sus probabilidades
26.5. Considerar demostrada la hipótesis nula cuando no se ha rechazado en un contraste de hipótesis
26.6. Considerar que la significación estadística es el parámetro fundamental para evaluar las conclusiones de un estudio
26.7. Otro extraño caso: la media seguida de ± la desviación típica o el error estándar de la media
26.8. Uso de modelos matemáticos como ecuaciones determinísticas
26.9. El extraño caso de las constantes vitales

A1. Álgebra de Boole

A1.1. Conjuntos
A1.2. Subconjuntos
A1.3. Conjunto de las partes de un conjunto
A1.4. Operaciones con conjuntos
A1.5. Relaciones entre conjuntos-aplicaciones

A2. Soluciones a los ejercicios

A2.1. Capítulo 2
A2.2. Capítulo 3
A2.3. Capítulo 4
A2.4. Capítulo 5
A2.5. Capítulo 6
A2.6. Capítulo 7
A2.7. Capítulo 8
A2.8. Capítulo 9
A2.9. Capítulo 10
A2.10. Capítulo 11
A2.11. Capítulo 13
A2.12. Capítulo 14
A2.13. Capítulo 15
A2.14. Capítulo 16
A2.15. Capítulo 17
A2.16. Capítulo 18
A2.17. Capítulo 19
A2.18. Capítulo 20
A2.19. Capítulo 21
A2.20. Capítulo 22

A3. Tablas estadísticas

Índice analítico

No existen productos recomendados en este momento.
No existen productos recomendados en este momento.