Este artículo sobre errores estadísticos que con frecuencia cometemos en la presentación de los resultados de la investigación fue publicado por Lang T en CMJ. 2004;45(4):361-370.
- Informar mediciones con una precisión innecesaria.
- Transformar datos continuos a categóricos sin explicar por qué o cómo.
- Falta de información en las comparaciones pareadas del cambio promedio individual.
- Uso incorrecto de la estadística descriptiva.
- Uso del error estándar de la media (SEM) como una medida de estadística descriptiva.
- Informar sólo el «valor p» para los resultados
- No confirmar el cumplimiento de los supuestos de las pruebas estadísticas utilizadas.
- Utilizar un análisis de regresión lineal sin haber demostrado que la relación es, de hecho, lineal.
- Reporte de “missing data”
- No informar si se hicieron o cómo se hicieron los ajustes para las pruebas de hipótesis múltiples.
- Presentación innecesaria de la comparación estadística de características de base en el ensayo clínico aleatorio.
- No se define «normal» o «anormal» al informar resultados de pruebas diagnósticas.
- No hay una definición clara de los resultados de una prueba: “positivo” o “negativo”.
- Uso de tablas y figuras sólo para «almacenar» los datos, en lugar de ayudar a los lectores.
- El uso de un diagrama o gráfico en el que el mensaje visual no es compatible con el mensaje de los datos del texto.
- Confundir las «unidades de observación» al informar e interpretar los resultados.
- Interpretación de estudios con resultados no significativos y de bajo poder estadístico como «negativo», cuando lo son, de hecho, no concluyente.
- No distinguir entre «pragmático» (efectividad) y «explicativos» (eficacia) en el diseño e interpretación de investigación biomédica
- No informar de los resultados en unidades de utilidad clínica.
- Confundir la significación estadística y su importancia clínica.
El vínculo para acceder al artículo está roto
Me gustaMe gusta
Hola Diana,
Puedes comentar qué quiere decir «6.Informar sólo el “valor p” para los resultados», podrías poner algún ejemplo.
Gracias,
eva
Me gustaMe gusta
Hola Eva
Cuando se presentan los resultados de un estudio se debe informar el tamaño del efecto o la asociación evaluada acompañada de una medida de precisión como el valor p o los intervalos de confianza. Se prefiere este último porque informa tanto de la magnitud como de la precisión.
En este ejemplo de resultados de un estudio dicen «no se objetivaron diferencias entre los grupos en cuanto a la dosis total administrada en las 24 h del tratamiento y el número de bolos requeridos. Sí se objetivaron diferencias en el número de pacientes que precisaron analgesia de rescate, valor p:0.001.» Observas que los resultados se limitaron a dar una información si es o no estadístciamente significtaivo, pero y cuál fue la asociación e entre la intervención y la analgesia de rescate? Si hubiesen informado de esta manerea RR: 0.7 IC95% 0.3-0.9 es claro que la intervención reduce en 30% la neesidad de analgesia de rescate y los intervalos de confianza además de dar la información de magnitud sus límites no contienen la unidad (valor nulo de asociación) por lo que el efecto observado se debe a la intervención y no al azar; dos mensajes en una estimación por intervalos.
Me gustaMe gusta