Este artículo sobre errores estadísticos que con frecuencia cometemos en la presentación de los resultados de la investigación fue publicado por Lang T en CMJ. 2004;45(4):361-370.
- Informar mediciones con una precisión innecesaria.
- Transformar datos continuos a categóricos sin explicar por qué o cómo.
- Falta de información en las comparaciones pareadas del cambio promedio individual.
- Uso incorrecto de la estadística descriptiva.
- Uso del error estándar de la media (SEM) como una medida de estadística descriptiva.
- Informar sólo el «valor p» para los resultados
- No confirmar el cumplimiento de los supuestos de las pruebas estadísticas utilizadas.
- Utilizar un análisis de regresión lineal sin haber demostrado que la relación es, de hecho, lineal.
- Reporte de “missing data”
- No informar si se hicieron o cómo se hicieron los ajustes para las pruebas de hipótesis múltiples.
- Presentación innecesaria de la comparación estadística de características de base en el ensayo clínico aleatorio.
- No se define «normal» o «anormal» al informar resultados de pruebas diagnósticas.
- No hay una definición clara de los resultados de una prueba: “positivo” o “negativo”.
- Uso de tablas y figuras sólo para «almacenar» los datos, en lugar de ayudar a los lectores.
- El uso de un diagrama o gráfico en el que el mensaje visual no es compatible con el mensaje de los datos del texto.
- Confundir las «unidades de observación» al informar e interpretar los resultados.
- Interpretación de estudios con resultados no significativos y de bajo poder estadístico como «negativo», cuando lo son, de hecho, no concluyente.
- No distinguir entre «pragmático» (efectividad) y «explicativos» (eficacia) en el diseño e interpretación de investigación biomédica
- No informar de los resultados en unidades de utilidad clínica.
- Confundir la significación estadística y su importancia clínica.

