7/07/2008

Artículo...

Sesgo de retraso en el ingreso en la Unidad de Cuidados Intensivos como causa de mal pronóstico o lead time bias
B Vidal Tejedora M Micó Gómeza R Abizanda Camposa R Álvaro Sáncheza A Belenguer Muncharaza L Mateu Camposa E Bisbal Andrésa.
http://db.doyma.es/cgi-bin/wdbcgi.exe/doyma/mrevista.fulltext?pident=13124336

INTRODUCCIÓN

Son mayoría los especialistas en Medicina Intensiva –por no decir todos– que mantienen la opinión de que cuanto mayor sea el retraso de ingreso en la Unidad de Cuidados Intensivos (UCI) desde el momento en que el paciente entra en situación crítica, peor es el resultado, considerando la supervivencia al episodio como tal. Esta creencia ya fue considerada en 1989 en un trabajo de Dragsted et al1 , que demostraba que la capacidad predictiva de APACHE II respecto del riesgo de muerte de los pacientes ingresados se resentía en una disminución de exactitud que los autores comprobaron que estaba relacionada con el tiempo de retraso de ingreso en la UCI.
Pese a esta aparente evidencia es llamativo que ninguno de los sistemas de estimación pronóstica habitualmente considerados, ya sean de diseño europeo no ligado al diagnóstico (SAPS en sus distintas versiones) o norteamericanos ligados a la causa de ingreso (grupo APACHE) incorporan el factor tiempo entre las variables consideradas.
En 2002 un grupo de investigadores cubanos2 publican EPEC (estimación pronóstica en enfermos críticos), un índice nacido ante la imposibilidad de utilizar la versión 3 de APACHE por estar sometida a derechos de copyright. Estos autores realizan un estudio comparativo entre las prestaciones de EPEC y APACHE II en su cohorte de enfermos, observando cómo la similitud de capacidad pronóstica entre ambos permite utilizarlos indistintamente, e incluso insinuando que cuando se realiza su uso secuencial la capacidad de predicción a las 48 horas es mayor para EPEC3

Pese a la simplicidad de uso de EPEC, cuando se intentó establecer su validación en una muestra independiente se comprobaron errores metodológicos de diseño que se traducían en una mala calibración y una deficiente discriminación4 .
Pese a esto, EPEC es el primer sistema de predicción de supervivencia en enfermos críticos que incorpora el «tiempo de retraso» de ingreso en UCI como variable que mide en horas. Posteriormente, no es hasta la aparición de SAPS 3 cuando se incorpora ese tiempo de retraso, pero desde una perspectiva distinta, ya que lo que se computa es el tiempo de estancia hospitalaria previa al ingreso en la UCI en días5 .
Nuestro objetivo en este trabajo ha sido analizar la influencia de este retraso en el ingreso sobre el resultado de supervivencia de los pacientes atendidos en nuestro medio.

PACIENTES Y MÉTODO

Se ha realizado un estudio prospectivo y observacional en un servicio de Medicina Intensiva de un hospital docente de referencia dotado de 19 camas (15 de UCI convencional y 4 de Cuidados In ter me dios) durante el segundo semestre de 2003. Se ha incluido a los 481 pacientes ingresados de manera consecutiva en la UCI durante el periodo de estudio. La procedencia de los pacientes al ingreso en la UCI fue la siguiente: quirófano 192 pacientes (39,9%), sala de des pertar 6 (1,2%), urgencias 189 (39,3%), planta de hospitalización 71 (14,8%), otra UCI 8 (1,7%), otro hos pital 13 (2,7%), otro hospital sin UCI 2 (0,4%). Los pacientes fueron seguidos hasta el abandono del hospital (alta o fallecimiento).
Todos los sujetos fueron estimados en su riesgo de muerte por tres sistemas: MPM II 0, SAPS 2 y EPEC. A efectos de este trabajo sólo se considerarán las predicciones realizadas por EPEC, por lo que referimos al lector a una publicación previa de nuestro grupo para conocer otros datos4 .
EPEC incorpora la variable tiempo de retraso en UCI expresado en horas y definido como el retraso existente desde la detección de la situación de riesgo para el paciente hasta el ingreso efectivo en UCI, con independencia de la procedencia (intrahospitalaria: planta, sala de despertar; extrahospitalaria: urgencias, otros centros, otras UCI externas).
Las variables analizadas fueron el tiempo de retraso en el ingreso en la UCI conforme a la metodología EPEC, estableciéndose un análisis submuestral de los pacientes con retraso mayor de 0 horas y el análisis de las estancias previas a ese ingreso y en la propia UCI, así como de las procedencias del ingreso. El resultado asistencial se midió en tasa de mortalidad en la UCI.
El análisis univariante de relación retraso/mortali-dad y el estudio estadístico global, así como la regresión lineal, se realizaron mediante el programa SPSS/PC 11.0. El nivel de significación elegido fue de p < 0,05 para todos los casos.

RESULTADOS

El tiempo global de retraso fue de 0,7 ± 1,98 horas (rango 0-20, mediana y moda de 0 horas), mientras que en la submuestra de 108 pacientes con tiempo de retraso superior a 0 horas fue de 2,96 ± 3,2 horas (rango 0,25-20 horas). El tiempo de retraso en los pacientes con valores del mismo superiores a la hora fue de 3,5 ± 3,3 horas.
Durante el periodo de estudio fallecieron en la UCI 44 pacientes (tasa de mortalidad: 9,1%). En 40 de los fallecidos se registró un retraso en el ingreso de 0 horas y en los 4 restantes el retraso fue de una hora en dos casos, de 8 horas en un caso y de 20 horas en el restante (media y desviación estándar 7,50 ± 8,96).
No hubo diferencias significativas en el tiempo de retraso entre los pacientes vivos al alta de la UCI y los fallecidos en la UCI (0,66 ± 1,77 frente a 0,68 ± 3,21; p = 0,952). En la submuestra de pacientes con tiempo de retraso superior a 0 horas sí encontramos diferencias significativas en el tiempo de retraso entre los vivos y los fallecidos al alta de la UCI (2,78 ± 2,71 frente a 7,5 ± 8,96; p = 0,003), aunque el escaso número de fallecidos en esta submuestra (n = 4) cuestiona el valor del análisis.
Tanto en el global de la muestra como en la sub-muestra de tiempo de retraso superior a 0 horas, el tiempo de retraso de acuerdo con la procedencia del ingreso fue significativamente distinto (test ANOVA) (figs. 1A y 1B).

Figura 1. Representación gráfica del valor de tiempo de retraso según la procedencia del ingreso en el total de la muestra (A) y en la submuestra de tiempo de retraso superior a 0 horas (B). UCI: Unidad de Cuidados Intensivos. Logistic time bias: regresión logística del sesgo temporal.
Al intentar establecer una regresión lineal entre el valor de tiempo de retraso y el valor de los índices pronósticos convencionales utilizados (MPM II 0 y SAPS 2) (figs. 2A-2D), donde se muestra la línea que traduce la regresión lineal y su intervalo de confianza del 95%, además del valor de R2 se halló una muy mala relación, indicativo de que el «peso» del valor de tiempo de retraso tiene muy escasa repercusión sobre el valor global de estos índices pronósticos, es decir con la probabilidad de muerte de los grupos de pacientes analizados.

Figura 2. Los gráficos muestran la regresión lineal (y su intervalo de confianza del 95%) entre los valores de tiempo de retraso en el ingreso en la Unidad de Cuidados Intensivos en el global de la muestra y en la submuestra de tiempo de retraso superior a 0 horas con respecto a SAPS 2 (A y B) y MPM II 0 (C y D). Rsq: valor de R2. Logistic time bias: regresión logística del sesgo temporal respecto al eje y.

DISCUSIÓN

La estimación de supervivencia y su comparación con la mortalidad real constituye un indicador de efectividad asistencial ampliamente utilizado en la atención al paciente crítico, ya sea para comparaciones transversales de dos unidades, dos países, dos hospitales distintos, o para comparaciones longitudinales (en el tiempo) de los resultados de la misma UCI.
A este fin es preciso que los sistemas utilizados para esta estimación pronóstica «funcionen» lo mejor posible (metodológicamente que estén bien calibrados y discriminen adecuadamente). En el contexto de los avances científicos y técnicos de la medicina aplicada esta premisa pasa, necesariamente, por una actualización permanente de los sistemas de predicción6 , y ello ha motivado distintos trabajos en los que se comparan resultados predictivos mediante versiones anteriores de un índice pronóstico con los obtenidos mediante versiones más actualizadas del mismo instrumento o de distintas nuevas versiones entre sí7-9 .
Pese a ello es un hecho constatado que ningún sistema que estime el riesgo de muerte de un paciente crítico alcanza una exactitud total (100%)10 , y con independencia de las consecuencias de índole operativa que ello provoque, las explicaciones para esta aparente falta de capacidad son distintas, desde una relativa disminución de prestaciones en las distintas series de validación respecto a la cohorte de desarrollo del sistema, ya sea debido a una inadecuada utilización de los criterios de inclusión-exclusión de los pacientes estudiados11 , por errores en la detección de los valores apropiados a utilizar de las variables incluidas en el sistema12,13 (factor éste que se ha intentado minimizar mediante los sistemas de captura on line de las variables fisiológicas) o por la existencia del llamado «lead time bias» (expresión que debe traducirse como «sesgo de causa temporal»), tal y como ya fue descrito por Dragsted et al1 .
Este mismo argumento fue utilizado por Castella et al en 199114 , aunque en su trabajo se insinuaba que no era el retraso lo que condicionaba el mejor o peor ajuste predictivo, sino el hecho de que durante ese retraso se proporcionara o no atención intensiva al paciente.
Por el contrario, en el trabajo de Padrón et al2 lo que se cuestiona es el hecho del retraso acontecido como consecuencia de causas que podríamos llamar logísticas (falta de camas disponibles, retrasos en la movilización por carencia de personal auxiliar, etc.) como causa y responsabilidad de un peor pronóstico,o lo que es lo mismo, un mayor riesgo de muerte. Llama la atención en nuestro estudio que el mayor o menor retraso de los detectados no está en relación con las tasas de mortalidad, ni con el nivel de gravedad, y consecuente peor pronóstico, y sí se detectan muy diferentes retrasos en el ingreso en función de la procedencia del paciente. Resultados similares ha bían sido comunicados por Tunnell en 199815 y por Koperna en 200116 .
Nuestro trabajo nos permite concluir que en nuestro medio y nuestra cohorte el tiempo de retraso en el ingreso en la UCI está en relación con la procedencia de los enfermos, y no tiene repercusión significativa sobre el resultado final, existiendo una mala correlación entre el tiempo de retraso y la estimación del riesgo de muerte, sin que haya podido demostrarse una mayor mortalidad en los pacientes con mayor retraso en el ingreso en UCI.
Ante la falta de evidencia que soporte el hecho de que el retraso en el ingreso en la UCI de pacientes críticos tenga consecuencias deletéreas para su evolución y repercuta sobre la estimación del riesgo de muerte, nuestro grupo aventura una posible doble hipótesis nacida del análisis de nuestros casos, en los que se puso en marcha el tratamiento propio de la Medicina Intensiva en cuanto se detectó la existencia del paciente. Esta hipótesis se apoya en la existencia de dos posibles tipos de «lead time bias»: uno al que llamaremos retraso fisiopatológico, que está motivado por la no detección de la situación real de riesgo del paciente, lo que sin duda se traduce en un retraso en la indicación de ingreso en UCI, y otro que podría denominarse retraso logístico, y estaría integrado por los retrasos aparecidos como consecuencia del déficit de mecanismos asistenciales (capacidad, transporte, etc.) y que no tiene repercusión sobre el estado del paciente porque el tratamiento se inicia aun antes del ingreso en la UCI.
Nuestros pacientes podrían ser integrados dentro de este segundo tipo de retraso (logístico), y es evidente que la repercusión real del «lead time bias» no podrá ser estudiada en tanto en cuanto no se realicen estudios de diseño adecuado, ya que el único que recoge esta variable –en nuestro conocimiento– es EPEC2 y hace referencia exclusivamente a lo que hemos denominado retraso logístico. Para el intensivista ofrece mayor interés detectar y prevenir el llamado retraso fisiopatológico, pero sin los adecuados sistemas de alerta hospitalaria no está en manos de él prevenir sus consecuencias (difícilmente podrá actuar si no sabe que su actuación es precisa).
En conclusión, la cuestión del sesgo de retraso en UCI sigue siendo una asignatura pendiente de adecuado estudio, y deben realizarse amplios estudios adicionales que permitan establecer la verdadera importancia y consecuencias de su prevención.

No hay comentarios: