¿Qué es el test de contraste de hipótesis? Todo lo que debo saber.

Existe un refrán galés originado en 1860 que dice: “Eat an apple on going to bed, and you’ll keep the doctor from earning his bread”. Esta frase ha sufrido modificaciones a lo largo del tiempo y es así como hoy en día se ha transformado en “An apple a day keeps the doctor away“. Si deseáramos adaptar todavía más esta frase al ámbito médico, podríamos simplemente cambiar la palabra «apple» por «aspirina»

De esta manera queda conformada una hipótesis; «Una aspirina al día mantiene al doctor en la lejanía». Pero… ¿Cómo podemos saber si esto realmente es así?, ¿Cómo sabemos si la hipótesis planteada es verdadera?, ¿De qué depende que una hipótesis se torne falsa?


La hipótesis y su problemática

Una hipótesis es algo que se supone como cierto o verdadero. Desde el punto de vista del Método Científico es una solución provisoria que aun no ha sido comprobada y que puede presentar distintos grados de fiabilidad. Una vez que esta queda verificada, pasa a ser un enunciado.

Las investigaciones que se realizan en el terreno de la medicina suelen ser del tipo comparativas. Es decir, se toman muestras poblacionales aleatorias y se analiza el efecto que producen los tratamientos en ellas. Su finalidad es observar qué tan efectivo es determinado fármaco o cómo responden los individuos a determinada terapia.

El problema que se nos plantea es si los resultados que obtenemos durante la investigación están dados por los efectos propios del fármaco o por alguna característica especial que pudieran llegar a tener los individuos de nuestra muestra tomada al azar.

Aquí es cuando entran en escena los Test de Contraste de Hipótesis y los errores asociados a ellos.


Test de Contraste de Hipótesis

También denominado prueba de significación; es un procedimiento basado en la evidencia de una muestra y en la teoría de probabilidades, usado para determinar si la hipótesis es una afirmación razonable.

En este test debemos enfrentar dos hipótesis opuestas formuladas al inicio del estudio. Una de ellas, la “suposición a favor”, es la hipótesis nula (H0). La hipótesis alternativa (H1) será la que se acepte cuando la hipótesis nula sea rechazada.

Si aplicamos esto a nuestro ejemplo, podemos establecer que:

  • H0: «Una aspirina al día mantiene al doctor en la lejanía»
  • H1: «Una aspirina al día NO mantiene al doctor en la lejanía» (o alguna hipótesis similar)

Durante la investigación siempre se empieza suponiendo que la H0 es verdadera. Se utilizarán los datos de la muestra para decidir si la evidencia está mas a favor de H0 o de H1. A partir de esto se obtiene una conclusión:

  • Se acepta H0 y queda como verdadera
  • Se rechaza H0 y queda como verdadera H1

La hipótesis nula se rechaza solo si los datos ofrecen suficiente evidencia para no considerarla verdadera

Pero aquí, volvemos a una de nuestras incógnitas iniciales.

El problema que se nos plantea es si los resultados que obtenemos durante la investigación están dados por los efectos propios del fármaco o por alguna característica especial que pudieran llegar a tener los individuos de nuestra muestra tomada al azar.

Se han realizado innumerables estudios sobre el efecto de la aspirina en los adultos mayores. Algunos llegan a la conclusión que la aspirina tiene un efecto favorable mientras que otros no solo no han visto ninguna mejoría en la salud, sino que ademas, aumenta el riesgo de hemorragias considerables (3).

Supongamos que se dispone de una población de 1.000 individuos y que para el estudio usaremos 5 muestras de 200 personas seleccionadas al azar. Los resultados no serán los mismos en todas las muestras al finalizar el estudio. Las diferencias se le van a atribuir al azar y no específicamente al fármaco que estemos probando, en este caso, la aspirina.

Entonces, ¿Cómo determinamos cuanta es suficiente evidencia?

Aquí entra en juego lo que se conoce como Nivel de Significancia, que es la probabilidad de rechazar la H0 cuando realmente es verdadera. En otras palabras, nos da un criterio para determinar si se tiene suficiente evidencia para descartar nuestra hipótesis nula. Un nivel de significancia aceptable varía entre 1 y 5%, ya que lo que menos queremos es que nuestra hipótesis nula sea rechazada cuando las probabilidades de ser verdadera son altas.

Al estar estudiando muestras y no una población entera, podemos cometer errores asociados a la aceptación o rechazo de la hipótesis nula. Se los conoce como errores alfa y beta.

  • Error alfa o tipo 1: se comete cuando se rechaza una hipótesis que es correcta
  • Error beta o tipo 2: se comete cuando se acepta una hipótesis que es incorrecta

Entonces; en el error alfa podemos decir que por causa del azar (patologías o condiciones de cada paciente) la aspirina no tiene ningún beneficio; y por otro lado, en el error beta y también por causa del azar (pacientes sin patologías) se acepta que la aspirina si es beneficiosa. En este ultimo caso, terminaríamos exponiendo a los pacientes a posibles hemorragias de gran calibre.

En definitiva, las pruebas de contraste de hipótesis intentan aceptar o rechazar una hipótesis nula, calculando la probabilidad de que los resultados obtenidos sean producto del azar. Gracias a ellas podemos calcular que tan probable es que en una investigación los resultados estén condicionados y determinados por el azar y que las diferencias que observamos sean debido a eso.


Referencias:

  1. Pruebas de contraste de hipótesis. Estimación puntual y por intervalos. Ágata Carreño Serra. SEDEN, Sociedad Española de Enfermería Nefrológica.
  2. Introducción a la probabilidad y estadística. Mendenhall, Beaver, Beaver. Cengage Learning. 2010. ISBN-13: 978-607-481-466-8
  3. Effect of Aspirin on Disability-free Survival in the Healthy Elderly. John J. McNeil, M.B., B.S., Ph.D., Robyn L. Woods, Ph.D., Mark R. Nelson, M.B., B.S., Ph.D. The New England Journal of Medicine DOI:10.1056/NEJMoa1800722
  4. Why an aspirin a day no longer keeps the doctor away …Marie Lordkipanidzé. University of Birmingham, Edgbaston, Birmingham, UK. doi: 10.1160/TH10-11-0749

¿Qué es PubMed Clinical Queries? ¿De qué se trata? ¿Cómo se utiliza?

Objetivo educativo:

  Las consultas hechas en Pubmed Clinical Queries son para las investigaciones clínicas. Para hablarles a respecto de ese tema, vamos hacer un pequeño enfoque en como empezar a utilizar el pubmed. El Objetivo de ese trabajo es aportar datos a respecto de como utilizar la opción Pubmed Clinical Queries, mostrarles las opciones que presenta y cual su funcion para que asi les pueda ayudar en sus próximas busquedas que sean de caracter clinico.

Desarrollo del tema:

    En la  Biblioteca Nacional de Medicina em EE.UU ( NLM ) se puede encontrar los aportes informativos mas actualizados del momento; tornandose asi la más grande base de datos. El Pubmed es la fuente de busqueda en el NLM, teniendo el MEDLINE como principal contenido informativo. Es de fácil acceso, gratuito , siendo necessário el uso de internet. En Medline los artículos científicos se basan en temas médicos, con el uso de los términos “ mesh ‘’ (1)

    Es simple accesar a los contenidos literários de Pubmed; tenés que escribir el tema o el titulo del articulo que tenes interes de leer donde dice “ Search Pubmed “ y hacer click donde dice “ Search “ . Asi van a tener una amplia cantidad de bibliografias pero que no tienen filtro, lo que les va a costar mas tiempo hasta encontrar el articulo que desean. Por lo tanto, es importante que sepan utilizar herramientas simples y básicas, como los términos MESH ( Medical Sujected Headings) , Clinical Queries y los operadores Booleanos los que les van a servir como filtros, ayudando a ahorrar tiempo y les brindando una informacion mas precisa del asunto. (2)

   Lo recomendable es que inicie su computadora y abra la base de datos de Pubmed en Internet. Una forma fácil es buscar Pubmed em google. La sigla NIH y el titulo National Center for Biotchenology Information estan en la parte superior izquierda de la pagina en las ventanas abiertas en la computadora. (3)

  Cuando haces su busqueda y hace el click en “ Advanced “ les va a llevar a la ventana donde dice “ historial “ y ahi vas a poder tener acceso a las busquedas que hayas heco con los detalles y  los números que estan em azul son las referencias.(4)

  • TÉRMINOS MESH ( MEDICAL  SUBJECT  HEADINGS )

    Esa opcion esta ubicada en la parte inferior derecha de la pagina principal de Pubmed.  Hay una columna con el titulo “ Explore’’ ahí un poquito mas abajo esta la herramienta “ Mesh Database “. Cuando hagas “ click ‘’ le va llevar a una nueva pagina donde vas a poner la palavra de interes y te mostrara los términos mesh.  Esos términos presentan palavras sinónimas los que presentaran el mismo Mesh uma vez hecha la busqueda.(2)

   Los “ Mesh “ son palavras desarrolladas por la NLM para ser utilizada como herramienta en la busqueda de informaciones mas importantes y relevantes. Siendo así una manera especial en la busqueda. Todas las literaturas contenidas en Medline presentan una lista de eses términos. Cuando se objetiva la presencia de asterisco ( * ) luego de un mesh quiere decir que ese es el tema principal del articulo. (1)

  • OPERADORES BOOLEANOS

   Son los que le van ayudar a relacionar sus palavras claves en pubmed y asi hacer una busqueda mas puntual, hacen combinaciones lógicas. Los más utilizados son: AND, OR y NOT ; se los debe poner con letras mayusculas.(5)

   Al poner AND entre dos palavras, es lo mismo que esta pidiendo que en la busqueda contenga las dos cosas en comun; lo que quiere decir que los artículos que presenten uno de los temas pero no los dos no seran puestos. (5)

  Al poner OR lo que hace es combinar los conceptos puestos, lo que quiere decir que si su primer palavra presenta 10 articulos y el segundo 20 articulos la busqueda se resultara en 30 articulos para leer. (5)

  Al poner NOT lo que hace es eliminar un termino puesto en la busqueda. Asi que hay que tener cuidado al utilizarlo para que no dejes de tener acceso a algun documento que sea de su interes. (5)

  • PUBMED CLINICAL QUERIES

    El Pubmed tiene como característica presentar una base de datos especificamente para consultas clinicas de una forma mas calificada y eficiente.  Es fácil tener acceso a esa opcion de busqueda, esta ubicada en la parte inferior de la pagina principal, donde dice “ find “ y mas a abajo tenes la opcion “ clinical queries “(5)

    Cuando haces click en esa opcion, te va a llevar a una pagina donde hay filtros que le van a ayudar a hacer una busqueda mas eficaz y rápida, con informaciones clinicas consideradas mas importantes, resultando mas simple el uso de esa base de datos. (5)

   Estos filtros van a estar separados en columnas donde van a tener como títulos:

“ Clinical Study Categories” , “ Systematic Rewies “ y “ Medical Genetics “.

   Donde dice “ Clinical Study Categories “  el enfoque es en los  ensayos clínicos. Una vez que haya puesto su titulo o palabra principal en la caja de busqueda, va a surgir una nueva pagina con un cuadro para que aquella persona que estea buscando identifique si quiere informaciones a respecto de etiologia, pronostico, diagnostico, terapia y guias de prediccion clinica. Tambien hay un outro cuadro para que la persona elija si quiera algo mas amplio ( que seria presentar estúdio de casos, con diseños) o estrecho ( que presenta especificidade en los ensayos clínicos de manera mas aleatória ).(5)

   “ Systematic Rewies “ tiene como funcion buscar informaciones sobre el titulo que tenga interes el usuário. Va haber uma classificacion: Metanalisis, revision sistemática, guia de practica clinica. Es muy parecida como cuando haces uma busqueda general em Pubmed y pones los filtros ubicados en la parte inferior izquierda de la pagina.  Aunque esa opcion sea mas especifica si el usuário busca mas puntual acerca de uma revision literária, por ejemplo.(5)

   Donde hay “ Medical Genetics “ como el próprio nombre dice, les va presentar filtros a respecto de genética como : Genetica molecular, asesoramiento genético, pruebas, descripciones clinicas, diagnósticos, diagnósticos diferenciales y administracion.

Referencias:

Aquí debe enumerar la bibliografía utilizada.

1.        Theander SS. The use of PubMed/Medline in psychiatry. 1: Presentation of NLM and PubMed. Nord J Psychiatry. 2006;60(4):299–304.

2.        David A, Manuel TE. MeSH y Operadores Booleanos. 2018;(October).

3.        Theander SS. The use of PubMed/Medline in psychiatry. 2: The PubMed search window: A description and a tutorial. Nord J Psychiatry. 2006;60(4):305–9.

4.        Theander SS. The use of PubMed/Medline in psychiatry. 3: Searching PubMed. Nord J Psychiatry. 2006;60(4):310–5.

5.        Lindsey WT, Olin BR. PubMed searches: Overview and strategies for clinicians. Nutr Clin Pract. 2013;28(2):165–76.

Recordatorios Importantes: (Puede borrar este apartado de su artículo al terminar)

  • La actividad esta planeada para una duración total de 7 días que se cuentan desde el 27/4/2020 (Día que se reanuda la cursada), sin embargo les sugerimos comenzar ahora en la medida de lo posible.
  • Cada alumno deberá escribir un artículo sobe un tema de Investigación y temas aledaños (Incluye Metodología, Bioestadística, Lectura crítica de bibliografía, Buscadores y Herramientas de publicación, etc).
  • El Blog es cerrado y solo los docentes pueden verlo antes de su entrega de WordPress.
  • La redacción del tema deberá ser lo suficientemente clara y entendible ya que al finalizar la actividad será evaluada (y con las correcciones pertinentes estarán disponibles para que el resto del alumnado pueda estudiar e inspirarse con su lectura).
  • No tienen límite de extensión para el desarrollo del artículo.

¿Qué es el Factor de Impacto de una Revista? ¿Cómo se calcula? ¿Cómo se consulta?

Objetivo educativo:

El Factor de Impacto es utilizado como medida de evaluación de las revistas en los últimos 2 años y que es calculado anualmente por el Institute for Scientific Information (ISI). En ese trabajo analizaremos como el Factor de Impacto es calculado, algunas desventajas y donde puede ser consultado.

Desarrollo del tema:

El factor de impacto fue creado en 1955 para evaluar la cualidad de las publicaciones por un americano llamado Eugene Garfield, creador del Instituto para la Información Científica (ISI) de Filadelfia, y se desempeñó como investigador destacado en el campo de la bibliometría, además de ser creador de múltiples teorías y cocientes en información y documentación.[1,2,3]

¿Como se calcula el Factor de Impacto?

Para el cálculo del Factor de Impacto de una revista, tiene que tener en cuenta el número de citaciones recibidas por los artículos publicados en un período de dos años anteriores a la evaluación, dividido por el número de artículos publicados en el mismo período. Para que se entienda mejor como se hace el cálculo, observe el ejemplo abajo.[2,3]       

              
Factor de impacto de una revista en el año de 2017:
número de citaciones en 2017 de los artículos publicados en 2015 y 2016 en la revista
DIVIDIDO por el número de artículos publicados en el año 2015 y 2016 en la revista

Cuanto mayor el resultado del cálculo, mayor es el Factor de impacto, o sea, supuestamente más representativa es la revista. Por este motivo muchos científicos intentan publicar su trabajo en una revista con El factor de Impacto (FI) de la revista más alto posible.

Entretanto hay problema con este enfoque. La búsqueda por una FI alto as veces desvía los esfuerzos de la investigación.

” Las revistas de alto FI limitan el número de sus publicaciones para crear una escasez artificial y generar la percepción esa exclusividad es un marcador de calidad. La incesante búsqueda de las publicaciones de alto FI han sido perjudiciales para la ciencia.”[4]
“Sin embargo, con el tiempo, la FI se ha convertido en un sustituto-medida del prestigio de la revista y, por extensión, la conveniencia.”[5]

¿Como se consulta?

El Factor de Impato es calculado anualmente por el Institute for Scientific Information (ISI) y publicado pelo Journal Citations Reports (JCR). Para el ingreso es necesario registrarse, una vez hecho, podes buscar en el buscador directamente por el nombre de la revista, por grupos de artículos o revistas, por área temática y como resultado le va a mostrar el Factor de Impacto así como también otras variables de la búsqueda. Para que se entienda mejor como hacer la búsqueda se puede direccionar al video desde los 2 minutos y 15 segundos. https://www.youtube.com/watch?v=GJsD-YNc6eA&feature=youtu.be

Referencias:

1.        Garfield E. Journal impact factor: A brief review. Cmaj. 1999;161(8):979–80.

2.        Sundaram G, Ramakrishnan T, Parthasarathy H, Raja M, Raj S. disease : A cross ‑ link of sorts ! 2018;(May):113–8.

3.        Garfield E. The meaning of the Impact Factor. Rev Int Psicol clínica y la salud = Int J Clin Heal Psychol. 2003;3(2):363–9.

4.        Casadevall A, Bertuzzi S, Buchmeier MJ, Davis RJ, Drake H, Fang FC, et al. ASM journals eliminate impact factor information from journal websites. Appl Environ Microbiol. 2016;82(18):5479–80.

5.        Casadevall A, Fang FC. Impacted science: Impact is not importance. MBio. 2015;6(5):1–4.

¿Qué son los niveles de evidencia?

Objetivo educativo:

Actualmente existe varios sistemas de clasificación en el mundo para los niveles de evidencia y la fuerza de recomendación, por lo cual trae una gran inconsistencia para los desarrolladores de guías clínicas. Un gran número de investigadores utilizan el sistema GRADE para clasificar la calidad de evidencia disponible. Los niveles de evidencia provienen no solo la solidez del diseño del estudio sino también la veracidad de los resultados finales.

Desarrollo del tema:

El nivel o grado de evidencia clínica es un sistema jerarquizado, basado en las pruebas o estudios de investigación, que ayuda a los profesionales de la salud a valorar la fortaleza o solidez de la evidencia asociada a los resultados obtenidos de una estrategia terapéutica.

El BMJ (British Medical Journal, una revista médica publicada semanalmente en el Reino Unido por la Asociación Médica Británica​) ha solicitado en sus “Instrucciones para los autores” en bmj.com que los autores de preferencia utilicen el sistema de evaluación y desarrollo de calificación (GRADE) para calificar la evidencia al presentar un artículo de guías clínicas. 

GRADE tiene ventajas sobre los sistemas de calificación. Otros sistemas comparten algunas de estas ventajas, pero ninguno, aparte de GRADE, los combina a todos.

Ventajas de GRADE sobre otros sitemas:

El sistema GRADE presenta aspectos diferenciales que se pueden resumir en tres:

  1. Inicialmente categoriza los desenlaces de interés (ej. muerte) y su importancia relativa;
  2. Luego evalúa la calidad de la evidencia en cuatro categorías para cada uno de los desenlaces para obtener una calidad global de evidencia;
  3. Finalmente gradúa la fuerza de las recomendaciones en dos únicas categorías (recomendaciones fuertes o débiles).

En el caso concreto de las revisiones sistemáticas el sistema GRADE se ha adoptado por parte de la Colaboración Cochrane para evaluar la calidad de la evidencia de sus revisiones sistemáticas. Las ventajas de esta aproximación son:

  • Está desarrollado por un grupo internacional y representativo de desarrolladores de guías clínicas de varias partes del mundo.
  • Muestra conjuntamente la calidad de la evidencia y el grado de recomendación. Por ejemplo: mala calidad, mala recomendación.
  • Hay una evaluación explícita de la importancia de los resultados de estrategias de manejo alternativas.
  • Existen criterios claros para bajar y subir los puntajes de calidad de la evidencia.
  • Existe un proceso transparente del paso de la evidencia a la recomendación.
  • Hay un reconocimiento explícito de los valores y preferencias de los autores, lo que también pudiera ser una desventaja.
  • Finalmente, se presenta una interpretación clara y pragmática de recomendación fuerte o débil para médicos, pacientes y autoridades.

Calidad de evidencia:

Los expertos clínicos y las organizaciones que ofrecen recomendaciones a la comunidad clínica a menudo han cometido errores como resultado de no tener suficientemente en cuenta la calidad de la evidencia.  Durante una década, las organizaciones recomendaron que los médicos indicasen a las mujeres postmenopáusicas a utilizar la terapia de reemplazo hormonal. Muchos médicos de atención primaria aplicaron debidamente este consejo en sus prácticas.

La creencia de que dicha terapia disminuyó sustancialmente el riesgo cardiovascular de las mujeres impulsó esta recomendación. Si se hubiera aplicado un sistema riguroso de calificación de la calidad de la evidencia en ese momento, habría demostrado que debido a que los datos provenían de estudios observacionales con resultados inconsistentes, la evidencia de una reducción en el riesgo cardiovascular era de muy baja calidad. El reconocimiento de las limitaciones de la evidencia habría atenuado las recomendaciones. En última instancia, los ensayos controlados aleatorios han demostrado que la terapia de reemplazo hormonal no reduce el riesgo cardiovascular e incluso puede aumentarlo.

La atención insuficiente a la calidad de la evidencia pone en riesgo pautas y recomendaciones inapropiadas que pueden llevar a los médicos a actuar en detrimento de sus pacientes. Reconocer la calidad de la evidencia ayudará a prevenir errores.

Clasificación de los niveles de evidencia según GRADE:

El sistema GRADE clasifica la calidad de la evidencia en niveles: alta, moderada, baja y muy baja. Se presenta en la Tabla 1.

Alta calidadEs poco probable que la investigación adicional cambie nuestra confianza en la estimación del efecto.
Calidad moderadaEs probable que la investigación adicional tenga un impacto importante en nuestra confianza en la estimación del efecto y puede cambiar la estimación.  
Baja calidadEs muy probable que la investigación adicional tenga un impacto importante en nuestra confianza en la estimación del efecto y es probable que cambie la estimación.
Muy baja calidadCualquier estimación del efecto es muy incierta.
Tabla 1 – Calidad de la evidencia y definiciones

La evidencia que proviene de estudios clínicos aleatorizados se presupone como de alta calidad, pero este nivel puede disminuir en función de:

  • Limitaciones del estudio.
  • Inconsistencia de los resultados.
  • Evidencia indirecta.
  • Imprecisión.
  • Sesgo de reporte.

Existen además otros cinco factores que pueden justificar disminuir la calidad y otros tres que pueden justificar aumentar la calidad de la evidencia ( Tabla 2 ).

Diseño de estudioCalidad de la evidencia inicialEn ensayos clínicos, disminuir siEn estudios observacionales, aumentar solo siCalidad del conjunto de la evidencia
Ensayos clínicos aleatorizadosAltaLimitaciones en el diseño o la ejecuciónFuerza de asociaciónAlta
– Importantes– Fuerte
– Muy importantes– Muy fuerte
InconsistenciaGradiente dosis-respuestaModerada
– Importante– Presente
– Muy importanteConsideración de los posibles factores de confusión que:
Incertidumbre en que la evidencia sea directaBaja
– Importante– Habrían reducido el efecto
– Muy importante– Sugerirían un efecto espurio si no hay efecto
Estudios observacionalesBajaImprecisiónMuy baja
–Importante
–Muy importante
Tabla 2 – Evaluación de la calidad de la evidencia según el tipo de diseño de los estudios. Adaptada de: Balshem et al.

Fuerza de la recomendación:

Indica el grado en que se puede estar seguro de que la adhesión a la recomendación producirá beneficio o daño. Cuando los efectos deseados de la intervención claramente superan o no superan a los indeseados, la recomendación es fuerte. Por otro lado, si los efectos de la intervención son más dudosos, o si la calidad de la evidencia es baja, la recomendación es débil.

Además de la calidad de las pruebas, varios otros factores que afectan a si las recomendaciones son fuertes o débiles ( Tabla 3 ).

Factores que afectan la fuerza de una recomendación:

FactorEjemplos de recomendaciones fuertesEjemplos de recomendaciones débiles.
Calidad de la evidenciaMuchos ensayos aleatorios de alta calidad han demostrado el beneficio de los esteroides inhalados en el asma.Solo las series de casos han examinado la utilidad de la pleurodesis en el neumotórax
Incertidumbre sobre el equilibrio entre los efectos deseables e indeseables.La aspirina en el infarto de miocardio reduce la mortalidad con una toxicidad, inconveniencia y costo mínimosLa warfarina en pacientes de bajo riesgo con fibrilación auricular produce una reducción pequeña del accidente cerebrovascular, pero aumenta el riesgo de sangrado e inconvenientes sustanciales
Incertidumbre o variabilidad en valores y preferenciasLos pacientes jóvenes con linfoma invariablemente asignarán un mayor valor a los efectos de la quimioterapia que prolongan la vida que a la toxicidad del tratamientoEs posible que los pacientes mayores con linfoma no asignen un mayor valor a los efectos de la quimioterapia que prolongan la vida que a la toxicidad del tratamiento.
Incertidumbre sobre si la intervención representa un uso racional de los recursosEl bajo costo de la aspirina como profilaxis contra el accidente cerebrovascular en pacientes con ataques isquémicos transitoriosEl alto costo del clopidogrel y de la combinación de dipiridamol y aspirina como profilaxis contra el accidente cerebrovascular en pacientes con ataques isquémicos transitorios.
Tabla 3 – Factores que afectan la fuerza de recomendación.

La fuerza de la recomendación se mueve en un continuo que va de fuertemente recomendado a fuertemente no recomendado, con las recomendaciones débiles alrededor de la ausencia de efecto.

Calidad global de la evidencia:

Cada recomendación depende de la evidencia sobre resultados identificados al hacer preguntas clínicas y considerado como importante para los pacientes. El sistema GRADE realiza una valoración global de la evidencia, esta valoración global expresa la confianza general que tenemos en los desenlaces de interés y corresponde al menor nivel de confianza de los desenlaces claves.

Así, si para responder una pregunta tenemos 3 desenlaces claves, 2 de ellos con una calidad alta y otro con calidad moderada, la calidad global de la evidencia será valorada como moderada. Una recomendación fuerte está sustentada con una confianza alta o moderada en las estimaciones del efecto para los desenlaces claves y una recomendación débil, en una confianza baja o muy baja.

Conclusión:

El sistema GRADE proporciona un enfoque integral, explícito, y metodología transparente para calificar la calidad de evidencia y solidez de las fuerzas de recomendaciones sobre el manejo de pacientes. No evaluar el nivel de evidencia, puede llevar a recomendaciones prejudiciales a los pacientes, por lo que las guías clínicas o recomendaciones debieran informar cuál es la calidad de la evidencia que sustenta la intervención, y si dichas recomendaciones son fuertes o débiles.

Referencias:

  1. Howard Balshema, *, Mark Helfanda,b , Holger J. Sch€unemannc , Andrew D. Oxmand , Regina Kunze , Jan Brozekc , Gunn E. Vistd , Yngve Falck-Ytterf , Joerg Meerpohlg,h , Susan Norrisi , Gordon H. Guyattc. 2011. GRADE guidelines: 3. Rating the quality of evidence. https://www.sciencedirect.com/science/article/abs/pii/S089543561000332X
  2. David Atkins1, Martin Eccles2, Signe Flottorp3, Gordon H Guyatt4,David Henry5, Suzanne Hill5, Alessandro Liberati6, Dianne O’Connell7,Andrew D Oxman3, Bob Phillips8, Holger Schünemann4,9, Tessa TanTorres Edejer10, Gunn E Vist*3, John W Williams Jr11 and The GRADE Working Group3. 2004. Systems for grading the quality of evidence and the strength of recommendations I: Critical appraisal of existing approaches The GRADE Working Group. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2335261/
  3. Daniela Pérsico T.1 y David Torres P.2. 2014. Niveles de evidencia y grados de recomendación: Sistema GRADE. https://revistachilenadeanestesia.cl/PII/revchilanestv43n04.18.pdf
  4. Andrea Juliana Sanabriaa, David Rigaua, Rafael Rotaecheb, Anna Selvaa, Mercè Marzo-Castillejoc y Pablo Alonso-Coelloa. 2015. Sistema GRADE: metodología para la realización de recomendaciones para la práctica clínica. https://www.sciencedirect.com/science/article/pii/S0212656714000493?via%3Dihub
  5. Luigi Terraccianoa, Jan Brozekb, Enrico Compalatic and Holger Schu¨nemann. 2010. GRADE system: new paradigm. https://journals.lww.com/co-allergy/Abstract/2010/08000/GRADE_system__new_paradigm.19.aspx

Tipos de Estudios Epidemiológicos: Experimentales, Observacionales, Descriptivos y Analíticos

Objetivo educativo:

El objetvo por parte de este artículo es ofrecer una noción general de los conceptos básicos acerca de los estudios epidemiológico de tipo experimentales y no experimenales. También explicar la metodología de como aproximarse a un diseño de estudio adecuado y como analizar los principales criterios que se necesita tener en cuenta a la hora de elegir uno.

Desarrollo del tema:

La epidemiologia se define como la Ciencia del razonamiento y  del método, usado tanto en la medicina cuanto en otras ciencias. Se aplica a la descripción de la distribución de las enfermedades y de los fenómenos de salud, la explicación de su etiología y evaluación de la repercusión de estos eventos en el ámbito de la población, la búsqueda de tratamientos y métodos de intervenciones eficaces. Dentre los estudios epidemiológicos, el diseño elegido es el arreglo de las unidades utilizadas para controlar el error experimental. El término diseño se refiere al plan o estrategia concebida para obtener la información que desea (5)

Los estudios epidemiológicos se clasifican básicamente en dos tipos:

  • Experimentales: cuando el investigador controla la exposición y utiliza la aleatorización como método de asignización.
  •  No Experimentales: (también llamado de observacionales) cuando la exposición ocurre sin la participación del investigador y con la presencia de variables que están fuera de control del investigador, a través de la detección y descripción de los problemas de salud que aparecen en una comunidad.

Dependiendo del tipo de problema que tenemos, del tiempo que dispongamos  y de  presupuesto disponible, elegimos el tipo de estudio epidemiológico más adecuado para contestar a nuestras preguntas.  Antes de empezar un estudio, también debemos tener en cuenta el cuales son los objetivos del estudio en cuestión, la población en que se va a estudiar, y las variables en que se van a recoger, entre otros aspectos básicos.

Estudios Experimentales

Se define estudios de tipo experimentales cuando el investigador define cada una de las características de los grupos, asignando a un determinado grupo un fármaco, tóxico, prueba diagnóstica, factor de riesgo u otro aspecto  a ser estudiado.O sea, están definidas las variables y los mecanismos de control de dichas variables. El término experimento se refiere a elegir o realizar una acción y después observar las consecuencias, el inestigador genera una situación para tratar de explicar cómo afecta a quienes participan.  (5)

En los  estudios de tipo experimentales se encuentran los ensayos clínicos aleatorizados y controlados,  en donde se utiliza de la aleatorización como método de asignización a grupos clasificados como  “grupo de estudio” y  “grupo control”, para recibir o no determinado procedimiento, maniobra, intervención o tratamiento. Proporcionan el máximo grado de evidencia para confirmar la relación causa efecto entre la exposicióny el evento a ser estudiado.

Su principal función es evitar los sesgos (error muestral) y las variables de confusión, mediante tres procedimentos: a) de intervenciones o de exposiciones. b) de los grupos en estudios, y c) de los procedimientos para recopilar la información obtenida de la población. (1).

Características fundamentales:

  • Hay una intervención por parte del investigador
  • Uso de un control como comparación
  • Se utilizan los resultados en una muestra limitada de pacientes

Ventajas:

  • Mayor control en el diseño
  • Menos posibilidad de sesgos

Desventajas:

  • Costo elevado
  • Limitaciones de tipo ética
  • Responsabilidad en la manipulación de la exposición
  • Dificultad en la generalización debido a la selección

Por ultimo, es importante mencionar que la comparabilidad de la información se logra cuando se utilizan exactamente los mismos métodos de seguimiento y de medición en todos los participantes en el estudio. Una manera de lograr esto es cegando a los evaluadores y a los participantes en el estudio ( duplo-ciego). Los evaluados desconocen la pertenencia de las personas que serán evaluada, es probable que la medición no se vea afectada por esta información. (2

Dentro de los estudios experimentales, también se encuentra los ensayos de campo, en donde las personas seleccionadas no han adquirido la enfermedad o esten en riesgo de adquirirlas. Estudian factores preventivos de la enfermedad, como por ejemplo la administración de vacunas o el seguimiento de dietas. (6)

Los ensayos comunitarios, incluyen intervenciones sobre bases comunitarias amplias, en los que una comunidad reciba la intervencion mientras que otra comunidad no la recibe. (6)

A su vez, algunos texto (3) mencionan los estudios cuasi-experimentales como un grupo intermedio entre los estudios experimentales y no experimentales. Eses estudios también pueden ser llamados de ensayos clínicos no aleatorizados.

Son diseños adaptados de los estudios experimentales  en el cual el investigador no controle la distribución individual (4). En este estudio los participantes se asignan a los distintos grupos de estudio y control mediante un método no aleatorio, o sea, el investigador es quien decide y controla la asignación y se analiza el efecto de una intervención impuesta. En este estudio también se manipulan, al menos, una variable para observar su efecto en relación con una más variables dependientes (5). En este caso, la asignación no aleatória puede dar lugar a un sesgo en los resultados finales del ensayo.

Se utilizan para estudios de laboratorio clínico, cuando hay impedimentos éticos o si no hay factibilidad económica para hacer un estudio experimental propiamente dicho.

Ventajas:

  • Puede hacerse con grupos pequeños
  • Bajo costo
  • Menos obstáculos prácticos

Estudios no Experimentales (Observacionales)

Los estudios observacionales tienen como objetivo describir un fenomeno dentro de un determinado grupo de estudo y identificar su distribución. No existe ninguna parte de intervención por parte del investigador, se limita a observar y describir los resultados.

A su vez, los estudios observacionales pueden ser de dos tipos, analíticos o descriptivo.

Los estudios descriptivos reseñan rasgos, cualidades o atributos de la población objeto de estudio (7) . El investigador se limita a describir la frecuencia y características más importantes de un determinado problema de salud, medir la presencia, distribución o característica de un fenómeno dentro de una determinada población.

Los principales tipo de estudios descriptivos son los estudios ecológicos, estudios de series de caso y los transversales (también llamados de prevalentes).

Estudios ecológicos: En este tipo de estudio se utiliza datos  agregados de toda población que sirven para describir una enfermedad en relación a variables de interés que pueden ser la edad, utilización de servicios, consumo de determinado alimento (6). La asociación entre la exposición  y una enfermedad es a nivel poblacional y no de manera individual. La ventaja de este tipo de estudio es que se realiza de forma rápida, con bajo costo y con informaciones que suelen ya estar disponibles en una población.

Series de casos: Describen la experiencia de un paciente o  un grupo de pacientes con un mismo diagnóstico, las característica de determinada enfermedad o del paciente que es afectado por la misma. Sirven también para mantener una vigilancia epidemiológica, ya que muchas veces se describen nuevas enfermedades o efectos adversos de determinado tratamiento.

Estudios transversales: También denominado estudio de prevalencia. La población en estudio puede ser seleccionada de manera aleatoria, y una vez bien definida la población, estudian simultáneamente la exposición y la enfermedad  en un momento determinado (6). Se caracteriza por hacer una solo medición en cada individual en el tiempo en que se está realizando el estudio, la proporción de personas con la exposición está determinada por la frecuencia con que ocurren eso en la población elegida.  Se utilizan para  conocer la prevalencia de una enfermedad o de un factor de riesgo, valorar el estado de salud de una comunidad y determinar sus necesidades

A su vez, en los estudios analíticos el investigador relaciona de manera hipotética algún factor de riesgo o agente causal con un determinado efecto, o sea, establecer una relación causal entre dos fenómenos. El investigador no establece ningún tipo de intervención, permitiendo de esta manera hacer el seguimiento de un proceso evolutivo natural.

Los estudios analíticos se dividen en dos: estudios de cohortes y estudios de casos y controles.

Estudios de Cohorte (o de seguimiento): Son estudios también llamados prospectivos, ya que se van hacia delante, desde la exposición hasta un efecto.  En este tipo de estudio se establece dos grupos cohortes, uno que será compuesto por la población expuesta al factor de riesgo, y otro que se comporta como grupo control. Establecido los grupos, se realiza un seguimiento en el tiempo para observar la frecuencia de aparición de determinado factor que esta en estudio.

Estudios de casos y control: En este estudio se elige un grupo de individuos que tienen una determinada enfermedad, y otro grupo en el que la enfermedad esté ausente. La función del grupo control es estimar la exposición en una población en que no posee la enfermedad, eso quiere decir, medir si la frecuencia del factor de riesgo entre los enfermos es superior a la que se encuentra en el grupo control.

 Se caracteriza por ser un estudio retrospectivo, o sea, que mira hacia atrás y tiene como objetivo estudiar la relación, contacto o exposición previa de cada uno de los grupos. Suelen ser más rápidos y económicos.

En resumen, los estudios de Cohortes se parte desde la exposición al factor de riesgo para llegar a la enfermedad y en los estudios de Caso y Control se parte de la enfermedad para intentar establecer una relación causal previa con el factor de riesgo (6).

Referencias:

Aquí debe enumerar la bibliografía utilizada.

  1.  Miettinnen OS. Theoretical epidemiology. Principles of occurence research medicina. Nueva York: A Wiley Medical Publication, 1985. 
  2. Kelsey JL, Thompson WD, Evans AS. Methods in observation epidemiology. Nueva York: Oxford University Press,
  3. Rothman Kj, Greenland S. Modern epideemiology. 2ª. Edition. East Washington Square. PA: Lippincott-Raven Publishers, 1998. 
  4. D. Campbell y J.Stanley – Diseños experimentales u cuasi experimentales en la investigación social
  5. Sampieri – Libro de Referencia Metodología de la investigación. 5ª edición.
  6. Pita Fernandez S. – Tipos de estudios clínicos epidemiológicos
  7. César Augusto Bernal – Metodología de la Investigación. 2ª Edición
  8. Kuehl – Diseño de Experimentos. 2ª edición
  9. Diseño de estudios epidemiológicos – Mauricio Hernández Avila, Francisco Garrido Latorre, Sergio López Moreno
  10. Modelos de estudios en investigación aplicada: conceptos y criterios para el diseño – Jorge V. de Cabo, Elena de la Fuente Días, Martha Zimmermann V.

Gestores de citas cuales existen? Pros y contras de cada uno.

OBJETIVOS:

Los objetivos de este artículo estarán centrados en conocer qué es un gestor de citas, cuáles son sus funciones, cuales conocemos y que beneficios nos brindan a la hora de realizar un trabajo de investigación. Podemos decir entonces que su función principal es dar a conocer cuales fueron las fuentes utilizadas en la investigación, para su correcta redacción. Dicho tema presenta una gran problemática a la hora de realizar las citas, por este motivo brindaremos las herramientas necesarias su correcta redacción.

Además nombraremos cuales son los mas utilizados como por ejemplo lo es Mendeley.

Como parte final de nuestro articulo realizaremos una conclusión sobre las enseñanzas que dicha investigación nos brindó.

INTRODUCCION:

Podemos empezar hablando acerca de los tipos de fuentes de investigación, dentro de ellos encontramos las primarias, son en las que se obtiene la información en forma directa, es decir, que es la fuente en donde se origina dicha información(personas, acontecimientos, ambiente, etc.) ; en cambio las fuentes secundarias son aquellas que nos brindan información acerca del tema a investigar pero que al contrario de las primarias no son la fuente directa del tema, entre ellas encontramos los libros, revistas, documentos, noticieros y medios de comunicación.

La descripción de la biografía utilizada en un trabajo de investigación es muy importante para determinar cuán profundo fue el trabajo realizado por el autor, cuanto se conoce de dicho tema en el mundo, reconocer las citas relacionadas y autores. Por dicho motivo, en el articulo nos vamos a centrar en explicar como se realiza una correcta cita bibliográfica.

Los gestores de citas son programas en los cuales podemos encontrar las herramientas para realizar de forma adecuada las referencias bibliográficas que fueron utilizadas para la realización de dicho articulo; esta no es su única función sino que podemos utilizarlos como Biblioteca digital, consulta, búsqueda y también importación de datos.

¿ Que es la referencia bibliográfica?

Es un conjunto de indicaciones detalladas en el que se puede identificar un documento para certificar su validez, actualización y confiabilidad. Es un elemento imprescindible a la hora de la publicación ya sea de una tesis o un artículo científico. Pero debemos diferenciar una citación( es una referencia inserta dentro del cuerpo del texto de autoría o fuente ajena) de una referencia bibliográfica.

Existen dos tipos:

  • Citación numérica: remiten a la cita de procedencia mediante un número que se refiere a una lista de obras citadas al final del capítulo o libro, se ordena de forma numérica.
  • Citaciones de autor y año: consta de colocar directamente el texto, por lo general entre paréntesis. Como primeros elementos se encuentra el autor, el año de edición de la obra, y según lo considere el autor, se pueden colocar la página o páginas.

Gestores bibliográficos:

Son herramientas académicas y de investigación que ayudan a los autores a organizar los recursos de información, utilizar tus referencias de una forma cómoda y amplia. Les permite mantener ordenadas todas tus referencias bibliográficas ya sea una pagina web, un libro, revista científica. Permite que se realice de forma correcta nuestra cita, a su vez crear, importar datos de otros gestores de referencia, organizar y mantener su base de datos bibliográficos, pudiendo importar citas, editarlas y que puedan ser exportadas hacia otro documento en cualquier formato. A su vez, nos permite evitar los errores de transcripción.

Debemos tener en cuenta la normativa ISO ( Organización Internacional para la Estandarización ) en una entidad internacional encargado de producir los carácteres normativos en los campos industriales y comerciales. ISO 960 es la cual establece la normativa internacional de elementos de referencia bibliográfica.

Entre los gestores mas conocidos podemos encontrar:

  • Reference Manager
  • ProCite
  • Mendeley
  • CiteUlike
  • Citethisform
  • Zotero
  • RefWorks
  • Refme
  • Docear
  • EndNote

Vamos a enumerar las características de los mas utilizados en este momento, entre los cuales encontramos, Mendeley, EndNote, Zotero, RefWorks.

En dicho párrafo vamos a explayarnos acerca del Gestor de citas mas utilizado en estos tiempos, Mendeley. Dentro de sus características principales encontramos que se puede acceder de forma gratuita, presenta una versión en Español, fácil acceso para el usuario a su vez permite importar numerosos formatos de referencia y sincronizar datos en línea.

Mendeley Escritorio (Desktop)

Mendeley : gestor de referencias bibliográficas y documentos ...

CARACTERÍSTICAS GENERALES DE CADA GESTOR( RefWorks, EndNote y Zotero):

  • LENGUAJE: En un primer momento todos los gestores se encontraban en idioma Inglés, el primero en incorporar el Español fue RefWorks pero EndNote sigue sin ofrecer esta ventaja para el lector.
  • ACCESO: Refworks y EndNote presentan la posibilidad de ingresar a través de contraseña y password. En cambio Zotero, se integra a la red a través de una barra de herramientas y sólo se puede acceder a él a través del navegador Moxilla Firefox, ya que es una extensión del mismo.
  • VERSIÓN LOCAL: Solo la dispone EndNote.
  • USABILIDAD: Los que brindan una mejor forma de acceso y uso son RefWorks y EndNote.
  • GESTOR DE AUTORIDADES: El gestor que mejor responde a esta característica es RefWorks, ya que además genera un índice de frecuencias. En cambio, los otros gestores, no cumplen con dicha función.
  • CONTROL DE DUPLICADOS: RefWorks y EndNote son los que mejor sistema de localización de duplicados presentan.
  • CITAS: EndNote tiene la característica de poder importar datos desde una bibliografía preexistente. Pero Zotero y RefWorks han incorporado la posibilidad de citar de forma automática en formato ISO.
  • ÁREA COMPARTIDA: RefWorks requiere que para compartir datos todos los investigadores presenten una cuenta en él( una de sus condiciones de uso es el pago anual de suscripción), EndNote permite compartir su bibliografía de forma gratuita y Zotero acaba de incorporar dicha posibilidad.
  • TRABAJAR SIN CONEXIÓN: EndNote y Zotero permite accesibilidad aunque el operador no presente conexión. Zotero a incorporado recientemente la posibilidad de hacer imágenes a partir de documentos HTLM; además junto con RefWorks permiten la incorporación de artículos en pdf, word, ppt.
  • SINDICACIÓN DE CONTENIDO: RefWorks solo cuenta con lector RSS.
  • GOOGLE ACADÉMICO: Los tres gestores reconocen documentos en dicha página
  • RECURSOS: Zotero recoge de manera directa información de Youtube, Slideshare.
  • SUGERENCIAS: El único gestor que permite dicha función en Zotero.

Como dato a tener en cuenta, EndNote presenta una limitación en el número de registros (10.000) y un número limitado de carpetas para compartir(100).

Zotero permite almacenar hasta 300 mb gracias a su acceso gratuito, es un software de código abierto; en cambio Mendeley sólo permite almacenar 2GB y es un software de código propietario.

CONCLUSIÓN:

Para finalizar dicho articulo podemos reflexionar que los Gestores de citas son programas en los cuales los investigadores encuentran una herramienta fundamental en su proceso de investigación, para la realizar las citas de los autores que fueron consultados de una forma ordenada y que nos permita comprender. Además ahora sabemos que contamos con gestores de forma gratuita en la web. Podríamos decir que EndNote es el gestor de citas que se destaca por su buena organización y usabilidad por disponer de una versión local.

REFERENCIAS:

1- Carreño, M., 2020. Análisis Comparativo De Los Gestores Bibliográficos Sociales Zotero, Docear Y Mendeley: Características Y Prestaciones.. [online] Revistas.um.es. Available at: https://revistas.um.es/gesinfo/article/view/219511 [Accessed 29 April 2020].

2- Youtube. 2017. Gestores De Referencias Bibliograficas. Mendeley. [online] Available at: https://www.youtube.com/watch?v=Utjmm70zglQ [Accessed 28 April 2020].

3- Carreño, M., 2020. Análisis Comparativo De Los Gestores Bibliográficos Sociales Zotero, Docear Y Mendeley: Características Y Prestaciones.. [online] Revistas.um.es. Available at: https://revistas.um.es/gesinfo/article/view/219511 [Accessed 29 April 2020].

4- Referencia bibliográfica. (2020). Retrieved 29 April 2020, from https://es.wikipedia.org/wiki/Referencia_bibliogr%C3%A1fica


5- Gestión bibliográfica | Biblioteca de la UOC. (2020). Retrieved 29 April 2020, from http://biblioteca.uoc.edu/es/recursos/gestion-bibliografica-uoc

6- Gestores de referencia de ultima generación: RefWorks, EndNote y Zotero. Retrieved 10 May 2020, from https://www.researchgate.net/publication/40228475_Gestores_de_referencias_de_ultima_generacion_Analisis_comparativo_de_RefWorks_EndNote_Web_y_Zotero

7- Rodríguez Castilla, L. (2020). Le resulta difícil hacer la bibliografía: Los gestores de referencias bibliográficas pueden ayudarlo. Retrieved 10 May 2020, from http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1024-94352009000200003

8- (2020). Retrieved 10 May 2020, from https://www.aacademica.org/jornadasaahd/96.pdf

¿Qué dice la “ley de protección de datos personales” en la Argentina? ¿Por qué es tan importante para la Investigación?

Tu trabajo esta muy bien, solo te recomendamos revisar la bibliografia y citarla con números en el texto. El video deberia explicarse en el texto de que se trata y llamarlo en ese texto como (Ver video). Por último te sugiero que agragues un item mas de sugerencias para hacer una base de datos que respete lo que dice esta ley. Saludos


Objetivo educativo:

En toda investigación se recolectan, almacenan y archivan múltiples datos cuya información, posiblemente, pertenezca a un individuo o grupo de individuos, elegidos por alguna característica en particular. Por ende, me parece imperiosa la necesidad de esclarecer tanto los conceptos de privacidad y confidencialidad como también, el marco teórico, ético y legal de la protección de datos que giran en torno a un estudio experimental.

Desarrollo del tema:

Privacidad versus Confidencialidad

Si bien estos conceptos están íntimamente relacionados no significan lo mismo.

La privacidad es el derecho que tiene cualquier persona de mantener su vida íntima y asuntos personales libre de perturbaciones. La confidencialidad, por otro lado, es el pacto que el investigador hace con el entrevistado sobre cómo manejará, gestionará y difundirá la información privada que le sea proporcionada. Es decir, la privacidad se refiere al individuo o sujeto mientras que la confidencialidad se refiere al accionar del investigador. (1)

Aspectos Éticos y Legales en el manejo de datos

Cuando se involucran seres humanos a los estudios experimentales, los investigadores se ven obligados a la revisión de aspectos tanto éticos como legales, cuyo desarrollo tienen un importante rol a la hora de tomar decisiones y realizar ciertas consideraciones.

Nadie está exento de esta revisión. El ámbito científico está fuertemente regulado. Tal es así, que para que una investigación se pueda poner en marcha, debe previamente ser aprobada por un comité de ética. Se debe corroborar que la ley “Habeas Data” se cumpla, dando garantías de respetar a todas las personas que formaron parte y a sus derechos, de cuidar su salud y su integridad. (2) Asimismo, el autor debe asegurar la veracidad de la información que publica así como de disponer, en caso de que se le requiera, de los documentos pertinentes.

¿Qué dice la ley sobre el resguardo de información?

“La ley de protección de datos o Habeas Data tiene por objeto la protección integral de los datos personales asentados en archivos, registros, bancos de datos, u otros medios técnicos de tratamiento de datos, sean éstos públicos, o privados destinados a dar informes, para garantizar el derecho al honor y a la intimidad de las personas, así como también el acceso a la información que sobre las mismas se registre (…)” (3)

Congreso de la Nación Argentina. (30, Octubre 2000). Ley de Protección de los Datos Personales [25.326]. Recuperado de http://servicios.infoleg.gob.ar/infolegInternet/anexos/60000-64999/64790/norma.htm

Dicha ley, busca resguardar a los participantes de posibles o futuros daños que podría causar la publicación y viralización de los datos publicados. Cabe destacar, que nunca una investigación, un estudio o trabajo experimental debe vulnerar la intimidad y la dignidad de un tercero.

La mejor forma para lograrlo es la redacción de un consentimiento informado(4), en donde el participante expresa voluntariamente (verbalmente y/o por escrito) su conformidad e intención de participar en la investigación, una vez explicados todos los puntos que la abarcan (objetivo, beneficios, posibles riesgos como así también que se va a hacer con sus datos, quién tendrá acceso a ellos y cómo serán publicados).

Por otra parte, otro recurso muy utilizado es la anonimización(5) y su uso es muy frecuente más que nada en ensayos clínicos. Esta consiste en la conversión de datos en una forma en que no sea posible identificar de quién se está hablando particularmente. Básicamente, es una herramienta que se basa en diferentes técnicas, que a partir del análisis masivo de datos, identifica y oculta información personal sensible con el fin de mitigar la transgresión de la privacidad de los participantes. (Ver video)

Anonimización de Datos Clínicos
(2014, July 10). University of Edinburgh.
una gran estrategia : el plan de gestión de datos

El plan de gestión de datos (PDG) es un documento utilizado para organizar, diseñar y planificar la colección y el manejo de datos durante y después de una investigación. Es un instrumento esencial que evidencia la responsabilidad y el compromiso de los investigadores con el resguardo y la preservación de la información personal adquirida. Tal es su importancia, que su confección se declaró obligatoria en el año 2013, a partir de la sanción de la ley 26.899 sobre Repositorios Digitales, reglamentada por la Res. 753 en Noviembre de 2016.

A continuación, procederé a determinar cuales son los pasos a seguir para la confección de dicho plan de gestión de datos en base a lo establecido por el Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET): (6)

  1. Identificar y mapear los datos que prevé colectar y/o producir durante el proceso de investigació tipología, procedencia, volumen y formatos.
  2. Preparar una estrategia de almacenamiento y resguardo durante el proyecto de preservación.
  3. Explicar como se documentarán y procesarán los datos, identificar estándares que permitan su descripción, herramientas o plataformas de gestión.
  4. Definir las políticas de acceso y reuso de los datos, tratamiento de datos sensibles y personales, confidencialidad.
  5. Definir funciones, roles y responsabilidad de los participantes que realizarán tareas relacionadas con la gestión de datos de investigación del proyecto.

En definitiva, es responsabilidad del investigador cuidar los datos que les son entregados para llevar a cabo su búsqueda y, además, es una invitación a reflexionar sobre la manera en que diseñan sus proyectos, ya que no solo deben lograr su cometido en cuanto a lo científico sino también proteger a aquellos que participan para poder llevarlo a cabo. Son ellos quienes están a cargo de gestionar estrategias para mantener la privacidad de los datos identificables, incluida la forma de manejar, usar y difundir información personal.

Referencias:

  1. Gestión de datos de investigación: Protección de los datos. (n.d.). Retrieved from https://biblioguias.cepal.org/c.php?g=495473&p=4398118
  2. Di Conza, José A., & Quiroga, Cecilia (2013). Las responsabilidades éticas en la publicación de artículos científicos. Revista Argentina de Microbiología, 45(4),219-221. ISSN: 0325-7541. Disponible en: https://www.redalyc.org/articulo.oa?id=2130/213029412001
  3. PROTECCIÓN DE LOS DATOS PERSONALES. (n.d.). Retrieved from http://servicios.infoleg.gob.ar/infolegInternet/anexos/60000-64999/64790/norma.htm
  4. Meo, Analía Inés (2010). CONSENTIMIENTO INFORMADO, ANONIMATO Y CONFIDENCIALIDAD EN INVESTIGACIÓN SOCIAL. LA EXPERIENCIA INTERNACIONAL Y EL CASO DE LA SOCIOLOGÍA EN ARGENTINA. Aposta. Revista de Ciencias Sociales, (44),1-30. ISSN: . Disponible en: https://www.redalyc.org/articulo.oa?id=4959/495950240001
  5. Orientación y garantías en los procedimientos de ANONIMIZACIÓN de datos personales. Aepd.es. (2016). Retrieved from https://www.aepd.es/sites/default/files/2019-09/guia-orientaciones-procedimientos-anonimizacion.pdf.
  6. El CONICET inicia la implementación del Plan de Gestión de Datos PGD para sus proyectos de investigación. Conicet.gov.ar. (2017). Retrieved 29 April 2020, from https://www.conicet.gov.ar/el-conicet-inicia-la-implementacion-del-plan-de-gestion-de-datos-pgd-para-sus-proyectos-de-investigacion/.
  7. OPS/OMS. (2019). Protocolo de Investigación: Guía para realizar investigaciones en el lugar de trabajo en la OPS.
  8. OPS/OMS. (2002). Pautas éticas internacionales para la investigación biomédica en seres humanos. Ginebra.

¿Qué es el Poder Estadístico y cómo se calcula?

Objetivo

El objetivo de este artículo es reflejar conocimiento a futuros investigadores sobre la correcta recolección de datos, el uso correcto de los métodos estadísticos, conocer los modelos y métodos de cálculos y enfocar en la importancia del poder estadístico en los experimentos.

Introducción

Una de las herramientas más importantes y que no debe dejar de conocer en la realización de estudios e investigaciones es la estadística. Esta disciplina constituye un eje fundamental a la hora de recolectar y analizar datos experimentales brindando una respuesta racional a las grandes incertidumbres.

Aplicado a las ciencias de la salud, esta establece la medicina basada en la evidencia, donde demuestra la veracidad y eficacia de todas las investigaciones (ya sean antibióticos, vacunas, tratamientos, efectos adversos, etc.) pudiendo cambiar la manera en la que esta se ejerce y el empleo de sus recursos.

Al llegar a esta evidencia, puede que no sea la que el investigador quiso corroborar en una primera instancia. Muchos de los errores que cometen los investigadores están relacionados con la hipótesis formulada, el tamaño de la muestra, la población, la variabilidad, el diseño e incluso la calidad de esa misma evidencia.

Desarrollo

La Estadística se ocupa de reunir, clasificar, resumir, hallar regularidades, dar significado a las diferencias observadas, y analizar los datos aleatorios; siempre y cuando la variabilidad e incertidumbre sea una causa intrínseca de los mismos, con el fin de ayudar a la toma de decisiones y formular predicciones.

Al reunir los datos necesarios para realizar su propia investigación, se tienen que tomar en cuenta diversos puntos, siendo la más importante la correcta delimitación del campo de estudio sobre su población d interés. Por lo general los experimentos se realizan tomando dos muestras aleatorias de un grupo población. (Un grupo A y un grupo B).

Una vez definida la muestra poblacional, es fundamental entender el uso y análisis del poder estadístico. Este término hace referencia a la probabilidad de rechazar una hipótesis nula.

La probabilidad de rechazar una hipótesis nula cuando es realmente falsa se representa como β.

Poder estadístico= 1 – β

Al comenzar, el investigador tiene que realizar dos tipos de hipótesis.

Una hipótesis la cual se llama hipótesis alternativa (H1= hipótesis que afirma el resultado al que se quiere concluir en la investigación), y paralelamente genera la hipótesis nula (H0= afirmación contraria a la que quiere llegar el investigador).

Cuando la hipótesis da como resultado que es no significativa, el poder estadístico revisa si realmente esta hipótesis no tiene impacto o efecto, o el problema no es la hipótesis sino otro factor, como el tamaño muestral. Este poder evita conclusiones falsas y mejora la interpretación de los resultados.

En el experimento de esta investigación, donde ya comentamos que se van a utilizar dos grupos, la H0 más común indica que no hay diferencia entre las poblaciones A y B. En cambio, la H1 afirma que hay diferencia, pudiendo esta demostrar por ejemplo la diferencia de un mismo tratamiento, afectos adversos o positivos en dos grupos diferentes.

Cuando las hipótesis estén definidas y los datos se hayan obtenido correctamente, el investigador decidirá si hay suficiente evidencia para rechazar la hipótesis nula.

Para no cometer ninguno de estos errores, se tiene que tener un alto poder estadístico. Si se tiene poco poder estadístico no se podrán detectar pequeñas diferencias entre los grupos poblacionales, generando una gran debilidad en el diseño de la investigación.

Cálculo

El poder estadístico (1- β) se calcula con la utilización de la siguiente formula(6):

Donde:

  • = Diferencia entre la media de los grupos.
  • Ơ = Desviación estándar conjunta.
  • nT y nC = Tamaños de las muestras de cada grupo.

Para ver ejemplificado el uso de la formula Z, dejo citado este video para que demuestre el correcto cálculo del poder estadístico(10).

Conclusión

El análisis de poder estadístico es una herramienta indispensable en la realización de investigaciones ya que detecta el impacto de la investigación, permitiendo calcular el diseño, la metodología, efectos y errores de los datos siendo el tamaño muestral su principal determinante.

Puede tener múltiples resultados ya sea que la hipótesis nula sea verdadera, sea falsa, sea falsa y rechazada, o sea verdadera y rechazada.

Podemos concluir que(9):

  • A mayor muestra, más poder.
  • A menor efecto, se requiere mayor tamaño muestral.
  • A mayor variabilidad en la población, se requiere mayor tamaño muestral.
  • A menor significancia estadística, menor poder de la prueba.

Si el poder estadístico es pobre, la investigación no llegará a conclusiones firmes, su resultado será sospechoso y muy factible a sesgos.

Referencias

1. Biostatistics for the health sciences (2008), Primera edición, de R. Clifford Blair y Richard A. Taylor, publicada originalmente en inglés por Pearson Education Inc., publicada como PRENTICE HALL INC.

2. Bioingenieria e Informatica Médica. Curso: Bioestadística básica para médicos asistenciales. Cuarto Congreso Virtual de Cardiología. Septiembre 2005

3. Bioéstadística: Métodos y Aplicaciones U.D. Bioestadística. Facultad de Medicina. Universidad de Málaga. ISBN: 847496-653-1

4. Primer of Biostatistics (Glantz)(Paperback) McGraw-Hill Medical; Edición: 6 (15 de abril de 2005) ISBN-10: 0071435093 ISBN-13: 978-0071435093

5. Andrew D. Althouse, PhD Pittsburgh, PA 5 de agosto de 2015 Lenth RV. Poder post hoc: tablas y comentarios. Disponibleen: http: //www.stat.uiowa. edu / fi les / stat / techrep /tr378.pdf . Consultado el 4 de agosto de 2015. http://dx.doi.org/10.1016/j.amjcard.2015.09.013

6. Gesto Giannattasio, Nora. (2016). Análisis de Poder Estadístico y su Aplicación a Evaluaciones Experimentales. DOI: 10.13140/RG.2.1.1545.7366.

7. Introducción a la inferencia estadística. Armando Aguilar Marquéz, Jorge Altamira Ibarra, Omar García León, Profesores del departamento de Matemáticas, Facultad de Estudios Superiores Cuautitlán, UNAM.

8. Introducción a la inferencia estadística. PEARSON EDUCACIÓN, México, 2010 ISBN: 978-607-442-737-0. PRIMERA EDICIÓN

9. https://www.youtube.com/watch?v=_BHJGWfksjw

10. https://www.youtube.com/watch?v=rbpgjMABhV8

¿Qué características tiene el enfoque cuantitativo de investigación?

OBJECTIVO EDUCATIVO:

El presente estudio tiene como finalidad discutir las características del  enfoque cuantitativo de la investigación científica. En este sentido, tiene como objetivo exponer un análisis sobre el tema a través de un estudio bibliográfico profundo de la temática en cuestión. Para que, asi, sea facilitado el entendimiento del tema trabajado y sus fases procesuales.

DESAROLLO DEL TEMA:

El enfoque cuantitativo deriva de una tipología de la metodología científica denominada estudio de cohorte, en el cual se explica la realidad social de manera directa y desde afuera. En este sentido, la temática del enfoque cuantitativa de la investigación posee como característica a la metodología lógica-empírica. (1)

Además, el estudio posee carácter deductivo, o sea, es construido por intermedio de la realización de procedimientos rígidos, pesquisas empíricas y de las colectas de datos.

El enfoque cuantitativo de la investigación tiene como base el modelo positivista, de forma que, posee como objetivo central proporcionar una pesquisa metodológica de formación independiente y con postura neutra, además, esa metodología actúa de manera generalista y libre, teniendo, así un modo explicativo causa-efecto y, de naturaleza objetiva y valida.(2)

CARACTERISTICAS DEL ENFOQUE CUANTITATIVO

El estudio cuantitativo utilizase del análisis de datos y forma numérica, enfocándose en el área de la estadística. De este modo,  para que sea realizada el proceso cuantitativo de la investigación científica es necesario que entre los elementos del problema observados pose una conexión del origen lineal. Así, el enfoque cuantitativo visa formular padrones de comportamientos y comprobar hipótesis.(1) En ese sentido, para un buen proceso cuantitativo hace necesario la presencia de fases, las cuales se caracterizan como: 

Con eso, el investigador debe plantear una problemática de análisis, que sea de naturaleza objetiva y concreta. Después que  se encuentra el problema del caso, debe ejecutar una revisión literaria de las bibliografías estudiadas anteriormente, así que, se crea un marco teórico y, a través de ese marco  construye la hipótesis de la investigación y se hace pruebas de la hipótesis.

Anterior a la recolección e investigación de los datos se hace la hipótesis. La recolección se basa en  la medición. Y esta medición es considerada y confirmada por la corporación científica. Los datos son cambiados títulos numéricos que evaluaran de normas estadísticas. Con eso se debe controlar el andamiento de la pesquisa para que así otros posibles pensamientos sean eliminados de modo que minimice el error. Luego, se divide los datos recolectados anteriormente de forma que siga el planificación del problema. Acordar que, ese tipo de investigación (que es la investigación cuantitativa) debe ser realizada de manera objetiva, pues, ella intenta disminuir las prioridades personales. (3)

Además, tales investigaciones utiliza un modelo previsible y bien formulado y debe tener consciencia que las ideas criticas tengan sido creadas antes de la colecta de los datos. Así, tienen como finalidad generalizar los resultados obtenidos en un único grupo. Aún posee el intuito de exponer y enunciar los fenómenos expuestos, con el objetivo de alcanzar relaciones causales y regularidades entre los componentes analizados.

Los datos criados poseen los modelos de validez y credibilidad,  las respuestas adquiridas ayudaran para el nacimiento de un nuevo conocimiento. Con eso, se debe manejar del pensamiento deductivo, que empieza con la teoría y de ella vienen las expresiones lógicas llamadas hipótesis, la cual el analizador intenta probar.

En ese sentido, las investigaciones cuantitativas posee la finalidad de apuntar las leyes universales y causales. En el análisis cuantitativo el estudio es realizado de modo externo al individuo.

REFERENCIAS:

1.        Paradigmas, enfoques y métodos en la investigación educativa. Investigación Educativa vol. 7 23–40 (2003).

2.        Bobenrieth, Astete, M. II. El proceso de investigar. Cómo investigar con éxito en ciencias de la salud (2012).

3.        Monje Álvarez, C. A. Metodología de la investigación cuantitativa y cualitativa. Guía didáctica. Univ. Surcolombiana 1–216 (2011).

¿Qué es un estudio de pruebas diagnósticas? Principales características.

Objetivo:

El objetivo de este artículo, es tener un acercamiento más sencillo hacia la bio-estadística y a su vez brindar herramientas comprensibles, con el fin de entender ¿Que es una prueba diagnóstica? ¿Cuales son los lineamientos para la interpretación de la información estadística que nos ofrecen dichas pruebas? y lo mas interesante es la aplicación para posteriores investigaciones, ya que tenemos acceso a múltiples instrumentos susceptibles de exploración diaria en la medicina.

Introducción

Para hablar de una prueba diagnóstica primero tenemos que definir el término “diagnóstico” que hace referencia a recopilar datos, analizarlos y dar una interpretación de ellos, con el fin de evaluar una situación de salud-enfermedad de nuestro objeto de estudio. Según Hipócrates no hay un pronóstico correcto si no se hace un buen diagnóstico (1).

Para determinar qué una prueba es diagnóstica, tiene que ser susceptible de ser medida y por tanto, el uso de la observación o el tacto no corresponderían en la definición estricta; es así que el uso de los cinco sentidos no puede establecerse como prueba diagnóstica por sí misma, pero sí como un parámetro para la descripción de un signo que se pueda medir (presión arterial, rango de movilidad, saturación de oxígeno, frecuencia cardiaca, etc.) (2)

Los estudios de pruebas diagnósticas pertenecen al grupo de los estudios descriptivos y por lo general se basan en diseños transversales, proporcionando resultados que reflejan la realidad en un momento dado, es decir un visión estática de un grupo en un tiempo determinado. 

En el ámbito de la salud, el uso de pruebas diagnósticas ha sido de uso cotidiano en los diferentes estudios, debido a los múltiples tratamientos que se pueden brindar como: farmacológico, quirúrgico, radioterápico, hormonal, trasplante de células, etc. Con el fin de tener un respuesta que tenga tanto efectividad como validez científica y terapéutica (3).

A continuación se expondrán características principales de las pruebas diagnósticas y cómo podemos hacer uso de ellas de manera más sencilla y didáctica posible. Para lograrlo nos haremos una serie de interrogantes que iremos exponiendo a lo largo del documento.

¿Cómo se evalúa una prueba diagnóstica?

Para poder evaluar una prueba diagnóstica es necesario recurrir a la validez y reproductibilidad de la misma y a su vez la obtención de valores predictivos, en el marco de una prueba gold standar o prueba de referencia para el cuestionamiento a resolver.

¿Entonces, qué se entiende por validez en el marco de una prueba diagnóstica?

Validez: La validez de una prueba en bioestadística hace referencia a que determinado experimento con determinadas características mida lo que tenga que medir, comparándolos con una prueba de referencia patrón. (4)

La validez a su vez se puede expresar matemáticamente hallando la sensibilidad, especificidad, valor predictivo positivo y valor predictivo negativo.

¿Qué es y cómo puedo hallar la sensibilidad especificidad, valor predictivo positivo y valor predictivo negativo de una prueba diagnóstica?  

Sensibilidad: Es la capacidad de una prueba para detectar a los que verdaderamente están enfermos en el caso de salud- enfermedad; o de indicar los casos positivos según lo que evalué el experimento.

Especificidad: Es la capacidad de una prueba, en donde se evalúa un sujeto sano y esté sujeto de negativo en la prueba que se esté realizando.

Para poder entender un poco más sobre la sensibilidad y la especificidad, la estadística ha diseñado una tabla de 2×2 en donde cruzan los posibles resultados.

ENFERMOS NO ENFERMOS TOTAL
POSITIVOSaba+b
NEGATIVOS cdc+d
TOTALa+cb+da+b+c+d

De acuerdo a una tabla de 2 × 2 podemos expresar que:

 Sensibilidad = a/a+c

correspondiente a verdaderos positivos/verdaderos positivos + falsos negativos

 Especificidad = d/b + d 

correspondiente a verdaderos negativos/verdaderos negativos + falsos negativos.

Siendo (a+b+c+d) el total de individuos evaluados, (a+c) el total de enfermos, (b+d) el total de no enfermos al momento de realizar la prueba.

Valor predictivo positivo (VPP): representa la probabilidad de que un sujeto este enfermo ya que el resultado de la prueba fue positivo

VPP= a/ a+b

Valor predictivo negativo (VPN) indica la probabilidad de no tener enfermedad ya que la prueba fue negativa.

VPN= d/c+d

A su vez también podemos calcular los índices de error:

Proporción de falsos positivos (PFP)

PFP= c/a+c = 1- especificidad 

Proporción de falsos negativos (PFN)

PFP= b/b+d =1- sensibilidad.

Y la prevalencia de la enfermedad se calcularía (a+c/a+b+c+d), siendo muy útil ya que nos muestra información sobre la prueba que se está realizando y sobre la población en estudio (5).

Para complementar lo anteriormente expuesto mire el siguiente vídeo.

¿Para qué me sirve la reproducibilidad de una prueba diagnóstica?

Entonces la reproducibilidades la capacidad de la prueba para ser reproducida por otros evaluadores, con la finalidad de comprobar la veracidad de la misma y me sirve para saber si lo puedo replicar con la población que estoy estudiando (4).

Matemáticamente existen otras formas de expresar los resultados y para eso se opta por exponer el cociente de probabilidad tanto positivo como negativo.

¿Qué es el cociente de probabilidad?

Es aquella que compara la probabilidad de conseguir un determinado resultado en un sujeto con la enfermedad, con la de obtenerlo en un sujeto en el que se ha descartado la presencia de la misma.

El cociente de probabilidad de una prueba positiva (CPP) se calcula dividiendo la proporción de casos positivos “sensibilidad” entre la proporción de sujetos que no poseen la enfermedad, los llamados falsos positivos,  “1 – especificidad”.

CCP=  Sensibilidad/1-Especificidad

El cociente de probabilidad de una prueba negativa (CPN) se calcula dividiendo la proporción de casos negativos “1- sensibilidad” entre la proporción de sujetos que no poseen la enfermedad, y que la prueba dio resultado negativo “especificidad”.

CPN=  1-Sensibilidad/Especificidad

Entonces de todo lo anteriormente dicho nos lleva a preguntarnos ¿Cómo se puede verificar si la prueba que estoy haciendo posee la validez suficiente?

Para eso podemos explicarlo con la curva ROC (Característica operativa del receptor), la cual  representa gráficamente la sensibilidad y la especificidad y su relación, derivados de los puntos de corte y sus variaciones en los rangos de los resultados mostrados en la prueba.                               

Los valores de área bajo la curva de ROC serán entre 0 y 1, esto garantiza la eficacia de la prueba realizada, a su vez certifica que la prueba hace una correcta diferenciación entre enfermos y no enfermos del experimento (6).

Referencias:

1. El diagnostico médico. Lorenzano, C. 2006, Subjetividad y procesos cognitivos, pág. 150.

2. Servicio de Epidemiología Santiago de Compostela. Pruebas diagnosticas. Pruebas diagnosticas. [En línea] 22 de febrero de 2006. https://www.sergas.es/Saude-publica/Documents.

3. Las pruebas diagnósticas. Su aplicación en los estudios epidemiologicos. Ávalos , O. 2000, Revista de nefrologia, Sociedad Española de Nefrología, pág. 403.

4. Unidad de Epidemiología Clínica y Bioestadística. investigación Pruebas diagnósticas. investigación Pruebas diagnósticas. [En línea] 14 de 07 de 2003. [Citado el: 21 de 04 de 2020.] www.mbe/investiga/pruebas_diagnosticas/pruebas_diagnosticas.

5. Pruebas diagnósticas: aspectos básicos de lo que el endoscopista debe saber. Duarte, A, Herrera, D y Téllez, F. 3, Ciudad de México : Elseiver, 2016, Vol. 28. 10.1016.

6. Peréz, I y Battikhi, B. Características de los test diagnósticos . Málaga : Ed Cont Lab Clín, 2017.