Vista previa del material en texto
La investigación en medicina Bases teóricas y prácticas elementos de Bioestadística La investigación en medicina Bases teóricas y prácticas elementos de Bioestadística ricardo J. esper Profesor Titular de Medicina, Universidad de Bue- nos Aires. Profesor Titular de Cardiología, Uni- versidad del Salvador, Buenos Aires. Consultor en Cardiología, Hospital Militar Central, Buenos Aires. Ex-Presidente, Sociedad Argentina de Car- diología. Ex-Presidente, Fundación Cardiológica Argentina. Ex-Presidente, InterAmerican Heart Foundation, Dallas, Texas, USA. Ex-InterAmerica Representative, Executive Board, World Heart Federation, Ginebra, Suiza. Fellow, American College of Cardiology. Fellow, American Heart Association rogelio a. Machado Profesor Titular de Semiología Cardiovascular y Ecocardiografía, Carrera de Cardiología, Univer- sidad del Salvador, Buenos Aires. Docente de Bioestadística, Carrera de Cardiología, Universi- dad del Salvador. Departamento Cardiovascular, Servicio de Cardiología, Hospital Militar Central, Buenos Aires. Jefe Laboratorio de Ecocardiogra- fía, Hospital Fancés, Buenos Aires. Miembro Titu- lar, Sociedad Argentina de Cardiología. © 2008, Prensa Médica Argentina ISBN 978-950-9250-25-3 Queda hecho el depósito que marca la ley 11723. Libro de edición argentina Impreso en la Argentina Printed in Argentina Impreso en mayo de 2008, en Ghione Impresores S. R. L. Gaebeler 602-618, Lanús Oeste ghioneimpresores@hotmail.com Esper, Ricardo La investigación en medicina: bases teóricas y prácticas. Elementos de bioestadística / Ricardo Esper y Rogelio Machado. - 1ª ed. - Buenos Aires: La Prensa Médica Argen- tina, 2008. 360 p.; 25 x 18 cm. ISBN 978-950-9250-25-3 1. Investigación en Medicina 2. Bioestadística. I. Machado, Rogelio. II. Título. CDD 610.7 a alcira, andrea y claudia a isabel, sole y santi [ 9 ] Índice Prólogo: investigar y comunicar: habilidades esenciales del médico Guillermo Jaim Etcheverry Prefacio co-autores i. la investigación en el camPo de la medicina capítulo 1. el conocimiento. conocimiento humano e investigación. el método cien- tífico. Fuentes del conocimiento: observación y experimentación. induc- ción y deducción. teorías e hipótesis. prueba de una hipótesis. Los méto- dos en las ciencias de la naturaleza. Patricio F. Jacovella, Raúl A. Borracci, Rodolfo J. Giuliano capítulo 2. Leyes científicas. extensiones y límites del conocimiento científico Rodolfo J. Giuliano ii. comunicación de los resultados capítulo 3. como escribir un manuscrito para su publicación Andreas Wielgosz capítulo 4. La revista científica: criterios editoriales para evaluación de artículos mé- dicos. Enrique Fisman y Alexander Tenenbaum capítulo 5. ¿Qué es y como se elabora una monografía científica? Daniel J. Piñeiro capítulo 6. ¿Qué es un trabajo de tesis de Doctorado? Roberto E. P. Sica capítulo 7. La comunicación oral de la investigación científica. Una herramienta pa- ra transmitir conocimiento. Ricardo J. Esper y Antonio Paragano iii. desarrolos modernos en las ciencias médicas capítulo 8. Metaanálisis Luis Alcocer capítulo 9. ¿Qué es la cardiología basada en la evidencia? Salim Yusuf y Rafael Díaz 11 13 15 19 21 30 37 39 45 51 58 75 89 91 105 [ 10 ] iv. análisis del conocimiento y Herramientas Para su validación capítulo 10. Lectura crítica de la literatura científica. Daniel Fernández-Bergés y Antonio Paragano capítulo 11. Delimitación de un área de investigación. análisis de los conocimientos existentes y elaboración de nuevas cuestiones. Eduardo B. Arribalzaga capítulo 12. comité de Ética e investigación clínica. Luis María Ziehr, Rubén F. Iannantuono, José Luis Cacharrón v. el médico como docente y comunicador Público capítulo 13. investigación en educación Médica. Alberto Alvés de Lima capítulo 14. cómo hablar con los medios. el supermercado de la salud. Nora Bär vi. elementos de bioestadística referencias 1. introducción 2. conceptos básicos 3. Frecuencia y probabilidad de un suceso 4. Distribuciones de probabilidades 5. Muestreo. el desvío estándar de la media o error estándar 6. inferencia estadística 7. comparaciones entre dos medias muestrales. La distribución t 8. comparaciones entre proporciones 9. correlación y regresión 10. análisis de la varianza 11. regresión múltiple 12. regresión logística 13. Métodos no paramétricos 14. pruebas diagnósticas 15. análisis de la sobrevida 16. enfermedades en las poblaciones 121 123 143 155 165 167 175 181 182 185 187 201 209 226 232 250 257 268 284 294 304 313 321 336 344 [ 11 ] Prólogo Investigar y comunicar: habilidades esenciales del médico Uno de los aportes fundamentales de los médicos a la disciplina que cultivan es el de generar nuevos conocimientos. en esta tarea se refleja su capacidad intelectual para descubrir nuevas regularidades en la naturaleza pero ella también depende, en no menor medida, de la técnica que pone al servicio de una observación rigurosa. es entonces cuando interviene su habilidad para comunicar lo que ha encontrado, interactuando con sus colegas en ese proceso dialéctico en el que se sustenta el avance científico. en términos más generales, la actividad del médico está estrechamente relacionada con su capacidad para comunicarse con pacientes, familiares y colegas. por eso, dicha habilidad debería constituir uno de los objetivos esenciales de todo programa de formación profesional. Lamentablemente, esto no es así ya que se considera que la capacidad de comunicación no requiere entrenamiento para su desarrollo. De esta manera advertimos que muchos profe- sionales que carecen de esa habilidad, debido a su educación previa o al ámbito en el que se desenvolvieron, encuentran serias dificultades en el ejercicio de su actividad cotidiana. Vinculado a esa dificultad en la comunicación está el desafío que enfrentan los médicos cuando se ven obligados a presentar, tanto de manera oral como escrita, los resultados de sus investigaciones experimentales o clínicas. en estas ocasiones quedan también en evidencia las dificultades de todo tipo que acechan a los profesionales quienes, en la mayor parte de los casos, no han sido debidamente preparados para realizar una lectura crítica de los resultados de las investigaciones realizadas por otros, carecen de las herramientas estadísticas esenciales como para poder llegar a conclusiones válidas a partir de sus propias observaciones o expe- riencias y no manejan las técnicas que les permitan comunicar sus hallazgos a sus colegas. Las instituciones educativas, tanto durante la formación de grado como en el posgrado, de- dican escasos esfuerzos a dotar de esas herramientas esenciales a sus alumnos, en aquellos contados casos en los que lo hacen. ese importante vacío es el que viene a ocupar esta interesante obra de los profesores ricardo esper y rogelio Machado quienes, recurriendo a la colaboración de destacados es- pecialistas locales y extranjeros, encaran prácticamente todas las cuestiones de interés para quien se proponga investigar en el campo de la medicina y, sobre todo, comunicar a otros el resultado de su labor. Varios capítulos generales se ocupan de analizar la naturaleza del mé- todo científico y el carácter de las leyes así como de la formulación clara de las cuestiones que serán motivo de estudio. se jerarquiza la recolección de información acerca del conocimiento [ 12 ] existente sobre un determinado problema como paso previo a la elaboración de nuevas hipó- tesis a ser investigadas. La lectura crítica de las publicaciones científicas, requisito impres- cindible para quien intenta realizar un nuevo aporte al conocimiento, es motivo de especial análisis. Uno de los rasgos fundamentales de este libro reside en la completa y ágil descripción de los elementos básicos de la bioestadística, cuyo dominio resulta imprescindible ya que en sus técnicas se basa cualquieranálisis serio de los hallazgos de la investigación científica. en lo que respecta a la comunicación de los resultados, se describe la manera de encarar la redacción de un manuscrito para ser publicado así como las expectativas de los editores de las revistas en las que se realizará esa publicación. también se analizan los procedimientos apropiados para redactar una monografía o enfrentar la nada sencilla tarea de planear, llevar a cabo y presentar una tesis de doctorado. No se descuida tampoco el importante aspecto de la exposición oral de los resultados y se describe el aporte que a su difusión realizan las nuevas tecnologías de la comunicación y la información. especial atención se presta en el libro a la naturaleza de los distintos tipos de ensayos clí- nicos así como a las técnicas empleadas para su evaluación individual y de conjunto, como es el caso de los meta-análisis, atendiendo también a la presentación del importante movimiento conceptual generado en la medicina contemporánea a partir de los resultados de los estudios clínicos: la medicina basada en la evidencia. el hecho de que la actividad del médico esté íntimamente ligada a su vocación de com- partir con los demás sus conocimientos, hace que la labor docente resulte inseparable de la tarea asistencial o de investigación. por este motivo, se ha incluido un capítulo dedicado al estudio de las técnicas que permiten realizar investigaciones en el campo de la educación médica y compartirlas con los colegas luego de someter a un análisis riguroso los resultados obtenidos mediante las innovaciones educativas. asimismo, puesto que la interacción del médico con la sociedad ha adquirido una creciente importancia en las últimas décadas, se jus- tifica ampliamente la inclusión de un capítulo sobre el periodismo médico ya que esa relación con la prensa masiva no hará sino incrementarse en el futuro, cimentando así un vínculo que es hoy esencial para la medicina en sus actividades de prevención, diagnóstico, tratamiento y rehabilitación. en síntesis, es esta una obra oportuna que brindará una eficaz compañía a los profesio- nales que aspiren a realizar tareas de investigación y comunicar sus resultados de manera apropiada. por la trascendencia de los temas que aborda así como por los conocimientos y experiencia de quienes los desarrollan, este manual sobre la investigación en medicina, está llamado a convertirse en una herramienta indispensable para los médicos y otros profesio- nales de la salud que quieran internarse por el apasionante sendero que siempre representa la búsqueda de nuevos conocimientos. Guillermo Jaim Etcheverry Profesor Titular de Biología Celular e Histología, Facultad de Medicina, Universidad de Buenos Aires. Ex-Decano, Facultad de Medicina, Universidad de Buenos Aires. Rector, Universidad de Buenos Aires, 2002 - 2006 [ 13 ] Prefacio Tu verdad? No, la Verdad, y ven conmigo a buscarla… Antonio Machado. Proverbios y Cantares el continuo crecimiento de las áreas de interés de la medicina y el vertiginoso incremento de sus recursos técnicos y metodológicos, tanto en lo relativo a las ciencias básicas como en lo que concierne a la medicina asistencial, han aumentado manifiestamente la complejidad de la investigación médica en las últimas décadas. en tal sentido, el auge de los estudios clíni- cos aleatorizados, los grandes estudios conjuntos o mega ensayos, el metanálisis, el concepto aceptado universalmente de “basarse en la evidencia,” y el notable desarrollo de los métodos y modelos de la estadística, son algunos de los factores que, juntamente con los avances tec- nológicos y un intercambio y difusión cada vez más activos de los conocimientos entre todos los estratos de la sociedad, han situado a la investigación en un escenario dominante dentro del quehacer médico. en relación con esto, el desarrollo de las hipótesis de trabajo a través de la selección del material y los métodos adecuados, el tratamiento estadístico de los resultados y su interpre- tación, su discusión y, por último, la obtención de conclusiones, reconocen y en general se atienen, a lineamientos generales bien establecidos y a requisitos, tanto teóricos como forma- les, aceptados por la comunidad científica. estos lineamientos y directrices, que no pretenden restringir la iniciativa y creatividad de los investigadores, tienden sin embargo a respaldar la validez general de los trabajos y a asegurar su comunicación exitosa y su integración al extenso y creciente bagaje de los conocimientos de la medicina actual. así, desde la búsqueda de la información preexistente hasta la redacción final de un trabajo para su sometimiento a la aprobación por pares para su publicación, es conveniente que en cada una de las etapas en su elaboración, sean utilizados los criterios más adecuados y las técnicas más eficaces, para poder así contener y dar forma a los hallazgos realizados y a las ideas de los autores. este texto reconoce entre sus antecedentes, la reiterada comprobación por parte de los editores, del aumento del número de las consultas que han venido recibiendo a diario de parte de los médicos más jóvenes, en particular residentes y cardiólogos en el inicio de sus carreras, respecto de la forma de encarar la lectura y la interpretación de los trabajos científicos y, además, acerca del modo de dar forma y llevar a cabo esfuerzos de investigación originales. esta última inquietud, motivada generalmente por una afinidad individual con este tipo de tareas, está también, muchas veces, estimulada por las exigencias crecientes de los diversos ámbitos del quehacer médico, no solamente las universidades sino también los hospitales, las sociedades médicas y la propia comunidad, que más que nunca se interesa por la fundamen- [ 14 ] tación y la solidez de las propuestas que la medicina le ofrece a sus integrantes. Hemos podido comprobar que, junto con el número, ha aumentado también la complejidad de las preguntas dirigidas al médico con mayor experiencia. esto es particularmente evidente cuando las con- sultas se orientan hacia aspectos particulares como, por ejemplo, la interpretación del diseño de estudios clínicos de cierta complejidad, las posibilidades y limitaciones de los distintos modelos de análisis estadístico aplicado, y la lacitud de extender las conclusiones a distintas poblaciones. esta mayor necesidad de acceder a los niveles en los que se funda la obtención del conocimiento en medicina, muy ostensible en los médicos jóvenes, es probablemente un fenómeno de validez general que abarca a toda la comunidad de los integrantes de las ciencias médicas. Los grandes avances de la medicina, facilitados por los avances tecnológicos y fun- dados en importantes desarrollos teóricos, no hacen más que reforzar el interés general por los aspectos básicos de la investigación médica. para el presente texto, los editores han solicitado y han tenido el privilegio de obtener, la colaboración de un conjunto de personalidades de las ciencias médicas internacionalmente reconocidas, que han permitido iluminar desde varios ángulos las ilimitadas facetas de ese todo que es la investigación científica en el campo de la medicina. De ellos es el mérito de la obra, y a ellos se dirige el agradecimiento de los editores, a quienes por su parte, les ha toca- do organizar los capítulos de manera de permitir desplegar en forma sucesiva los diferentes escenarios propuestos por los autores. Llegue también nuestro agradecimiento a los colegas y amigos que, de una u otra forma, nos ayudaron en la concreción del trabajo, y a los Dres. Juan carlos y sebastián Bagó, cuyo apoyo resultó esencial para su llegada a buen puerto. Los elementos de bioestadística compilados al final de la obra hallan su justificación en el deseo de los editores de invitar al lector ajeno a la materia, a transponer los umbrales de una disciplina tan imprescindible como en general pocofamiliar para el médico que no ha tenido un acercamiento previo a sus ideas y métodos. Los editores esperan que el producto de su trabajo pueda ser de alguna utilidad para aquellos que se hallan comprometidos con la investigación en medicina, y que la lectura del libro les proporcione al menos una parte del placer que ellos han tenido en elaborarlo. y re- cuerde el lector que para ser exitoso no tiene que hacer cosas extraordinarias, simplemente hacer cosas ordinarias, pero extraordinariamente bien. Ricardo J. Esper Rogelio A. Machado [ 15 ] Co-autores Luis alcocer Jefe del Servicio de Cardiología del Hospital General de México. Profesor Titular de Medicina (Cardiología) y del Curso de Especialización en Cardiología, Facultad de Medicina, Universidad Nacional Autónoma de México. Investigador Titular de los Hospitales de Referencia e Institutos Nacionales de Salud de México. alberto alvés de Lima Director de Capacitacion, Instituto Cardiovascular de Buenos Aires. Co-Director, Carrera de Especialista en Car- diología, Universidad de Buenos Aires. Profesor Adjunto de Medicina, Universidad del Salvador, Buenos Aires. Master en Educación Médica, Universidad de Maastricht, Holanda eduardo Benigno arribalzaga Profesor Regular Adjunto de Cirugía, Universidad de Buenos Aires. Profesor Titular de Bioestadística, Universi- dad Austral, Buenos Aires. Profesor Titular de Bioética y Humanismo Médico y Profesor Titular de Metodología de la Investigación, Universidad de Ciencias Empresariales y Sociales. Editor Jefe, Revista Argentina de Cirugía. Secretario de Redacción, Archivos de Bronconeumonología, España. nora Bär Periodista científica. Editora de la Sección Ciencia y Salud del diario La Nación. Miembro de la Academia Na- cional de Periodismo. Raúl alfredo Borraci Magíster, Biología Molecular, Fundación Favaloro – INGEBI. Profesor Invitado, Metodología de la Investigación, Escuela de Medicina, UCES. Coordinador, Curso Anual de Postgrado, Asociación Argentina de Cirugía. Coor- dinador, Metodología y Estadística, Curso de Especialista en Cardiología UBA-SAC. Director Asistente, Comité Editorial, Revista Argentina de Cardiología. Director, Area de Investigación, Sociedad Argentina de Cardiología. Coordinador, Comité de Bioética, Sociedad Argentina de Cardiología José Luis cacharrón Médico Especialista en Cardiología. Jefe, Sección Eco-Doppler Cardíaco, Policlínica Bancaria. Docente, Cáte- dra de Farmacología, Facultad de Medicina, Universidad de Buenos Aires. Profesor Adjunto de Farmacología, Carrera de Cardiología, Universidad del Salvador, Buenos Aires. [ 16 ] Rafael díaz Instituto Cardiovascular de Rosario. ECLA Argentina Ricardo Jorge esper Profesor Titular de Medicina, Universidad de Buenos Aires. Profesor Titular de Cardiología, Universidad del Salvador, Buenos Aires. Consultor en Cardiología, Hospital Militar Central, Buenos Aires . Ex-Presidente, Socie- dad Argentina de Cardiología. Ex-Presidente, Fundación Cardiológica Argentina. Ex-Presidente, InterAmerican Heart Foundation, Dallas, Texas, USA. Ex-InterAmerica Representative, Executive Board, World Heart Federa- tion, Ginebra, Suiza. Fellow, American College of Cardiology. Fellow, American Heart Association daniel Fernández-Bergés Doctor en Medicina, Universidad Complutense de Madrid, España. Médico Cardiólogo Universitario, Universi- dad del Salvador, Buenos Aires, Argentina. Médico Cardiólogo Adjunto, Sección de Cardiología, Departamento de Medicina Interna, Hospital Don Benito Villanueva, Badajoz, España. Presidente, Comisión de Investigación de la Sociedad Extremeña de Hipertensión Arterial y Otros Factores de Riesgo Cardiovascular. Miembro, Grupo Técnico de Cardiopatía Isquémica del Plan Integral de Enfermedades Cardiovasculares de Extremadura. enrique Fisman Profesor de Cardiología, Facultad de Medicina Sackler, Universidad de Tel-Aviv, Tel-Aviv, Israel. Profesor Ho- norario de Cardiología, Facultad de Medicina, Universidad del Salvador, Buenos Aires, Argentina. Presidente, Fundación de Investigación en Diabetología Cardiovascular, Holon, Israel. Editor en Jefe, Cardiovascular Dia- betology, Londres, Gran Bretaña Rodolfo José giuliano Médico Tocoginecólogo. Jefe de la Unidad Alto Riesgo Obstétrico del Hospital de Clínicas “José de San Martín”, Buenos Aires. Profesor Regular Adjunto, Bioética y Humanismo Médico. UCES. Universidad de Ciencias Empre- sariales y Sociales, Buenos Aires. Director, Escuela de obstetricia - FASGO: Federación Argentina de Sociedades de Ginecología y Obstetricia Rubén F. iannantuono Vicepresidente 1º, Comité Independiente de Etica para Ensayos en Farmacología Clínica de la Fundación de Estudios Farmacológicos y de Medicamentos (FEFyM). Docente Adscripto de Farmacología, Facultad de Medi- cina, Universidad de Buenos Aires. Ex Subdirector, Carrera de Médico Especialista en Farmacología, Facultad de Medicina, Universidad de Buenos Aires. Patricio Fernando Jacovella Profesor, Universidad de Belgrano. Subdirector, Carrera de especialista en Cirugia Plástica, Unidad academica Clínicas. Rogelio alberto machado Profesor Titular de Semiología Cardiovascular y Ecocardiografía, Carrera de Cardiología, Universidad del Salva- dor, Buenos Aires. Docente de Bioestadística, Carrera de Cardiología, Universidad del Salvador. Departamento Cardiovascular, Servicio de Cardiología, Hospital Militar Central, Buenos Aires. Jefe Laboratorio de Ecocardio- grafía, Hospital Fancés, Buenos Aires. Miembro Titular, Sociedad Argentina de Cardiología. [ 17 ] antonio Paragano Cardiólogo Universitario, Universidad de Buenos Aires. Médico, Internación y Unidad Coronaria, Departa- mento Cardiovascular, Servicio de Cardiología, Hospital Militar Central, Buenos Aires. Instructor de Residencia en Cardiología, Departamento Cardiovascular, Servicio de Cardiología, Hospital Militar Central, Buenos Aires. Miembro, Comité Institucional de Revisión de Ensayos Clínicos (CIREC), Hospital Militar Central, Buenos Aires. Docente, Carrera de Cardiología, Universidad del Salvador, Buenos Aires. Docente, Facultad de Medicina, Uni- versidad de Buenos Aires. Miembro Adherente, Sociedad Argentina de Cardiología. daniel José Piñeiro Profesor Titular Regular de Medicina Interna, Universidad de Buenos Aires. Vicepresidente de la Sociedad Inte- ramericana de Cardiología (2007-2008). Médico del Hospital de Clínicas “José de san Martín”, Universidad de Buenos Aires. Ex-presidente de la Sociedad Argentina de Cardiología (2005) Roberto ernesto Pedro sica Profesor Titular Consulto de Neurología. Facultad de Medicina. Universidad de Buenos Aires. Jefe, División Neurología. Hospital Ramos Mejía Buenos Aires. Responsable de la Secretaría de Ciencia y Técnica. Facultad de Medicina. Universidad de Buenos Aires. alexander tenenbaum Profesor Asociado de Cardiología, Facultad de Medicina Sackler, Universidad de Tel-Aviv, Tel-Aviv, Israel. Secre- tario General, Fundación de Investigación en Diabetología Cardiovascular, Holon, Israel. Editor en Jefe, Cardio- vascular Diabetology, Londres, Gran Bretaña. Director de Investigación, Instituto de Rehabilitación Cardíaca, Centro Médico Sheba, Tel-Hashomer, Israel. andreas Wielgosz MSc, MD, PhD. Professor of Medicine and Community Medicine & Epidemiology. University of Ottawa, Ontario, Cánada. Editor-in-Chief, Prevention and Control. Official Journal of the World Heart Federation, Ginebra, Suiza. Luis maría Ziehr Presidente, Comité Independiente de Etica para Ensayos en Farmacología Clínica de la Fundación de Estudios Farmacológicos y de Medicamentos (FEFyM). Director, Carrera de Médico Especialista en Farmacología, Fa- cultad de Medicina, Universidad de Buenos Aires. Ex Profesor Titular de Farmacología, Facultad de Medicina, Universidad de Buenos Aires. salim Yusuf Heart and Stroke Foundation of Ontario Research Chair, Ontario, Canada. Senior Scientist of the Canadian Institute of Health Research. Directorof Cardiology and Professor of Medicine, McMaster University, Hamilton Health Sciences, Hamilton, Canada. I. La InvestIgacIón en eL campo de La medIcIna [ 21 ] CAPÍTULO 1 El conocimiento Conocimiento humano e investigación. El método científico. Fuentes del conocimiento: observación y experimentación. Inducción y deducción. Teorías e hipótesis. Prueba de una hipótesis. Los métodos en las ciencias de la naturaleza. Patricio F. Jacovella, Raúl A. Borracci, Rodolfo J. Giuliano 1. el conocimiento es importante diferenciar los conceptos de conocimiento e información. conocimiento es lo que se sabe. cuando el conocimiento permite tomar decisiones se transforma en infor- mación. para resolver problemas en medicina es necesario tener acceso a la información y procesarla adecuadamente.1,2 La epistemología es un rama de la filosofía que se encarga de los problemas que rodean a la teoría del conocimiento. sus principales problemas son la posibilidad del conocimiento, su origen o fundamento, su esencia o trascendencia y el criterio de verdad.3 todo conocimiento es una relación entre el sujeto que conoce y el objeto que es conocido. La relación de un determinado conocimiento no puede estudiarse dejando de lado al sujeto y al objeto. La epistemología como ciencia, estudia la relación entre el sujeto y el objeto y todos los problemas que esa relación plantea. 2. La ciencia La ciencia es el conocimiento ordenado y mediato de los seres y sus propiedades por medio de sus causas. el saber científico no aspira a conocer las cosas superficialmente, sino que pretende en- tender sus causas, porque de esa manera se comprenden mejor sus efectos. se distingue del conocimiento espontáneo por su orden metódico, su sistema y su carácter mediato. para conocer las cosas a fondo es necesario utilizar la razón y observar más detenidamen- te los procesos. Las características de dedicación ordenada, constante y metódica diferencian al conocimiento científico del común. La ciencia es descriptiva, explicativa, definitoria, etc., investiga qué son las cosas, como actúan, cómo se relacionan, cuándo, cómo, dónde, por qué. La ciencia es un conjunto de NUVIA Resaltado NUVIA Nota adhesiva segunda pregunta [ 22 ] conceptos y propiedades que convergen en un objeto, y que contiene datos, explicaciones, principios generales y demostraciones acerca de éste. Las ciencias pretenden establecer leyes basadas en conceptos generales, en las caracterís- ticas en común de las cosas y en lo que se repite en los fenómenos. La filosofía busca conocer los principios más profundos de las cosas, mientras que las ciencias particulares buscan las causas más próximas. se puede concluir entonces que la ciencia es el conjunto unificado de conocimientos e in- vestigaciones, de carácter objetivo, acerca de las relaciones entre los hechos, que se descubren gradualmente y que se confirman por métodos de verificación definidos. 3. el conocimiento científico el conocimiento científico es un saber crítico, fundamentado, metódico, verificable, siste- mático, unificado, ordenado, universal, objetivo, comunicable (por medio del lenguaje científi- co), racional, provisorio y que explica y predice hechos por medio de leyes.2-4 el conocimiento científico es crítico porque intenta distinguir lo verdadero de lo fa1so. se distingue por justificar sus conocimientos y dar pruebas de sus verdades. al demostrar que es cierto, queda fundamentado. el investigador sigue procedimientos planificados según un orden y un método. Funda- menta sus conocimientos mediante observación, investigación y prueba. De esta manera la investigación científica es planificada. se considera verificable ya que siguiendo los pasos descriptos en un trabajo científico, otro investigador puede reproducir la experiencia. es sistemático porque en cada etapa, los nuevos conocimientos se integran al sistema, relacionándose con los que ya existían. es un saber unificado porque no busca un conocimiento de lo singular y concreto, sino el conocimiento de lo general y abstracto, o sea aquello que las cosas tienen de idéntico y perma- nente. es universal porque es válido para todas las personas sin reconocer fronteras ni determi- naciones de ningún tipo, no varía con las diferentes culturas. es objetivo porque es válido para todos los individuos y no solamente para uno deter- minado. es de valor general y no de valor singular o individual. pretende conocer la realidad tal como es, y la garantía de esta objetividad son sus técnicas y sus métodos de investigación y prueba. es comunicable mediante el lenguaje científico, que es preciso, comprensible para cual- quier sujeto capacitado, quien podrá obtener los elementos necesarios para comprobar la validez de las teorías en sus aspectos lógicos y verificables. es racional porque la ciencia conoce las cosas mediante el uso de la inteligencia, de la razón. el conocimiento científico es provisorio porque la tarea de la ciencia no se detiene, prosi- gue sus investigaciones con el fin de comprender mejor la realidad. La búsqueda de la verdad es una tarea abierta. La ciencia explica la realidad mediante leyes, que son las relaciones constantes y necesa- NUVIA Resaltado NUVIA Nota adhesiva pregunta 3 NUVIA Resaltado NUVIA Nota adhesiva pregunta 3 NUVIA Resaltado NUVIA Nota adhesiva pregunta 4 [ 23 ] rias entre los hechos. son proposiciones universales que establecen en qué condiciones sucede determinado hecho, por medio de ellas se comprenden hechos particulares. también per- miten adelantarse a los sucesos, predecirlos. Las explicaciones de los hechos son racionales, obtenidas por medio de la observación y la experimentación. en síntesis se pude decir que la ciencia busca explicar la realidad mediante leyes que per- miten predicciones y aplicaciones prácticas mediante tecnología. el conocimiento científico es un saber objetivo que se estructura en sistemas verificables, obtenidos mediante métodos específicos (método científico) y comunicados en un lenguaje propio con reglas precisas. 4. el método científico se puede definir investigación como un sistema de actividades intelectuales y manuales destinado a la producción de información, con el fin de resolver problemas. en las ciencias, se aceptan informaciones que han sido producidas bajo un conjunto de normas mundialmente aceptadas. al conjunto de normas se lo conoce como método cientí- fico. La metodología de investigación es una disciplina derivada de la lógica y tiene como objeto de estudio el sistema de normas llamado método científico.4 se puede concluir que método o proceso científico es un conjunto de prácticas utilizadas y ratificadas por la comunidad científica como válidas a la hora de proceder con el fin de ex- poner y confirmar sus teorías. Las teorías científicas, destinadas a explicar de alguna manera los fenómenos que observamos, pueden apoyarse o no en experimentos que certifiquen su validez. 4.1. Etapas del método científico: 1) Observación: es la aplicación de los sentidos a un objeto o fenómeno, para estudiarlos tal como se presentan en la realidad. el primer paso del método científico tiene lugar cuando se hace una observación a propó- sito de algún evento o característica del mundo. esta observación puede inducir una pregunta sobre el evento o característica.3 por ejemplo, un día un observador puede dejar caer un vaso de agua y observar como se hace añicos en el piso cerca de sus pies. esta observación puede inducirle la pregunta, “¿porqué se cayó el vaso?” 2) Inducción: es la acción de extraer el principio particular a partir de determinadas observaciones. 3) Hipótesis: es el planteo a resolver tratando de contestar la pregunta, un científico formulará una hipótesis o conjetura a propósito de la respuesta a la pregunta. en el ejemplo del vaso hay varias posibles hipótesis, pero una de ellas podría ser que una fuerza invisible (gravedad) tiró el vaso al suelo.3 4) Experimentación:es la prueba de la hipótesis De todos los pasos en el método científico, es el que verdaderamente separa la ciencia de otras disciplinas. para comprobar o refutar una hipótesis, el científico diseñará un ex- NUVIA Nota adhesiva Pregunta 5 NUVIA Resaltado [ 24 ] perimento para probar esa hipótesis. a través de los siglos, muchos experimentos han sido diseñados para estudiar la naturaleza de la gravedad. 5) Demostración de la hipótesis: refutación de la hipótesis 6) Tesis: conclusiones Una común percepción sobre la ciencia, aunque errada, es que la ciencia define “la ver- dad”. La ciencia no define la verdad, más bien define una manera de pensar. es un proceso en el cual se usan experimentos para contestar preguntas. a este proceso se lo denomina el método científico y comprende los pasos citados.3 5. el método científico aplicado a la medicina a los fines prácticos, en investigación médica se pueden dar diferentes tipos de proble- mas relacionados: descriptivos, de correlación, de comparación y de explicaciones causa efecto. La descripción de un caso o de un cierto número de casos puede ser suficiente motivo como para presentar o publicar un estudio. simplemente se presentan las coordenadas de tiempo y espacio y se describe lo que se hizo. Los estudios de correlación, como su nombre lo indica, asocian variables como por ejem- plo la variación del pulso con el aumento de la temperatura corporal. Mediante fórmulas adecuadas se establece si existe correlación entre las series estudiadas. en el caso de comparación, se analizan resultados y se comprueba si existen o no diferen- cias significativas como para inferir discrepancias y similitudes. para estos tipos de problemas de investigación, se usa el método estadístico. en las explicaciones causa efecto, la investigación es más detallada y plantea hipótesis. en estos casos se pone en práctica el método hipotético deductivo. 6. teorías e hipótesis Desde el punto de vista científico, si se acepta que un sistema es un conjunto de partes que interactúan entre sí, una teoría es un sistema de hipótesis.2 Hipótesis es un planteamiento o supuesto que debe ser comprobado o refutado siguiendo las normas establecidas por el método científico tiene, como condición imprescindible, que debe ponerse a prueba. en general, en un trabajo de investigación científica se plantean dos hipótesis mutuamen- te excluyentes: la primera es llamada hipótesis nula (H0) y la otra usualmente se conoce como hipótesis alterna (H1). el procesamiento de los datos, según la metodología de investigación diseñada, mostrará cuál de las dos hipótesis se comprueba como cierta, de manera que sólo ésta se incorporará al conocimiento que la investigación aporta a la ciencia.1,2,4 [ 25 ] 7. método hipotético deductivo De acuerdo con lo expuesto por castiglia,2 más detalladamente, el método hipotético deductivo permite mediante los siguientes pasos realizar la comprobación de la hipótesis: 1) Formular una hipótesis 2) suponer que es verdadera 3) Deducir cuales serán las consecuencias observacionales. 4) establecer los criterios de corroboración o refutación: si las consecuencias de la ob- servación se producen en los hechos se debe corroborar; si en cambio las consecuencias de la observación no se producen en los hechos, se debe refutar. 5) establecer si las consecuencias observacionales se producen en los hechos. 6) tomar la decisión: corroborar o refutar la hipótesis. Más específicamente, en un modelo de toma de decisiones, es necesario hacer uso de pruebas estadísticas para aceptar o rechazar una diferencia en un resultado. según lo visto, la prueba de H0 dice que no hay diferencia bajo la premisa que la diferen- cia entre la muestra y la población estudiadas se debe al azar. es decir que por ejemplo, no hay diferencias entre los dos grupos estudiados. si se pone un ejemplo de “complicaciones graves” en medicina, en cualquier entorno a manera ilustrativa, aceptar la hipótesis de nulidad o no poder rechazarla, significa aceptar que la diferencia no existe. es necesario y muy importante decidir el nivel de aceptación de una hipótesis según la gravedad del caso. siempre se debe calcular el riesgo de equivocarse y emplear la estadística como herramienta imprescindible.1 Los problemas de investigación científica del tipo causa-efecto hacen uso del plantea- miento de hipótesis.2 para resolver problemas de relación causa-efecto es necesario seguir tres pasos: 1) construir una teoría explicativa 2) Verificar (contrastar) la teoría 3) Formular conclusiones en síntesis, las hipótesis son proposiciones provisionales y exploratorias sobre la veraci- dad o falsedad de un concepto, una teoría o un modelo con un alcance de trabajo de investi- gación por simulación y con métodos de campo o de laboratorio. 8. Los métodos en las ciencias de la naturaleza La palabra ciencia deriva de science, y es un término introducido por Whewell en 1840 para reemplazar a la llamada “filosofía de la naturaleza”. esta cercanía de la ciencia con la filosofía permitió que albert einstein (1879-1955) comentara que “la ciencia es como un reloj cuyo mecanismo se halla en una caja negra inviolable, y del que sólo podemos ver el movi- miento de las manecillas”. en consecuencia la ciencia estaría constituida por las hipótesis que [ 26 ] se elaboran para explicar el movimiento de esas manecillas, y aunque la explicación fuera verdadera, nunca podría conocerse el mecanismo real por el cual funciona el reloj. La ciencia, como una explicación finita de la realidad, se asienta en tres principios no demostrables llamados de inteligibilidad, objetividad y dialéctica. cuando se hace ciencia sobre la naturaleza se asume que ésta puede ser entendida, o sea que es inteligible. De todas formas, la naturaleza podría también tener fenómenos azarosos que la hicieran no entendible. por su parte, el postulado de objetividad indica la separación entre la mente investigadora y el objeto de conocimiento observado o analizado. sin embargo, esta independencia de la ciencia sobre el objeto de estudio podría ser difícil de aceptar si se considera la ineludible influencia entre el observador y lo observado. por último, el principio dialéctico permite exponer el co- nocimiento científico a la refutación por medio de nuevas experiencias u observaciones. en realidad los métodos de la investigación científica dependen de la perspectiva filo- sófica del conocimiento. Las dos corrientes principales que fundamentan la adquisición y el desarrollo del conocimiento son la positivista lógica y la corriente naturalista, que dan lugar a paradigmas de investigación diferentes. Un paradigma es un conjunto de formas que orien- ta la perspectiva que el investigador tiene sobre la investigación o el estudio que desarrolla. De acuerdo a la filosofía positivista, la realidad se percibe como única e invariable, o sea que existirían hechos objetivos que pueden ser descubiertos con independencia del investiga- dor. Desde este punto de vista, los fenómenos naturales y humanos podrían ser previsibles y controlables. estos hechos fundamentan el esfuerzo científico para adquirir la habilidad de predecir y controlar dichos fenómenos. por contrapartida, la filosofía naturalista sostiene que la realidad no es única sino múltiple, y que se descubre a través de un proceso dinámico en el cual el investigador interactúa con el entorno y obtiene un conocimiento relativo o contextual. en este caso los fenómenos no serían ni únicos ni previsibles, y el observador constituiría otro factor de influencia sobre la realidad del entorno. en consecuencia no existiría una indepen- dencia absoluta entre el observador y lo observado, lo que pondría en tela de juicio el principio científico de objetividad. a partir de estas dos perspectivas filosóficas surgen dos métodos de investigación tradicionales conocidos como cuantitativo y cualitativo. el método de investiga- ción cuantitativo se basa en la filosofíapositivista, y está fundado en la observación de hechos o acontecimientos objetivos que surgen con independencia del observador. este último emplea un proceso sistemático de recolección de datos observables y cuantificables, disminuyendo la aparición de sesgos. el método se basa fundamentalmente en la objetividad, la predicción, la generalización de los resultados y el control de los fenómenos. su objetivo final es desarrollar un conocimiento de tipo valorativo. por su parte, la investigación basada en el método cuali- tativo se fundamenta en la filosofía naturalista, y es típica de los estudios sociales que tienen en cuenta los contextos históricos y culturales en el que se desarrollan los fenómenos. el in- vestigador que aplica el método cualitativo observa, describe e interpreta el fenómeno como se presenta, sin intentar controlarlo como en el caso del método cuantitativo. en resumen el fin de este método es desarrollar un conocimiento descriptivo e interpretativo, en lugar de uno valorativo. aunque estos dos métodos proponen modos diferentes de abordar la realidad, ambos se interrelacionan y se complementan en la investigación actual. La medicina se nutre de diferentes ciencias para llevar a cabo su cometido de lograr una mejor comprensión de la salud y la enfermedad mediante la observación, la comparación, la [ 27 ] experimentación, el análisis, la síntesis y la conceptualización. esta paráfrasis de una defini- ción de ciencia nos induce a pensar que la medicina está hecha de ciencias, y en consecuencia comparte los mismos métodos científicos. pero la verdad es que la definición de ciencia más amplia que podamos hallar, con seguridad dejará afuera gran parte de lo que es la medicina. el filósofo y matemático Gottfried W. Leibniz, nacido en Leipzig en 1648 (cincuenta años después de Descartes) concibió a la ciencia como “un cuerpo doctrinal que podía ser conoci- do sistemáticamente y con un alto grado de certeza”, y la contraponía o bien a la “opinión”, que sólo implica un grado de certeza menor, o bien al “arte”, que involucra una práctica más que una doctrina. atenerse a ésta última definición obliga en consecuencia a separar de la ciencia médica los aspectos prácticos y técnicos vinculados con su arte. Después de ésta acla- ración podría escudriñarse en los métodos de la ciencia que la medicina utiliza. en primer lugar se debería analizar si existe un único método científico, ya que a la biología (y de allí la medicina) puede considerársela una disciplina con autonomía científica y acreedora a su propio método, o bien una ciencia que comparte las reglas y metodología de la física. La corriente denominada fisicalismo comprime a la biología en el marco conceptual de la física. su origen formal podría remontarse a Galileo (1564-1642) en cuya época úni- camente existía la mecánica como ciencia y la matemática como su necesaria aliada. para su época hasta 350 años después, el libro de la naturaleza estaba escrito en el lenguaje de la matemática, y este modelo de ciencia sobrevive aún para muchos. el papel dominante de la física y la matemática en la ciencia obtuvo el apoyo de figuras como isaac Newton (1642- 1727) e immanuel Kant (1724-1804) quien llegó a afirmar que “solo hay ciencia genuina, en la medida que contenga matemática”, a pesar que su “Crítica del juicio” (1790) tuvo un éxito limitado para intentar explicar la naturaleza en base a los principios newtonianos. en los últimos 100 años ha habido cierta liberalización de esta corriente llamada fisicalismo, y a pesar de su incontrovertible aporte, muchos autores modernos consideran que el método científico de la física no es el más adecuado para una disciplina como la biología, de la cual depende la medicina. ernest Mayr (1904-2005) fue médico y biólogo, evolucionista, y ha sido reconocido como “el Darwin del siglo XX”. este científico y filósofo postuló que “cualquier enfoque de una filosofía de la biología basado fundamentalmente en la lógica y la matemática más que los conceptos específicos y particulares de la biología resultará insatisfactorio”, y planteó una serie de consideraciones sobre la autonomía científica de la biología (2004). en particular, demostró que algunas ideas fisicalistas (de la física) no eran aplicables a la biología. por ejemplo desde los pitagóricos y platón, el concepto tradicional de diversidad del mundo se planteaba con la existencia de una cantidad limitada de eide o esencias, que consistían en clases o tipos netamente delimitados (tipología o esencialismo). Bajo esta concepción, los miembros de una misma clase eran idénticos, constantes y separados con precisión de los miembros de otro tipo o esencia. La idea central del racismo se basa en estas diferencias de grupos étnicos humanos que se hallarían netamente separados en clases distintas. Darwin fue quien rechazó este pensamiento tipológico propio de la física y empleó en consecuencia un concepto completamente diferente denominado actualmente poblacional, que admite las variaciones dentro de las clases, como ocurre ciertamente en las poblaciones de seres vivos. [ 28 ] Otra idea de la física no aplicable enteramente al estudio de los seres vivos es el llamado determinismo, que no deja espacio para la variación o los hechos fortuitos. el matemático y físico francés pierre Laplace (1749-1827) se ufanaba de que el conocimiento completo del mundo actual permitiría predecir el futuro sin limitación en el tiempo. este concepto clara- mente determinista, no puede sostenerse actualmente ante la perspectiva de la nueva teoría de los sistemas dinámicos o del “caos” en el que una mínima variación en las condiciones iniciales hacen impredecible el desenvolvimiento futuro de una variable. La refutación del determinismo estricto y de la posibilidad de predicción absoluta permite la aceptación de la variación y de los fenómenos aleatorios tan comunes en la biología. Finalmente, otras de las clásicas ideas fisicalistas se refiere al denominado reduccionismo. este explica que la resolución de un problema se obtiene a partir de la partición y reducción del sistema a sus componentes más pequeños. esta división, junto con la determinación de la fun- ción de cada elemento, permitiría explicar el problema. La realidad es que a partir de la teoría de los sistemas, el estudio de los seres vivos admite que éstos están compuestos por elementos y relaciones que se pierden si se reduce el sistema a sus partes, y que en consecuencia el todo pasa a ser mucho más que la suma individual de las partes que lo componen. el estudio más moderno de los denominados autómatas celulares permite demostrar que no es posible inferir el compor- tamiento de unidades simples en cuanto al desarrollo de propiedades emergentes a partir de la interacción de estas unidades. es así que la estructura de los tejido vivos no puede explicarse enteramente si se los reduce a sus componentes celulares; la interacción de estas últimas generan características emergentes no inferibles a partir del estudio celular individual. Hasta aquí se pueden resumir una serie de conclusiones sobre los métodos de las ciencias de la naturaleza. por un lado la tipología que asume la invariabilidad de los tipos o clases se reemplaza por el pensamiento poblacional que admite pequeñas variaciones entre los elemen- tos o seres de la misma clase. en segundo lugar el estudio de la naturaleza admite el uso del caos determinista y el azar en lugar de un determinismo rígido. y por último se complementa el reduccionismo o análisis individual de las partes con el pensamiento sistémico o de análisis sintético para la comprensión de los sistemas vivientes en conjunto y de las propiedades emer- gentes a partir de elementos constitutivos simples. tanto la rama de la biología que estudia la evolución como la medicina clínica asistencial que indaga la historia de la enfermedad, requieren de otro método que podría llamarse “na- rrativa histórica”. La biologíaevolucionista debe recrear la historia pasada con los datos del presente, o con aquéllos que pueda recoger en la actualidad, y así construir una narración que explique el fenómeno de la evolución. De la misma forma, el oficio de un médico consiste en escuchar, narrar y construir historias a partir del relato de los hechos médicos referidos por el paciente. De la misma forma, los signos que recoge el médico, reflejan una foto del estado actual que necesita ser reconstruido hacia atrás a la manera de un detective. Referencias 1. arribalzaga eB, Borracci ra, Giuliano rJ, Jacovella pF: el artículo científico: del papiro al formato electrónico. Buenos aires, Magíster eos, 2005 [ 29 ] 2. castiglia Vc: principios de investigación biomédica. (segunda edición). Buenos aires, r. primavera. 1995 3. Klimovsky G: Las desventuras del conocimiento científico. Una introducción a la episte- mología. Buenos aires, a-Z editora, 1997. 4. tarski a: introducción a la lógica y a la metodología de las ciencias deductivas. (tercera edición). Madrid, espasa calpe, 1977 5. Fortín MF. el proceso de investigación: de la concepción a la realización. México, Mc- Graw-Hill interamericana, 1999 6. Mayr e. por qué es única la biología. consideraciones sobre la autonomía de una disci- plina científica. Buenos aires, Katz editores, 2006 7. Doval Hc. a qué llamamos “ciencia” y por qué la biología es una ciencia autónoma. rev argent cardiol 2007; 75: 79-83 [ 30 ] CAPÍTULO 2 Leyes científicas Extensiones y límites del conocimiento científico Rodolfo José Giuliano La ciencia es un estilo de pensamiento y acción, que ha avanzado a través del tiempo sorteando un sinfín de contratiempos. sus grandes revoluciones han sido el hallazgo y la explicación de los sucesos naturales, la formulación de teorías y el desarrollo de nuevas tecnologías. por lo tanto, en la ciencia, como sucede ante toda creación humana, debemos distinguir el trabajo -investigación- de su producto final, el conocimiento. toda investigación científica arranca con la percepción de que el conocimiento disponi- ble es insuficiente para manejar determinados problemas. el conocimiento previo con que se inicia un proyecto de análisis es conocimiento ordina- rio, no especializado, y solo una parte de él es científico; o sea que el conocimiento científico es “aquel que se ha obtenido mediante el método de la ciencia y puede nuevamente someterse a prueba, enriquecerse y, llegado el caso, superarse mediante el mismo método”. La idea central de la antropología griega fue el hombre como naturaleza cósmica. el cris- tianismo luego distinguió la nueva realidad humana: la tríada compuesta por cuerpo, cosmos y espíritu. así lo admitieron casi todos los pensadores de occidente hasta finales del siglo XViii. a partir de ahí la civilización recibió la doble influencia de la religión y de la filosofía. Las historia de las grandes revelaciones científicas estuvieron asociadas a nombres ilus- tres como aristóteles, pitágoras, Leonardo, Galileo, Newton… y extremando la idea kan- tiana de la ilustración –en que el hombre debía hacer su vida atenido no mas que a su propio entendimiento–, los sabios del siglo XiX fueron los protagonistas de un nuevo naturalismo antropológico que orientaron sus mentes a un pluralismo filosófico dispar: evolucionismo, positivismo y eclecticismo. Descartes, en los albores del modernismo, había establecido que la verdadera ciencia era demostrable según el modelo de las matemáticas y edificó la filosofía racionalista tomando como criterio básico las ideas claras y distintas. el racionalismo cartesiano tenía una actitud cautelar que no solo llevaba a admitir falen- cias en nuestro propio conocimiento, sino que admitía como racional sus propios límites. La razón era una fuerza única, infalible y omnipotente: única, por que tenía sentido de identidad en todos los hombres y todos disponían de • ella en igual medida [ 31 ] infalible, porque no era susceptible de errar • omnipotente, porque extraía de si misma su material y sus principios fundamentales • De un modo especial la gnoseología renunciaba a la esencia del conocimiento sin que ello significara una negación manifiesta, pues la filosofía moderna se instalaba de a poco en el pensamiento, la conciencia y la razón, lo que provocaba un desajuste progresivo entre el conocimiento y la realidad. en el siglo XViii nacía el empirismo de Locke, llevado hasta sus últimas consecuencias por David Hume, quienes basaron sus teorías en la experiencia. ambos afirmaron que el límite del conocimiento era realmente la experiencia y que nin- guna ciencia podría extenderse más allá de esa frontera o establecer principios que no se fundieran dentro de esa jerarquía. con el advenimiento de la ilustración se continuó con el concepto de que el límite del conocimiento era la prueba, la demostración. Voltaire, en El filósofo ignorante decía: “Hay que haber renunciado al sentido común para no estar de acuerdo en que nada sabemos en el mundo, si no es por la experiencia”. sin embargo, nadie como Kant advirtió sobre los límites del conocimiento e intentó sal- var la contradicción en su Crítica de la razón pura de 1871. tomando como principio los enunciados cartesianos, teorizó sobre el conocimiento ob- jetivo y afirmó que el conocimiento científico se apoyaba sobre bases ciertas, que estaba construido por conceptos y leyes “a priori” independientes de la experiencia y que proporcio- narían el escenario donde se ubicarían los datos de esa experiencia. con la formulación de las geometrías no euclídeas y la enunciación de la teoría de la relatividad, a fines del siglo XiX y principios del XX, la idea de la física newtoniana perdió la vigencia que Kant le atribuía. en realidad, las leyes científicas no serían ni verdaderas ni falsas, sino simplemente convenciones o estipulaciones avaladas por sus consecuencias. el surgimiento del racionalismo crítico, enunciado por Karl popper en 1934, sostuvo que las teorías jamás podrían justificarse o demostrarse porque la experiencia nunca accedería a demostrar la verdad. por lo tanto toda teoría que contradijera la experiencia debería consi- derarse falsa. “Así como nunca estaríamos seguros de alcanzar la verdad, en ocasiones podríamos detectar el error”. según la doctrina popperiana el conocimiento, por ser conjetural, progresaría gracias a la detección de errores y las teorías siempre serían hipótesis o conjeturas que jamás alcanza- rían la condición de verdad. Nacía, pues, el falsacionismo. a fines del siglo pasado, en 1974, Donald campbell enunció la epistemología evolucio- nista, que consistía en abordar la problemática del conocimiento bajo la perspectiva de la evolución biológica. según esta corriente, nuestro conocimiento corresponde a la realidad porque descen- demos de otros seres, que a través de la evolución desarrollaron capacidades perceptivas e ilustrativas adaptadas al entorno. [ 32 ] Las ideas básicas del racionalismo crítico y de la epistemología evolucionista se fundie- ron ampliamente en la mentalidad de nuestros días, aunque muchas alarmas suenan con el objeto de despertar ese conocimiento aletargado, que afrontaría nuevas instancias difíciles de resolver. según p. W. atkins, profesor de física y química de la Universidad de Oxford, somos me- ros productos del mundo físico. La física está a punto de explicarlo todo, incluso la creación del universo a partir de la nada, sin necesidad de recurrir a un Dios creador. atkins no es el único ser que anticipa el final de la física fundamental. Otros teóricos ya describen un presunto final de la ciencia. seguramente nada de ello ocurrirá porque la ciencia experimental continúa marchando por la ruta que los genios, como Newton, trazaron lejos de cualquier extravagancia. el siglo XX además produjo, sobre el fin de su primera mitad, una de las grandes conmo- ciones del saber mundial con el advenimiento de la informática.La concepción de la informática generó una revolución tal, que la filósofa esther Diaz la equiparó con el impacto histórico que produjo la enunciación heliocéntrica de copérnico. ese itinerario histórico, que aún transcurrimos, se inició con la telemática cuando el go- bierno de estados Unidos convocó a una serie de distinguidos investigadores de élite, para que indagaran en tecnologías apropiadas que mantuvieran comunicaciones rápidas y eficientes. La preocupación del gobierno central era más que apremiante. La Unión transitaba si- multáneamente por dos guerras entre Oriente y Occidente y necesitaba mantener contactos instantáneos entre las metrópolis americanas y los remotos campos de batalla. esa conjunción explosiva entre tecnociencia y política exterior dio vida a una de las cria- turas artificiales mas inquietantes de la historia de la humanidad, la computación, y con ella un nuevo paradigma de la ciencia: la globalización científica. actualmente, la robustez digital posibilitó que se liberaran las fórmulas de la fisión del átomo y comenzaran las prácticas atómicas, las nuevas ecuaciones físicas que concibieron los viajes interplanetarios y las investigaciones biológico-digitales que culminaron con la ingeniería genética, entre otros. Fedoseev y pájaro en nuestros días, plantean que el proceso del conocimiento transcurre por tres etapas: La acumulación y elaboración de datos obtenidos mediante procesos empíricos. • La construcción y elaboración de la teoría sobre la base de la compilación y trata-• miento de los datos empíricos obtenidos. La explicación de los datos empíricos conocidos, la deducción de predicciones a par-• tir de los nuevos datos con la colaboración de la teoría elaborada y la confirmación de la teoría por el material empírico. como se ha visto, no se puede hablar de ciencia sin recurrir a la “filosofía de la ciencia”, entendida como un nivel de razonamiento y no como una disciplina académica. La percepción, la intuición y la lógica que fueron las tres armas esgrimidas por el hombre para dominar la naturaleza, son los instrumentos en que se basa el método científico y, en alguna medida, toda teoría se asienta en la combinación de las tres. [ 33 ] sin embargo no se puede conjeturar sobre el método si se desconoce la ley. pero, ¿qué es ley? ¿qué es ley científica? Ley objetiva - Ley científica el término “ley” no tiene un uso fijo sino que es un signo ambiguo que designa varios jui- cios. No nos interesa definir ahora el concepto jurídico de ley, sino las acepciones relevantes que son útiles para la ciencia pura y aplicada. según Mario Bunge se designa como ley o ley objetiva o pauta nómica a “un patrón ob- jetivo de una clase de hechos: cosas, acontecimientos, procesos.... O sea; cierta relación o red de relaciones constantes que se cumplen realmente en la naturaleza, las conozcamos o no”. por lo tanto una ley es un objeto extraconceptual que se sitúa en la realidad. Ley científica “es una proposición científica confirmada que afirma una relación cons- tante entre dos o mas variables cada una de las cuales representa, parcial e indirectamente, una propiedad de sistemas concretos”, es decir es “una regla y norma constante e invariable de las cosas, nacida de la causa primera o de las cualidades y condiciones de las mismas”. por lo tanto, toda ley científica no deja de ser una hipótesis confirmada que refleja una pauta objetiva y su lugar central en las ciencias es el fin capital de toda investigación científi- ca: el descubrimiento de pautas o regularidades. Dice Bunge que hay tantas clases de leyes científicas como puntos de vista o criterios de clasificación queramos adoptar y si tienen niveles cualitativos diferentes tendrán un nivel dispar de integración. como cada uno de esos niveles se distingue por tener variables y leyes propias, las rela- ciones objetivas entre las mismos se explican por “leyes interniveles”. en cambio se define como “leyes intranivel” a aquellas que relacionan variables de igual estatura científica. Las leyes intranivel contienen las siguientes variables de una investigación científica: Biológicas (vg: reproducción de los seres vivos - fotosíntesis) Físicas (vg: intensidad del sonido - transmisión de la luz) Químicas (vg: función hormonal - acción enzimática) Sociológicas (vg: división de clases - clasificación del trabajo) Psicológicas (vg: la psique - el vínculo) Las leyes interniveles se agrupan en: Biofísicas y bioquímicas Psicofísicas y psicoquímicas Psicobiológicas Sociofísicas Sociobiológicas Sociopsicológicas [ 34 ] Psicobiofísicas Sociobiofísicas Sociopsicofísicas Sociopsicobiológicas Sociopsicobiofísicas si un método es un procedimiento que sirve para tratar un conjunto de problemas, el mé- todo científico es en consecuencia una “sistematización u orden que define el conocimiento del saber y lo diferencia de otros tipos de conocimientos”. La filosofía de la ciencia lo delinea como todo fenómeno que es aceptado por el sentido común y por ende por la comunidad científica y la sociedad toda. por su naturaleza debe carecer de subjetividad. en consecuencia, cada método especial es relevante para algún es- tadio particular de la investigación científica, y si el método general de la ciencia es un pro- cedimiento que se aplica al ciclo entero de la investigación en el marco de cada problema, la finalidad del método científico será establecer la diferencia que existe entre la ciencia y la no ciencia. aunque se lo asocia ecuménicamente con todas ellas, básicamente suele aplicarse en las llamadas ciencias naturales (biología, física, química,...) en contraposición con las ciencias humanas (economía, política,...) que se rigen por la dialéctica, el funcionalismo, el estructu- ralismo, la hermenéutica y el método fenomenológico entre otros. Los tres procedimientos esenciales que reciben genéricamente la denominación de méto- do científico son: inductivo, deductivo e hipotético-deductivo o de contrastación de hipó- tesis. el primero crea leyes desde la observación de los hechos, mediante la generalización del comportamiento observado. Diría que es más representativo de las ciencias empíricas. el segundo aspira a obtener conclusiones a partir de premisas mediante el uso de la lógica pura. es el método axiomático propuesto por aristóteles como el método científico ideal y es propio de las ciencias formales. ambos encierran elementos filosóficos subyacentes, se valen de la lógica y marchan en ambos sentidos: de lo particular a lo general y viceversa. por último el hipotético-deductivo o experimental, que generalmente no plantea proble- mas porque su validez surge de los resultados obtenidos del contraste de las propias prue- bas. sin embargo se destaca su carácter predominantemente intuitivo ya que necesita contras- tar sus conclusiones tanto para ser validado como rechazado. como se puede observar la metodología de la ciencia está llena de matices según la co- rriente filosófica perseguida. para María José Molina el “árbol del conocimiento científico” respondería al siguiente algoritmo. [ 35 ] Referencias artigas M. Los límites del lenguaje científico. en: Ortíz JM (ed). Veinte claves para la 1. nueva era. Madrid, rialp 1992; pp 113-131 Bunge M. La investigación científica. México, siglo veintiuno editores 2000; pp: 7, 265, 2. 283-289, 299, 315. Díaz e. el desafío de las investigaciones disciplinarias e interdisciplinarias, articuladas 3. con una pedagogía del orden y del caos-2005. www.estherdiaz.com.ar Díaz Narváez Vp, calzadilla Núñez a., López salinas H. Una aproximación al concepto 4. del hecho científico. cinta de Moebio- Facultad de ciencias sociales. chile, Universidad de chile 2005, n° 22 espinosa padierna Le. tecnología y educación. ¿integración del conocimiento o frag-5. mentación cultural? . www.redespecialweb.org/congreso6.htm Hartmann N. Metafísica del conocimiento. Buenosaires, editorial Losada 1957; pp: 6. 208 ibáñez JJ. Las teorías científicas según Karl popper: La falsabilidad. 7. weblogs.madri- masd.org/universo/archive/2007/02/1059009.aspx Laín entralgo p. conocimiento científico del hombre sección ii. in Historia de la Medi-8. cina. Barcelona, salvat 1979 pp: 418-463 METODOLOGÍA DE LA CIENCIA - ETAPAS - I.- PASOS DEL MÉTODO CIENTÍFICO. Planteamiento Argumentación Lógica Intuición Creatividad (“Jump” o salto) Conclusión y proposición de la teoría II.- PROCEDIMIENTOS DE CONTRASTACIÓN DE UNA TEORÍA. Experimental (Verificación o Falsación) Sentido Común (Galileo - Pop up autónomo) III.-ACEPTACIÓN. (Sociología de la Ciencia) Comunidad científica Sociedad en su conjunto [ 36 ] Magnus D. Down the primrose path competing epistemologies in early XX century bio-9. logy. in: creath r, Mainchistein J (eds). Biology & epistemology. cambridge, cambrid- ge University press 2000 Molina MJt. Globalización científica. Nuevos paradigmas de la ciencia. 10. www.molwick. com/es/métodos-científicos pájaro D. La formulación de la hipótesis. cinta de Moebio- Facultad de ciencias socia-11. les. Universidad de chile. 2002 n° 15. II. comunIcacIón de Los resuLtados [ 39 ] CAPÍTULO 3 Cómo escribir un manuscrito para su publicación Andreas Wielgosz escribir un artículo médico que sea considerado adecuado para su publicación luego de su revisión o arbitraje por pares (peer review) requiere una estrategia clara y efectiva. también requiere una cuidadosa atención a los detalles. Las exigencias cada vez mayores y la gran competencia por publicar, en particular en las revistas más calificadas, hacen de lograr la aceptación un verdadero desafío. Generalmente, la tasa de aceptación suele ser menor del 50%, con un 20 a 25% de trabajos rechazados aún sin haber ingresado en la fase de arbitraje por pares. Los autores exitosos tienen una forma sistemática de encarar la tarea y este capítulo delinea los pasos que deberían darse, juntamente con indicaciones útiles, para facilitar el procedimiento. también da una visión de algunos de los errores más comunes en que se suele incurrir y de cómo evitarlos. La satisfacción no solo debería provenir de la contemplación del trabajo en prensa, sino también del esfuerzo realizado en su elaboración. Hay varios tipos de comunicaciones que pueden aparecer en un periódico médico, inclu- yendo trabajos originales de investigación, artículos de revisión o puesta al día de distintos temas, comentarios editoriales, comunicaciones breves, casuística, comentarios de libros y cartas al editor. La mayoría de los comentarios que siguen se referirá al artículo original de investigación, aunque los mismos principios se aplican a otros tipos de trabajo en general. aunque pueden existir beneficios secundarios en publicar, tales como elaborar una lista de publicaciones para promover o facilitar la obtención de fondos para la investigación, etc., la más importante de las motivaciones debería ser el poder comunicar hallazgos, conceptos e ideas. en este sentido, es útil considerar el manuscrito como un medio de comunicación, como si se refiriera una historia. La clase de audiencia y la facilidad con la cual dicha audiencia podrá ser alcanzada, es- tán determinadas en gran parte por la elección de la revista. Generalmente, el mayor alcance se obtiene publicando en inglés en una revista Norteamericana o Británica. si el objetivo es llegar a colegas que se hallen trabajando en el mismo campo, entonces quizás lo más apro- piado sea un periódico de la subespecialidad. Desde ya, el tema del trabajo debe estar en consonancia con las metas y objetivos de la revista elegida. si quedara alguna duda respecto de la elección, lo mejor es contactar al editor. esto puede tener el beneficio adicional de inte- resar al editor en el artículo propuesto y lograr que aguarde ansiosamente su envío. en caso [ 40 ] contrario, el editor podrá ahorrarle un tiempo valioso dirigiendo el envío a una revista más acorde con el mismo. Muchos autores eligen una publicación en base al factor impacto, el cual depende de que la revista se halle indexada. el factor impacto es una medida de la frecuencia con la cual los artículos de una revista en particular son citados por autores que escriben en las demás revis- tas indexadas. esto es llevado a cabo por el instituto para la información científica (Institute for Scientific Information), que sigue las citas por un período de tres años. aunque existe un consenso general en que las citaciones frecuentes de un artículo son indicativas de su calidad e importancia, este no es siempre el caso. De esta forma, cierta controversia rodea la signifi- cación atribuída a los factores de impacto.1 La elección de una publicación específica debería surgir tempranamente en el proceso de escritura porque determinará el formato y el estilo que deberán adoptarse. Los requeri- mientos de estilo son publicados por las revistas al menos una vez al año, aunque en algunos casos pueden encontrarse en todos los números y también se pueden conseguir en internet. Luego, el primer paso crítico es delinear la estructura del artículo en ciernes de acuerdo a los requerimientos de la revista en la cual se intenta publicarlo. La mayoría de las publicaciones tienen requerimientos similares, con artículos originales limitados a alrededor de 3.000 a 4.000 palabras, más un resumen de alrededor de 250 pa- labras. La primera página es la del título, que también incluye un título breve de alrededor de 40 a 90 caracteres, que puede ser utilizado para búsquedas computarizadas. Los autores están listados en esta página, en ciertos casos con sus correspondientes grados y afiliacio- nes académicas. Un autor, típicamente el primero, es identificado como corresponsal y la información para su contacto es provista tanto para correspondencia durante el proceso de arbitraje como para la publicación definitiva del artículo. Nadie más debería mantener la comunicación con la oficina editorial. Finalmente, en la primera página deberían incluírse varias palabras clave (key words) destinadas a facilitar las búsquedas computarizadas que podrán conducir a la identificación del artículo. La terminación de la primera página puede ser pospuesta hasta el final, aunque el acuerdo acerca de la autoría y orden de los autores es mejor que sea abordado tempranamente. el siguiente item es el resumen. Muchas, aunque no todas las revistas, requieren un resumen estructurado.2 este requisito debería estar incluído en las instrucciones para los au- tores. algunas revistas no lo especifican, dejando la cuestión a la discreción de los autores. Un resumen estructurado es más probable que sea advertido y examinado, lo cual favorece que el artículo sea leído. en 1987, los annals of internal medicine introdujeron como un requisito los resúmenes estructurados, con los siguientes sub-enacabezamientos: Objetivo, Diseño, campo (Setting), pacientes, intervención, Mediciones, resultados principales y conlusiones. en 1996 fue agregado a la lista antecedentes (Background) y en 2004, Limitaciones. algunos autores escriben primero el resumen, con el fin de servir como un bosquejo para el resto del trabajo. esto puede llegar a perturbar la escritura y causar mucha frustración en la medida en que el autor intenta resumir el artículo antes de que esté concluida su redacción. Lo mejor es dejar el resumen para el final, lo que a su vez permite que las mejores frases o enunciados para resumir el trabajo sean copiados y pegados directamente desde el artículo terminado. [ 41 ] el artículo propiamente dicho comienza con una introducción. su objetivo es proveer la información de fondo que explicará porqué fue emprendido. La introducción debería asimis- mo precisar los temas específicos que el trabajo apunta a tratar y el porqué los investigadores desearon llevarlo a cabo. Debería comunicar el entusiasmo que motivóa los investigadores, de manera de generar interés por parte de los lectores. La introducción no está dirigida a ser una revisión de la literatura, lo cual es un error común en investigadores que transforman esta sección en una larga polémica. Una buena estrategia es comenzar con una perspectiva general y entonces hacer foco en el problema o las preocupaciones específicas, juntamente con una explicación del emprendimiento. La sección Métodos desafía al escritor a proveer, tan sucintamente como sea posible, la información necesaria acerca de lo realizado, de manera que pudiera ser potencialmente repro- ducido por otros. No es necesario incluir en la descripción de los métodos cada etapa empren- dida, juntamente con los errores cometidos y las correcciones aplicadas. esta sección requiere un equilibrio entre insuficiente y demasiada información. si muchos de los detalles del enfo- que metodológico empleado para conducir el estudio son críticamente importantes, debería considerarse la posibilidad de un artículo separado acerca de la metodología del estudio. Los resultados pueden entonces ser redactados en otro artículo, con solamente una referencia a los métodos, que habrán sido previamente descriptos y publicados. como alternativa, pueden agregarse uno o más apéndices delineando los detalles metodológicos. cuando las limitaciones en las palabras son motivo de preocupación, un diagrama puede ser de utilidad. La sección Métodos tiene frecuentemente sub-encabezamientos para organizar el flujo de información que deberían ser utilizados generosamente. Un error común es revelar y/o discutir los resultados en la sección métodos. a veces los autores se sienten compelidos a explicar la elección de determinados métodos o a recordar la secuencia de eventos, por ejemplo los hallaz- gos que condujeron a la siguiente elección de métodos. sin embargo, esto debería evitarse. es suficiente explicar que después que fueron obtenidos los resultados de la Etapa A se llevó a cabo la Etapa B, reteniendo los detalles de los resultados de la Etapa A hasta la sección resultados. si el estudio requiriese aprobación ética, esto debería ser mencionado identificando la institución que revisó el proyecto y emitió la aprobación. De la misma manera, deberían ser descriptos los pasos destinados a asegurar la confidencialidad para con el paciente. también es importante identificar cualquier producto con derechos de propiedad. Los resultados son la parte sobresaliente del trabajo. aquí también es importante ser sucinto pero claro y preciso. Los autores son a menudo desafiados por un gran volumen de datos que desean presentar. Las tablas y figuras pueden proveer información que evita repe- ticiones en el texto. Bastará entonces simplemente con resaltar en palabras los principales da- tos de interés. Los datos deberían ser presentados en una secuencia lógica, siguiendo el curso temporal de los métodos. La atención al detalle es muy importante en la sección resultados. Una tabla o un gráfico deberían explicarse por sí mismos, lo cual subraya la importancia de una leyenda bien redactada. Queda más allá de los límites de este capítulo discutir los variados errores en la presen- tación de los datos, particularmente en los gráficos, tales como conectar datos puntuales con una línea continua, errores que a menudo surgen en esta sección. La inclusión de un buen estadígrafo en la preparación de tablas y gráficos contribuye a evitar estos problemas. [ 42 ] La Discusión proporciona la oportunidad de explicar los hallazgos y de examinar con mayor profundidad las controversias con las que los hallazgos puedan relacionarse. Las Li- mitaciones deberían ser abordadas anticipándose a los argumentos que los revisores o comen- taristas puedan llegar a proponer. esta sección finaliza típicamente con recomendaciones y planes futuros o sugerencias para subsiguientes investigaciones, en especial si no ha sido requerida una sección conclusiones en forma separada. siguen los agradecimientos. aquí deberían ser reconocidas todas las personas que puedan haber colaborado en cualquiera o todas las etapas del trabajo científico, pero en un nivel que no alcanza para considerarlas coautoras. De la misma manera, las instituciones y agencias que proporcionaron soporte a la obra deberían ser identificadas y agradecidas. es también una buena práctica enviar una copia del artículo publicado a aquéllos que han sido incluídos en los agradecimientos, junto con una carta de cobertura reiterando el agradecimiento. Las referencias bibliográficas constituyen la última parte del manuscrito. es muy impor- tante la aceptación y cumplimiento del formato requerido. cualquier desacuerdo entre los nú- meros del texto y las referencias listadas arroja una impresión muy desfavorable sobre todo el manuscrito, de modo que es imperativo un cuidadoso chequeo y re-chequeo. el uso apropiado de las referencias es una habilidad que se perfecciona con la práctica. La cita de una referencia acerca de conocimientos ampliamente aceptados es tan poco agradable como la omisión de referencias a información específica relacionada con cuestiones acerca de la evidencia existente para sostener las proposiciones enunciadas. Un error no poco común es proveer como referen- cia un libro o artículo que a su vez relata o menciona la referencia original. La única práctica aceptable es suministrar la referencia original. por supuesto, listar una referencia original sig- nifica que el artículo ha sido leído y considerado relevante por el autor del manuscrito. Una referencia es listada una sola vez, y el mismo número de referencia es luego repetido si ésta es citada nuevamente en el manuscrito. La extracción de texto de los trabajos de otros autores sin reconocer la fuente es plagio. esta es una falta grave, desgraciadamente no infrecuente. Muchos editores tienen a su disposición sistemas electrónicos que buscarán el texto de frases o párrafos previamente publicados. el plagio no es tomado en forma ligera. Habiendo preparado el manuscrito en el formato requerido con la contribución de los coautores, el próximo escalón es solicitar comentarios de colegas imparciales, preferiblemente aquéllos con experiencia en la redacción de artículos publicados. tal solicitud debería ser pre- anunciada, para dar al colega elegido la oportunidad de confirmar que desea y está en condicio- nes de leer el borrador y aportar una crítica constructiva. a menudo, en este punto y habiendo ya invertido un tiempo considerable preparando el manuscrito, el autor se halla impaciente por enviarlo para su publicación. sin embargo, esta revisión provisoria es indispensable y puede ser ampliamente remunerativa, resultando finalmente en un acortamiento del tiempo hasta la pu- blicación. Dado que lo buscado es una crítica, ésta debería ser aceptada cortésmente, usando el juicio para discernir el desacuerdo en el estilo del desacuerdo en el fondo. si son recomendados cambios sustanciales, deberían ser atendidos y seguidos por una nueva solicitud de revisión. estas medidas preliminares conducen al manuscrito más cerca de su aceptación. Una vez que existe un consenso entre coautores y serviciales colegas en que el manuscrito está listo, su envío para publicación debería tener lugar sin demoras. Más y más publicaciones instruyen a los autores para enviar sus trabajos en forma electrónica. este proceso realmente [ 43 ] acelera la revisión del manuscrito y permite a los autores seguir el progreso de su envío. Un sistema tal, hecho accesible por la editorial elsevier, es utilizado para los artículos enviados a Prevention and Control, publicación oficial de la Federación Mundial del corazón (World Heart Federation). todo el proceso de remisión electrónica requiere atención a los detalles y es recompensado por la confirmación del recibo, que es enviada por e-mail al autor corres- ponsal. sea que el envío del manuscrito tenga lugar electrónicamente o bien tradicionalmen- te,por correo postal, puede ser añadida una carta o mensaje para el editor. esta es una buena práctica, particularmente para señalar los méritos especiales que el artículo pueda tener, sean éstos lo novedoso de la investigación o sus hallazgos significativos. si hubiera existido una comunicación previa con el editor, debería ser mencionada. en este punto, el destino del artículo está en manos de la oficina editorial. el editor deci- dirá si el artículo es relevante y si merece la revisión o arbitraje por pares. el rechazo en esta instancia puede ser cuestionable, en particular si no se da ninguna explicación, como no sea el apresurado comentario de que se reciben muchos artículos y solamente unos pocos pasan por el proceso de arbitraje. a veces el editor puede ser persuadido si se señalan cualidades únicas, que serían de gran interés para los lectores y que aún podrían aumentar el prestigio de la revista, un argumento irresistible para muchos editores. si el manuscrito atraviesa la revisión por pares y los revisores recomiendan el rechazo, es importante estudiar cuidadosamente las críticas. Los revisores tienden a enfocar tres aspec- tos de los manuscritos: legibilidad, relevancia y metodología. en tanto la carta de rechazo puede sonar como un repique fúnebre para el trabajo enviado, todavía puede ser emprendido un nuevo envío, puntualizando al editor en el mensaje que acompaña, porqué es importante ver el artículo publicado en esa revista en particular y qué pasos se han dado para mejorarlo. Lo peor que puede ocurrir es otro rechazo, en tanto que es posible una reconsideración. si se entiende que el arbitraje no ha sido imparcial, quizá llevado a cabo por un colega rival, tales preocupaciones deberían ser comunicadas al editor. solo unos pocos periódicos identifican a el/los revisores con completa transparencia. aunque pueden haber sido propuestos algunos revisores, no hay garantías de que hayan aceptado la solicitud de revisar el manuscrito, ni aún de que el editor los haya contactado. solicitar otra revisión no está fuera del caso. es lo mejor evitar reaccionar ante un rechazo con cargos emocionales de incompetencia y declaraciones de nunca más remitir artículos a esa revista. Después de un rechazo definitivo, la alternativa a un reenvío es la remisión del manuscrito a otra revista, pero solo después de que los comen- tarios de los revisores hayan sido tomados en consideración y las mejoras necesarias hayan sido realizadas. La perspectiva del revisor siempre debería ser considerada.3 La experiencia de ser uno mismo un revisor, es muy útil para escribir buenos artículos. Ofrecerse para actuar como revisor es altamente recomendable. Una vez que los comentarios de los revisores hayan sido atendidos, es de esperar que el editor deje la puerta abierta para el reenvío del manuscrito. esto debería realizarse tan rápido como sea posible. La mayoría de las revistas tienen un límite de tiempo tal que luego de 6 o 12 meses, un artículo reenviado es tratado como un nuevo envío y atraviesa una nueva revi- sión independiente. aún un reenvío en tiempo no es necesariamente devuelto a los árbitros originales. el editor tiene la potestad de solicitar a los árbitros originales o a nuevos árbitros, la revisión del manuscrito ya revisado. [ 44 ] el reenvío debería ser acompañado por una carta. cada punto debería ser tratado por sepa- rado, elegante y claramente. si existiera un desacuerdo con uno o más de los comentarios rea- lizados por los árbitros, las razones deberían ser explicadas. por otra parte, las críticas válidas deberían ser aceptadas con reconocimiento y atendidas, señalándose los cambios realizados. Una vez que el artículo es aceptado, el paso final implica la revisión de las pruebas de galera previas a la publicación. Las pruebas de galera están compuestas en su aspecto final. Los encargados de la publicación sólo permiten correcciones menores, en general para salvar errores en el deletreo o la puntuación. el agregado de frases o los cambios mayores resultan engorrosos para el proceso y están fuertemente desaconsejados, cuando no prohibidos. Una respuesta rápida a este punto es también mandatoria porque el artículo se halla en camino a una próxima publicación, con tiempos estrictos, de modo que los retrasos no son tolerados. también en esta instancia, al autor le es típicamente requerido firmar la transferencia de los derechos de autor (copyright) a favor del editor, y decidir si ordena reimpresiones (reprints) adicionales del artículo. La mayoría de los periódicos ofrecen un número limitado de reprints en forma gratuita. pueden haber costos por el agregado de fotografías en color, aunque esto también varía según los editores. Finalmente el artículo aparece impreso y es tiempo de celebrar. Quizá entonces pueda consi- derarse el escribir otro artículo. Las preparaciones para el próximo artículo deberían comenzar tempranamente, mientras la investigación está aún en marcha. La introducción y la sección mé- todos pueden ser redactadas aún antes que los resultados estén disponibles. en tanto la mayor parte de la redacción es realizada por un solo individuo, algunos manuscritos son preparados por varios redactores, cada uno contribuyendo con una sección. esto requiere de un autor principal que será responsable de asegurar cierta uniformidad de estilo. indudablemente, la experiencia de haber escrito varios artículos facilita todo el proceso. como ha sido mencionado anteriormente, la experiencia de ser árbitro resulta una ayuda. Hay también talleres y cursos accesibles para principiantes y para aquéllos que desean mejorar sus capacidades para la redacción de artículos. es de esperar que el lector haya sido estimulado y alentado por este capítulo a involucrarse en la escritura médica y que sea recompensado por la satisfacción que proviene de ver su trabajo en forma impresa para beneficio de los colegas, en el presente y en el futuro. Referencias 1. seglen pO. Why the impact factor of journals should not be used for evaluating research. BMJ 1997; 314: 497-502. 2. Nakayama t, Hirai N, yamazaki s, Naito M. adoption of structured abstracts by gene- ral medical journals and format for a structured abstract. J Med Libr assoc. 2005; 93(2): 237–242. 3. provenzale JM, stanley rJ. a systematic guide to reviewing a manuscript. am J roent- genol. 2005; 185(4): 848-854. [ 45 ] CAPÍTULO 4 La revista científica: criterios editoriales para evaluación de artículos médicos Enrique Fisman Alexander Tenenbaum La historia de los criterios editoriales para la evaluación científica de las publicacio-nes médicas se remonta a una reunión que tuvo lugar en canadá, unas tres décadas atrás. Un pequeño grupo de editores de revistas médicas generales se reunieron de ma- nera informal en Vancouver, columbia Británica, en 1978, para establecer guías para el formato de los manuscritos enviados a sus revistas. el grupo llegó a ser conocido como el Grupo de Vancouver. sus requisitos para los manuscritos, incluyendo los formatos de las referencias bibliográficas, desarrollados y adaptados mas tarde por la Biblioteca Nacio- nal de Medicina de los estados Unidos, fueron publicados por primera vez en 1979.1 el Grupo de Vancouver se amplió y evolucionó hasta convertirse en el comité internacional de editores de revistas Médicas (international committee of Medical Journals editors - icMJe). con el transcurso del tiempo el icMJe ha ampliado gradualmente sus atribu- ciones y ámbito de incumbencia. el mismo dejó de ser meramente técnico, incluyendo y centrándose en la actualidad en los principios éticos relacionados con la publicación en revistas biomédicas. aunque las primeras revistas científicas datan de la primera mitad del siglo XVii, el comienzo oficial del proceso de arbitraje se dio inició mas de un siglo después, cuando en 1753 la royal society of London tomó la responsabilidad formal de evaluar los textos reci- bidos para publicación.2 La necesidadde organizar y seleccionar el material que luego sería publicado, conllevó el surgimiento de los dos actores principales en el proceso de evaluación: el editor científico, representado por el secretario de la sociedad encargado de organizar la revista, y los evaluadores, representados por el consejo de la sociedad. La difusión masiva de esta práctica se produjo a partir de la segunda mitad siglo XX, después de la ii Guerra Mundial, debido al enorme crecimiento del número de investigaciones, a la fragmentación de la ciencia en subdisciplinas y al desarrollo de terminologías específicas.3 así surgió el embrión del sistema de evaluación de la producción científica por los miem- bros de la comunidad profesional específica, identificado como sistema de arbitraje o de revi- sión por pares. el mismo implica el uso sistemático de árbitros para determinar la aceptación o el rechazo de los manuscritos que aspiran ser publicados. este sistema no surgió de forma pronta y acabada. como parte institucional integrante de la ciencia, ha ido evolucionando como respuesta a los problemas concretos con que se enfrentan los científicos en el proceso [ 46 ] de desarrollo de la investigación y como subproducto de la emergente organización societa- ria de los científicos. La transformación del manuscrito original, es decir el texto redactado pero sin la competente evaluación de los pares, en una publicación, o sea en un manuscrito legitimado por el resguardo de la valoración crítica de los pares mediante la evaluación insti- tucionalizada y firmada por revisores competentes, se convierte así en una parte inseparable del proceso científico.4,5 Nuestra modesta experiencia personal como editores comienza en el año 2002. como cardiólogos clínicos, nuestro interés se había centrado en años anteriores en investigar diver- sos aspectos de la interfaz entre diabetes y enfermedades cardiovasculares. La creciente rele- vancia del tema nos llevó a pensar que sería importante fundar una revista específicamente dedicada al mismo, y así nació Cardiovascular Diabetology.6 en cuanto a nosotros, nos vimos súbitamente ubicados “del otro lado de la barricada”. De nuestro rol de autores, obvia y naturalmente ansiosos de ver publicados nuestros trabajos (y preferentemente con rapidez y en revistas de buen nivel), pasamos al rol de editores, encar- gados de decidir que trabajos de nuestros colegas nos veremos obligados a rechazar, y cuales serán publicados y en que condiciones. Describiremos a continuación nuestra experiencia al respecto. La misma comprende la concepción acerca de la esencia de una revista científica y los criterios que hemos adoptado o elaborado para cumplir nuestra tarea de editores. La revista científica ¿Que es una revista científica? La UNescO entiende a la revista como una publicación periódica que presenta especialmente artículos científicos, escritos por autores diferentes, e información de actualidad sobre investigación y desarrollo de cualquier área de la ciencia. tiene un nombre distintivo, se publica a intervalos regulares, por lo general varias veces al año, y cada entrega está numerada o fechada consecutivamente. su componente básico, el artículo científico, es un escrito en prosa, de regular extensión, publicado como una contri- bución al progreso de una determinada ciencia o arte.7 Básicamente, la definición de una revista científica en general, y médica en particular, está dada por su función y puede basarse en los dos criterios estipulados por Greene,8 que establecen que las funciones de una revista pueden resumirse como el doble propósito de servir de memoria de la ciencia y constituir, al mismo tiempo, un medio de divulgación de los resultados de la investigación para la comu- nidad científica y para la sociedad. en ciertos casos, cuando se trata de revistas sumanente prestigiosas, las mismas pueden establecer parámetros para la evaluación de la producción científica de los investigadores y sus instituciones. en otros términos, implementan criterios de calidad para la programación, realización y divulgación de la investigación. Los autores, revisores y editores constituyen el trío imprescindible para el funcionamiento adecuado de una revista científica. el editor es el responsable de mantener la calidad de la revis- ta. su obligación principal es garantizar que los manuscritos que aspiran a ser publicados sean evaluados de la forma correcta, es decir con total objetividad, sin interferencias y sin ningún tipo de prejuicio a favor o en contra de la aceptación de determinado artículo. el editor no debe escoger a los revisores para obtener resultados preconcebidos. además de su responsabilidad [ 47 ] final en la toma de decisión, el editor debe ser una especie de mediador entre los autores y los revisores fomentando así una mayor comunicación e interacción entre los mismos. actualmente, en el aspecto práctico, una revista científica moderna debe cumplir con una serie de requerimientos profesionales y técnicos para poder ser considerada como tal. 1. poseer un issN (international standard serial Number- Número internacional Nor- malizado de publicaciones seriadas), que es el código internacional de identificación de las publicaciones seriadas (revistas, periódicos, boletines, anuarios, series de monografías, etc.). el issN está constituido por los caracteres “issN” seguidos de dos grupos de cuatro cifras cada uno separados por un guión. son asignadas secuencialmente, independientemente del país de origen y del idioma empleado por la revista. el número es otorgado por el interna- tional centre for the registration of serial publications, con sede en parís, que actúa bajo los auspicios de la Organización de las Naciones Unidas para la educación, la ciencia y la cultura (UNescO). 2. tener un comité editorial. el mismo debe estar integrado por personalidades de trayec- toria científica reconocida, una especie de herederos de los miembros del consejo de la royal society of London. es importante que todos los miembros del comité editorial sean investiga- dores activos, pues queda implícito que sólo los mismos están capacitados para evaluar, hacer indicaciones, emitir opiniones y sugerir correcciones sobre el trabajo de sus colegas. La función de este comité es crucial, porque, aún en el caso de revistas altamente especializadas, los edito- res no necesariamente están siempre en condiciones de poder establecer claramente y sin riesgo de equivocación, la naturaleza del aporte científico de un trabajo dado. Los miembros del co- mité que actúan como revisores generan, en franca colaboración con los editores, un proceso dinámico de intercambio de ideas, un fructífero diálogo con autores. 3. tener un editor o grupo de editores. continuando la comparación hecha en el punto anterior, ellos serían los herederos del secretario de la royal society of London. en conse- cuencia, se ocupan de los aspectos académicos y usualmente están asociados a Universidades y centros de investigación. Los editores no deberían ejercer actividades relacionadas con la administración, producción o distribución de la revista. 4. tener una entidad editora (“publisher”) de índole académica o comercial, encargada de las cuestiones administrativas y financieras destinadas a procurar los recursos económicos para garantizar la publicación regular de la revista. 5. poseer un sitio en internet (UrL – Uniform resource Location) que permita el acceso al texto completo de los artículos publicados, en caso de que la revista opte por la política de acceso abierto a la información o, en caso contrario, al menos a los resúmenes de dichos artículos. 6. tener dirección postal y electrónica e instalaciones que permitan rápida comunicación telefónica o vía fax entre los editores por una parte y los autores, miembros del comité edi- torial y revisores externos por la otra. 7. La cobertura temática de la revista y sus específicas áreas de interés deben estar clara- mente mencionadas.8. tener tabla de contenido que permita localizar a un autor o tema específicos y leer los resúmenes de todos los artículos. [ 48 ] 9. Dar explícitamente la afiliación institucional de la revista y de sus editores responsa- bles. 10. estar indexada en bases de datos que contengan un subrogante de la fuente primaria que permita localizarla. estas bases están esencialmente representadas por las de temática general de la Biblioteca Nacional de Medicina de los estados Unidos (pubMed y su comple- mentaria Medline) y scirus, y por las más específicas Orphanet, clinical trials, Genetic and rare Disease information centre y numerosas más. 11. tener la numeración de los fascículos. La misma debe ser correlativa y no debe con- fundirse con la numeración del volumen. 12. tener paginación. Los dos últimos puntos son válidos exclusivamente para las revistas que tienen también versiones impresas. Las revistas electrónicas llevan solo número de volumen (usualmente anual) y número de artículo, careciendo de fasciculación y paginación. Finalmente, además de los doce puntos mencionados, la obtención de factor de impac- to constituye una importante aspiración de toda revista científica. el proceso suele llevar varios años, y no siempre es coronado por el éxito. el factor de impacto es un índice biblio- métrico que empezó a ser considerado como instrumento de evaluación de las publicacio- nes científicas a partir de la década del 60 por eugene Garfield,9 director del institute for scientific information (isi) en esa época. Fue concebido como forma de clasificar y evaluar las revistas incluidas en la base. sólo las publicaciones indexadas en el isi son consideradas para el cálculo del factor de impacto que es realizado mediante la división del número de veces en que los artículos de una revista son citados en un año determinado en revistas in- dexadas por el isi, por el número de estudios publicados por la revista durante los dos años anteriores.10 el motivo de coger dos años es que es el tiempo promedio a partir del cual se calcula que un trabajo circula plenamente en la comunidad científica y puede ser utilizado y citado.11 el proceso de decisión ¿cual es el proceso de decisión que lleva a la publicación de un artículo científico? para efectuar la evaluación del mismo utilizamos un modelo que contiene preguntas específicas que sirven de base para determinar su posible aceptación. Deben considerarse dos aspectos: el contenido y la estructura. en cuanto al contenido, las preguntas del modelo esencialmente se refieren a: a) originalidad de la contribución; b) la importancia del artículo en su área; c) empleo de la metodología adecuada; d) validez de los métodos estadísticos utilizados. en cuanto a la estructura, debe examinarse: e) la precisión idiomática; f) el respeto a la forma de presentación clásica de un artículo médico (introducción, material y método, resultados, discusión); g) la claridad de las tablas y figuras; h) la relevancia y actualización de las referen- cias bibliográficas. si se utiliza una metodología inapropiada no se está haciendo ciencia; los resultados care- cerán de todo valor. por otra parte, ¿presentan los datos reportados la calidad suficiente para [ 49 ] ser interpretados en contextos objetivos? ¿Los resultados justifican las conclusiones obteni- das por los autores? estas son preguntas que debemos formularnos frente a cada artículo. como norma practicamos la mencionada evaluación dos veces. La primera, antes de enviar el manuscrito a miembros del comité editorial y/o revisores externos (decidiendo en la misma oportunidad a quienes solicitar la evaluación externa del manuscrito, conforme a la respectiva subespecialidad de los revisores), y la segunda, luego de haber recibido la opinión de los mismos. Luego de balancear todos los elementos implicados, se arriba a la decisión que puede ser: a) rechazar el trabajo; b) publicarlo sólo después de revisiones mayores; c) publicarlo después de revisiones menores; d) publicarlo sin revisión. La decisión, una vez tomada, se comunica inmediatamente a los autores, acompañada de los comentarios pertinentes de revisores y editores. con respecto a este sistema de revisión por pares, debemos hacer algunas salvedades. a pesar de su amplia difusión y aceptación, que evidencian sus grandes ventajas, el sistema sufrió una serie de críticas, motivadas por las distorsiones de su uso.3 se ha destacado: a) la propensión positiva o negativa a ciertos temas por parte de los revisores o editores que puede introducir distorsiones adicionales a la publicación, debido a conflictos de intereses y/o enfrentamientos personales, intereses comerciales, etc; b) la evaluación aumenta innece- sariamente el tiempo entre la presentación del manuscrito y su publicación; c) es posible que en la decisión intervengan elementos prejuiciados relativos a autores pertenecientes o supues- tamente identificados con minorías étnicas, sexuales, ideológicas, religiosas o nacionales. para hacer frente a estas posibles distorsiones, se han introducido diferentes mecanismos y procedimientos a fin de evitarlas o minimizarlas. se acostumbra solicitar declaraciones de compromiso de los revisores; enviar cuestionarios con criterios orientadores para el análisis; utilizar un mayor número de árbitros; efectuar análisis cruzados entre las recomendaciones de los mismos a fin de posibilitar el control de unos sobre otros; garantizar a los autores la posibilidad de responder o refutar los comentarios de los revisores por intermedio del editor, quien debe así propiciar un diálogo respetuoso y profesional entre el autor y el evaluador. además de estos requisitos, consideramos que es importante garantizar el carácter con- fidencial del proceso. Los grados de confidencialidad del sistema de arbitraje varían en las diversas revistas desde los muy herméticos a los muy abiertos. en este último caso, autores y evaluadores se conocen; en el otro los árbitros son anónimos y también desconocidos los nombres de los autores. en la mayoría de las ocasiones los evaluadores conocen a los evalua- dos, y es muy poco frecuente que ocurra lo contrario.4, 12 en nuestra revista6 hemos optado por un sistema semicerrado, que suministra a los revisores el privilegio de no revelar su iden- tidad, a menos que ellos mismos opten por hacerla pública. Finalmente, quisiéramos mencionar uno de los problemas clásicos que suelen presentarse en las revistas científicas impresas. se da el caso de un manuscrito que a pesar de su originali- dad y de estar bien redactado, de sus objetivos claros y relevantes, de los métodos adecuados, del análisis de los datos correcto, etc., no pueda ser aceptado para publicación. ello sucede por haber sido clasificado por alguno de los revisores como de “escasa prioridad”. este problema se refiere al elevado costo de las páginas publicadas y existe en casi todas las revistas prestigiosas internacionales. sus consecuencias son frustrantes para los autores, para quienes entonces re- [ 50 ] sulta difícil o incluso imposible publicar trabajos meritorios. estas dificultades y otras similares irán desapareciendo a medida que los avances tecnológicos induzcan a la mayoría de las revis- tas a adoptar el modelo electrónico como vehículo principal de publicación. Referencias 1. the Vancouver style. Lancet 1979; 1(8113): 428-431. 2. Frederiksson BK (ed.). a century of science publishing. iOs press, Omaha, Nebraska, Usa, 2001. 3. spinak e. Diccionario enciclopédico de bibliometría, cienciometría e informetría. cara- cas, Venezuela, UNescO, 1996. 4. pessanha c. editorial criteria for the evaluation of scientific literature. seminario sobre evaluación de la producción científica. proyecto scieLO, são paulo, Brasil, marzo 4-6, 1998. 5. Zuckerman HQ, Merton rK. patterns of evaluation in science: institutionalization, structure and functions of the referee system. Minerva 1971; 9(1): 66-100. 6. http://www.cardiab.com/7. http://portal.unesco.org/ 8. Greene JL. el dilema del editor de una revista biomédica: aceptar o no aceptar. semi- nario sobre evaluación de la producción científica. proyecto scieLO, são paulo, Brasil, marzo 4-6, 1998. 9. http://www.garfield.library.upenn.edu/ 10. amin M, Mabe M. impact factors: use and abuse. perspectives in publishing (elsevier) 2000, 1: 1-6. 11. Benavent ra, Valderrama Zurián Jc, González de Dios J, de Granda Orive Ji, Miguel- Dasit a. el factor de impacto: Un polémico indicador de calidad científica. rev esp econ salud 2004; 3: 5. 12. Jones aH, McLellan F (eds.). ethical issues in Biomedical publication. the Johns Hop- kins University press; Baltimore, Maryland, Usa, 2000. [ 51 ] CAPÍTULO 5 ¿Qué es y como se elabora una monografía científica? Daniel José Piñeiro “Quidquid discis, tibi discos” (aquello que aprendes, lo aprendes para ti) Gaius o titus petronius arbiter, satyricon 46.8 (c. 27 d.c. - 66 d.c.) “se puede hacer una tesis digna, aún hallándose en una situación difícil, causada por discriminaciones recientes o remotas. se puede aprovechar la ocasión de la tesis (.) para recuperar el sentido positivo y progresivo del estudio, no entendido como una cosecha de nociones, sino como una elaboración crítica de una experiencia, como adquisición de una capacidad –buena para la vida futura– para localizar los problemas, para afrontarlos con método, para exponerlos siguiendo ciertas técnicas de comunicación” Humberto eco. Cómo se hace una tesis. Técnicas y procedimientos de estudio, investigación y escritura. Gedisa, Barcelona, 2001. La elaboración de una monografía científica es una técnica pedagógica dentro del proceso de aprendizaje en el área cognoscitiva, que tiene por objeto estimular el pensamiento crítico. este trabajo intelectual requiere el empleo de un sistema científicamente organizado (método), de desarrollo progresivo, que permite al alumno profundizar un tema y ejercitar una técnica, que ofrece un resultado concreto (el informe) y que facilita una evaluación objetiva. definición Una monografía (mono: uno; grapho: escribir) es un trabajo científico escrito, producto de la investigación bibliográfica, que estudia en forma exhaustiva un tema (problema) cla- ramente delimitado, que lo desarrolla en forma lógica, y cuyo objetivo final es transmitir el resultado de la citada investigación. el informe constituye un documento, resultado de esa investigación exploratoria, seria y amplia, que emplea como fuente la bibliografía y como método la búsqueda y el análisis bibliográfico. etapas para la realización de una monografía científica elección del tema planificación [ 52 ] Búsqueda bibliográfica técnica de la búsqueda evaluación, análisis, interpretación y síntesis de la bibliografía Nueva búsqueda bibliográfica redacción del informe 1. Elección del tema para la elección del tema es aconsejable que éste responda a las preguntas que se efectúan a continuación, con el fin de que quede indicado: ¿el tema es un problema científico? ¿para qué realizar el trabajo? porqué elegir ese tema y no otro? ¿Qué se espera obtener? ¿el tema es de interés práctico o teórico para el autor y para la comunidad cardiológica? (criterio de interés) ¿se puede acceder a la información para la realización de la monografía? (criterio de viabilidad). 2. Planificación ¿cuánto tiempo se empleará aproximadamente para ejecutar cada uno de los pasos de la ejecución de la monografía? ¿De qué bibliografía provisoria se dispone? ¿cuáles serán los subtemas o epígrafes en que se va a dividir la monografía? planifique su trabajo con tiempo, sólo esto le permitirá hacer una lectura crítica de la bibliografía y presentar un informe que muestre su capacidad de análisis. sea flexible en la asignación de los plazos para cumplir las diferentes etapas. considere la posibilidad de demoras o imprevistos. se sugiere dividir el tiempo de la siguiente manera: búsqueda bibliográfica 20%, análisis bibliográfico 40%, elaboración del informe 30%, ajustes 10%. 3. Búsqueda bibliográfica proceso durante el cual se busca una respuesta al problema (tema) en trabajos científicos publicados en relación con el mismo, accesibles al investigador. se consideran dos tipos de trabajo científicos: tipo i, de verificación indirecta (libros, manuales, normas, publicaciones periódicas de revisión, revisiones, monografías). tipo ii, artículos originales. 4. Técnica de la búsqueda en caso de revistas científicas: Listar todos lo autores, pero si el número excede los seis (6) escribir los seis seguidos de et al. (sin comillas). apellido de los autores seguidos por las iniciales de sus nombres sin ne- cesidad de poner puntos. Los autores separados por coma, y punto después del último autor. Nombre del trabajo científico y punto. revista abreviada de acuerdo al index Médico inter- [ 53 ] nacional, y seguido el año, punto y coma, volumen, dos puntos, y número de página inicial y final separados por un guión. ejemplo: Esper RJ, Nordaby RA, Vilarino JO, Paragano A, Cacharron JL, Machado RA. Endo- thelial dysfunction: a comprehensive appraisal. Cardiovasc Diabetol. 2006; 5:4-23. en caso de libro, manual, norma o monografía: Listar todos los autores, pero si el número excede los seis (6) escribir los seis seguidos de “et al.” (sin comillas). apellido del o los autores seguidos por las iniciales de sus nombres sin poner puntos. Los autores separados por coma, y punto después del último autor. título del capítulo del libro y punto. La preposición inglésa “in” y dos puntos, nombre del editor/es segui- do por las iniciales del/los nombres, entre paréntesis (ed o eds, según corresponda), punto. título del libro y punto. ciudad de publicación y coma, editorial y coma, año de edición y coma, número de edición si corresponde (ej: 5ta ed) y dos puntos, página inicial y final del capítulo separados por guiones. ejemplo: Esper RJ, Vilariño JO. La disfunción endotelial. In: Esper RJ (Ed). Aterotrombosis en el tercer milenio. Barcelona, Prous Science 2004: 49-83 se accede a la información en forma directa o indirecta, mediante la solicitud de copias, separatas u otros métodos electrónicos (modem). se clasifica provisionalmente el material bibliográfico consignado el tema, subtema al que corresponda de acuerdo a la organización de la monografía proyectada en la planificación. consulte con un bibliotecario, quien es un profesional especialmente dedicado al manejo de la información bibliográfica. considere que la información generalmente está en una base de datos. recuerde que la cita que no se encuentra en una biblioteca puede encontrarse en otra. su bibliotecario puede indicarle en que biblioteca encontrar cada revista. Durante la búsqueda, no distraiga su atención con artículos que pueden ser de su interés pero que no se relacionan con el tema de la monografía. tenga presente que los artículos originales tienen un valor científico mayor que los trabajos de verificación indirecta. Dado que son escasas las publicaciones nacionales que están citadas en el index Médico o en las bases de datos comu- nes, consulte la bibliografía nacional, en particular la revista argentina de cardiología (rev argent cardiol). 5. Evaluación, análisis, interpretación y síntesis de la bibliografía se lee el material de corrido y luego, en forma detenida, analizando y subrayando las ideas principales y las secundarias, para lo que se aconseja usar colores distintos. se deben dividir los artículos con que se cuenta según la importancia que tienen para la redacción de cada capítulo de la monografía. se evalúan los aspectos formales y metodológi- cos del trabajo. se registra la información pertinente a la monografía en una ficha, mediante un resumen. se ordena en forma definitiva el material bibliográfico, consignando tema y subtema al que corresponda, de acuerdo a la organización de la monografía proyectada en la planificación. [ 54 ] se analizan, evalúan e interpretanlas coincidencias y discordancias del material analiza- do, formulan opiniones propias, nuevas hipótesis y desarrollos futuros posibles y deseables. esta etapa de la realización de la monografía es la más trascendente y creativa. Quizás usted perciba que sus conocimientos sobre metodología de la investigación no son suficientes para encarar con éxito la tarea, probablemente sea el momento adecuado para estudiar alguno de los textos, para consultar a los tutores de la monografía o para realizar algunos de los cursos dedicados a esta disciplina. 6. Nueva búsqueda bibliográfica La realización de una segunda búsqueda bibliográfica, luego de haber analizado toda la información obtenida al comienzo del trabajo, permite un conocimiento más profundo y una actualización del tema elegido, teniendo en cuenta que para este momento ha pasado la mayor parte del tiempo de la elaboración de la monografía. 7. Redacción del informe se redacta el informe como un documento científico, teniendo en cuenta el contenido y la forma (presentación, ortografía, semántica, y sintaxis). Las partes del informe son: portada introducción Material y métodos resultados (en uno o más capítulos) Discusión conclusiones Bibliografía tablas, figuras agradecimiento cada una de las partes comienza en hoja aparte. Las páginas se numeran en forma corre- lativa en el ángulo superior o inferior derecho. el trabajo se presenta redactado con espacio simple, aunque puede hacerse a doble es- pacio o 1½ espacios, según el deseo del redactor, con letras número 10-12, en papel blanco, tamaño carta; 219 x 279 mm, u 8 1/2”x11”, con márgenes de por lo menos 30 mm en los márgenes superior e izquierdo, y 20 mm en el inferior y derecho, empleando una sola cara del papel. La portada consta de un encabezamiento con título, autor/es, títulos científicos de los autores, centro/s en donde se realizó la monografía o donde se desempeña/n el/los autores, la universidad que avala el curso, dirección postal, incluidos teléfonos y e-mail (si lo tuviere), año de realización. La introducción consiste en el planteo del tema elegido, los fundamentos para su elec- ción, objetivos, interés y viabilidad del mismo, consideraciones sobre trabajos anteriores y plan de la monografía. en el material y método se consigna la técnica de la búsqueda y el análisis bibliográfico. [ 55 ] en particular, se describe la delimitación del campo y el periodo investigado, los métodos de registro, el acceso a la información, el análisis, evaluación, interpretación y síntesis de la bibliografía y los problemas y limitaciones en la búsqueda y el análisis. en resultados se describen los datos obtenidos en la búsqueda bibliográfica, desde la reseña histórica hasta los artículos más actualizados. en la discusión se analizan, evalúan e interpretan las coincidencias y discrepancias en- contradas en el material investigado. se formulan opiniones propias, nuevas hipótesis y desa- rrollos futuros posibles y deseables. en las conclusiones se expone, en forma sintética, la respuesta actual más completa y las perspectivas a los problemas planteados en la introducción. La bibliografía se presenta numerando las citas en forma correlativa, siguiendo el orden en que son mencionadas por primera vez en el texto. Las citas se identifican en el texto, ta- blas y pies con números arábigos entre paréntesis, o bien letras de superíndice más pequeñas al finalizar la oración, después de un punto. cuando son dos o más las citas se separan por comas. si son números correlativos se indican el primero y el último separados por un guión. Las citas se expresan siguiendo los criterios expuestos en el ítem 4. Las tablas y figuras se presentan insertadas en el texto, con título y notas al pie. Las tablas se identifican en el texto con números romanos precedidos por la palabra tabla, y las figuras con números arábigos precedidos por la expresión Fig. entre paréntesis, al finalizar la oración, después del punto. Las tablas y figuras se numeran en forma independiente y co- rrelativa, siguiendo el orden en que son mencionados por primera vez en el texto. cuando se emplea una abreviatura en una tabla o figura, ésta debe explicitarse con el término o expre- sión completos en la nota al pie, salvo que se trate de abreviaturas aceptadas universalmente como una unidad de medida común del sistema internacional de Unidades. al final de la monografía se puede agregar una parte de agradecimientos (si corres- pondiere) por la colaboración institucional, ayuda técnica, colaboración intelectual o apoyo financiero o material si hubiera existido. emplee un lenguaje claro, sencillo, conciso, exacto y preciso. Utilice, en general, la terce- ra persona singular o plural del presente del indicativo. cuando emplee por primera vez una abreviatura, ésta debe ir precedida del término o expresión completos, salvo que se trate de una unidad de medida común. exprese las unidades de medida de acuerdo al sistema interna- cional de Unidades (si). (en francés: http://www.bipm.fr/fr/si/; en español: http://edison.upc. edu/units/sicas.html; en inglés: http://physics.nist.gov/cuu/Units/) “Una vez concluida la redacción de la monografía, entréguela a un lego para ver si la entiende. si la entiende, está bien redactada. entonces, vuelva a escribirla empleando la mitad de las palabras”. recuerde que la presentación de la monografía es la culminación de una ardua tarea y de- be ser digna del esfuerzo que usted realizó durante el proceso del elaboración de la misma. [ 56 ] Referencias ¿Qué es una monografía? 1. http://www.sagg.org.ar/docs/monografia.doc. (consulta: 23 de junio de 2007) arambur2. u eJ. Guía para la confección de la monografía. http://www.geocities.com/en- riquearamburu/ete/guia.html (consulta: 23 de junio de 2007) cassany D. La cocina de la escritura, Barcelona, anagrama, 1995. 3. cichanowski e. pautas para la monografía. 4. http://www.mailxmail.com/curso/vida/pau- tasmonografia. (consulta: 23 de junio de 2007) cómo realizar una monografía. http://www.exactas.unlpam.edu.ar/academica/carreras/5. enfermeria/documentacion/comorealizarunaMONOGraF%cDaii.pDF. (consulta: 23 de junio de 2007) Diccionario de la Lengua española de la real academia española 22.ª edición. 6. http:// www.rae.es (consulta: 23 de junio de 2007) eco U. cómo se hace una tesis. técnicas y procedimientos de estudio, investigación y 7. escritura, Barcelona, Gedisa, 2001. entrez pubMed. 8. http://www.ncbi.nlm.nih.gov/sites/entrez?db=pubmed. (consulta: 23 de junio de 2007). Harvey G. cómo se citan las fuentes. Madrid, Nuer, 2001.9. http://en.wikipedia.org/wiki/Monograp10. h. (consulta: 23 de junio de 2007) international committee of Medical Journal editors Uniform requirements for Manus-11. cripts submitted to Biomedical Journals: sample references. http://www.nlm.nih.gov/ bsd/uniform_requirements.html. (consulta: 23 de junio de 2007). international committee of Medical Journal editors. Uniform requirements for Manus-12. cripts submitted to Biomedical Journals: Writing and editing for Biomedical publication (Updated February 2006). http://www.icmje.org/. (consulta: 23 de junio de 2007) La Monografía. 13. http://www.bibliotecasvirtuales.com/biblioteca/articulos/monografia. asp .(consulta: 23 de junio de 2007) Le système international d’unités (si). 14. http://www.bipm.fr/fr/si/. (consulta: 23 de junio de 2007) Nubiola J el taller de la filosofía. Una introducción a la escritura filosófica. pamplona, 15. eunsa, 1999. piñeiro D. ¿Qué es y cómo se elabora una monografía científica? sac informa. Diciem-16. bre 1994 - enero 1995:18-20. requisitos de Uniformidad para Manuscritos presentados a revistas Biomédicas. (estilo 17. Vancouver). http://www.um.es/eglobal/normas/vancouver.pdf (consulta: 23 de junio de 2007). roldán aF. cómo hacer una monografía. 18. http://www.fiet.com.ar/articulo/monografia_ roldan.doc (consulta: 23 de junio de 2007) sistema internacional de unidades. Versión en castellano para españa.19. http://edison.upc. edu/units/sicas.html. (consulta: 23 de junio de 2007) the Nist reference on contstants, Units, and Uncertainty. 20. http://physics.nist.gov/cuu/ Units/. (consulta: 23 de junio de 2007) [ 57 ] torregrosa M. cómo se hace una tesis doctoral. 21. http://www.unav.es/gep/Metodologia/ tesisDoctoral.html. (consulta: 23 de junio de 2007) torregrosa M. Metodología de la investigación. http://www.unav.es/gep/Metodologia/22. paginaprincipal.html. (consulta: 23 de junio de 2007) Uniform requirements for manuscripts submitted to biomedical journals. international 23. committee of Medical Journal editors. N engl J Med. 1997 Jan 23;336(4):309-15. Vanni MJ. ¿Qué es una 24. monografía? http://www.monografias.com/trabajos7/mono/mo- no.shtml (consulta: 23 de junio de 2007). [ 58 ] CAPÍTULO 6 ¿Qué es un trabajo de Tesis de Doctorado? Roberto Ernesto Pedro Sica introducción escribir un capítulo en el que pretendo decir qué es un trabajo de tesis de doctorado, cómo se lo enfoca y cómo se lo lleva adelante no es una tarea sencilla para alguien que está familiari- zado con solo una muy pequeña parte del conocimiento, como es mi caso. es ello una limitante de importancia, puesto que una tesis de doctorado puede versar sobre cualquier aspecto del saber. Las diversas formas del conocimiento hacen que existan particularidades para cada una de ellas que condicionan, al menos parcialmente, la modalidad que adoptará el trabajo. sin duda, una tesis que versara sobre un momento dado de la historia argentina, por ejemplo el estudio de las razones que hicieron que san Martín regresase al río de la plata, diferirá en su elaboración de otra que trate, digamos, el efecto del rNa de interferencia sobre el rNa mensa- jero que induce la elaboración de la proteína huntingtina. La primera será una labor de investi- gación retrospectiva que se basará en el análisis de los documentos que puedan existir en relación a aquel episodio, en tanto que la segunda se constituirá en un estudio prospectivo que empleará una técnica establecida y que necesitará del análisis matemático-estadístico para la valoración de sus resultados. igual podría decirse de otros temas, como, por ejemplo, las causas ambientales que llevaron a la aparición de la música barroca o cuál será la variación de la órbita de la tierra dentro de diez mil años, predicción que, tal vez, pueda hacerse sabiendo del comportamiento de ese fenómeno hasta donde hoy se lo conoce; para resolver lo dicho con respecto a la música barroca será necesario estudiar las costumbres, hábitos y cultura en general de la población europea, en particular la italiana, del siglo XVii sin olvidar la extravagancia de otras muestras artísticas que pudieron influir también y cuyas primeras manifestaciones aparecieron en Bizan- cio. para lo segundo, será imprescindible la confección de un cálculo matemático complejo lo suficientemente convincente y abarcativo de todas las variables geofísicas, enmarcadas dentro del sistema planetario en el que se inserta la tierra y en el que también se ponderen eventuales fenómenos “accidentales”, tal como el impacto de un gran meteorito sobre su superficie. De todas maneras, y aceptando las limitaciones que acabo de comentar, trataré de escri- bir las siguientes páginas de forma que puedan ser aplicables a la elaboración de diferentes tipos de tesis de doctorado, aunque, indudablemente, los párrafos que siguen estarán teñidos de mi impresión personal que, necesariamente, está condicionada por mi formación en el área restringida del conocimiento que poseo. [ 59 ] Luego de entender cuál es la debilidad de lo que diré a continuación, el lector estará en libertad para decidir continuar o no con la lectura de este capítulo. si no lo hiciere, estaría justificado. ahora bien, si está decidido a seguir adelante iniciemos, pues, la labor. definición de tesis de doctorado Una tesis de doctorado es un trabajo artístico, humanístico o científico que introduce conocimiento nuevo o modifica sustancialmente el existente en un área determinada de la cultura, entendiendo por cultura al conjunto del saber, cualquiera sea su índole. puede argumentarse que la definición dada arriba es aplicable a todo trabajo que sume una novedad. es cierto, cualquier investigación que parta de una hipótesis y la demuestre cierta es una tesis. sin embargo, en el ámbito universitario se considera tal al escrito que, de manera pormenorizada y, habitualmente, extensa, conceptualiza un nuevo elemento del saber. La aceptación de esto último permite que su autor exponga en un único manuscrito una idea que fue, o es, la directriz de su pensamiento y que pudo, o puede, a lo largo del tiempo que llevó, o lleva, su investigación haber producido un número de trabajos que, si bien se rela- cionan entre si a partir de la idea central, mantienen su independencia en tanto que analizan distintos aspectos del mismo problema. ¿cuál es la razón o cuáles las razones que hacen que un graduado decida elaborar un proyecto de tesis de doctorado? La decisión de llevar adelante un proyecto de tesis de doctorado aparece en cualquier graduado cuando convergen una serie de razones y circunstancias que naturalmente llevan a adoptar esa actitud. Las razones son de índole variada, la que posiblemente tenga mayor valor es la con- vicción del futuro doctorando de haber adquirido conocimiento profundo en relación a un aspecto determinado del saber y la suficiente madurez intelectual que le permite suponer que está en condiciones de incrementar ese conocimiento dentro del área de interés mediante el desarrollo de una idea, diferente a todas las anteriores. esa idea puede, si su desarrollo resulta exitoso, tener dos efectos, uno de ellos es simple- mente agregar nuevas nociones a las ya establecidas y la segunda modificar las concepciones existentes, reorientando la investigación. ambas actitudes son totalmente aceptables y, según mi parecer, simétricas en cuanto a su importancia. La primera incrementa el saber en un aspecto determinado, en tanto que la segunda cam- bia el concepto existente hasta entonces; en los dos casos se produce una modificación de la realidad objetiva que pasa a ser parte del patrimonio cultural de la especie. La adquisición de una idea novedosa en un campo determinado no es casual habitualmen- te, aunque sí es cierto que una circunstancia fortuita puede hacerla evidente en un momento [ 60 ] dado; sin embargo quien advierte la novedad debe poseer un caudal suficiente de conocimientos que le posibiliten verla como tal. esto es así puesto que no es posible reconocer como diferente e inédito a un fenómeno determinado si no se conoce todo lo previamente hecho en relación a él y si no se concluye que el nuevo concepto resulta el corolario actual de ese conocimiento. La nueva idea puede aparecer como fruto de la meditación y ser la consecuencia lógica del razonamiento impuesto al fenómeno en estudio, es esta una actitud deductiva que fluye armoniosamente en la mente del investigador y lo conduce a la obtención de una nueva ver- dad que puede o no estar en acuerdo con lo sabido previamente. Otra posibilidad es que el azar enfrente al investigador con una conducta insospechada del fenómeno en estudio. en estas circunstancias, a igual que en la anterior, quien descubre esa actitud del fenómeno necesariamente debe saber todo lo concerniente a él, puesto que de otra manera no podría reconocer lo inadecuado de aquella conducta. esa observación induce al investigador hacia la obtención de una respuesta lógica a aquello que no lo parece y puede, sí, transformarse en la clave que le permita obtener una noción diferente. es esta una actitud inductiva que obliga al observador a modificar todas o parte de sus concepciones previas en relación al fenómeno en cuestión en aras de hallar la explicación que corresponde a la mo- dificación inesperada de la conducta de ese fenómeno, conducta que le esta señalando una realidadpreviamente no sospechada pero, indudablemente, existente. La segunda razón para llevar adelante un proyecto de tesis de doctorado es, habitualmen- te, la necesidad de crecimiento académico. en la obtención de posiciones, dentro del ámbito universitario, el título de Doctor adquiere trascendencia puesto que es el de mayor jerarquía que otorga la Universidad. cuando se concibe a la Universidad como a la institución que alberga el conocimiento y que es fuente de conocimiento, la adjudicación del título de Doctor de la Universidad señala que ella reconoce en esa persona a alguien que posee la mayor información en una parcela dada de ese conocimiento y que ha sido capaz de ampliarlo o modificarlo. en última instancia reconoce en el Doctor a un exponente mayor de la cultura, en tanto se entienda por cultura el atesoramiento del saber. por ello la Universidad supone que quien es Doctor está en las mejores condiciones para transmitir conocimiento a las generaciones que le siguen y cumplir, de esa manera, con una de las condiciones básicas de la especie y que es la transferencia generacional del saber. por esas razones es que quien completa el Doctorado posee más posibilidades para acce- der a cargos docentes jerarquizados y a posiciones de conducción académica. ¿Qué es una tesis de doctorado? Una tesis de doctorado es la labor que significa la demostración de un hecho no conocido hasta entonces, e implica la concepción previa de una hipótesis. por ello resultan inseparables los conceptos de hipótesis y tesis en la concreción de esta última. [ 61 ] La primera es una elucubración teórica acerca de la factibilidad de la producción de un fenómeno dado que deberá surgir como consecuencia de una acción determinada y que está en línea con todo el conocimiento previo de ese fenómeno. en última instancia este tipo de razonamiento responde a la lógica aristotélica y debe estar guiado por los mismos principios que rigen la elaboración de un silogismo; es, por tanto, un acto esencialmente deductivo. su valor es mayor, puesto que condicionará todo el trabajo ulterior. De allí que la hipótesis debe ser cuidadosamente pensada, discutida y contrastada con el conocimiento existente hasta en- tonces en la porción del saber que se posee en el área de la investigación que se quiere ampliar o modificar. La tesis es el intento de demostración de la hipótesis. ello implica una labor extensa que, en ocasiones, ocupa lapsos prolongados. es esencial que la metodología elegida para llevar adelante el trabajo se adecue estrictamente al concepto de la hipótesis, tanto en lo referente al diseño experimental como en lo que respecta al tipo de tratamiento matemático que será dado a los resultados. La introducción de desviaciones en uno u otro aspecto puede conducir a errores insalvables capaces de torcer la investigación, llevando a conclusiones no verdaderas. ¿cómo se construye un proyecto de tesis de doctorado? el proyecto requiere varios capítulos, aunque la totalidad del escrito no debe ser extre- madamente extensa. el capítulo inicial es introductorio; en él el doctorando deberá exponer sintéticamente el conocimiento existente hasta ese momento acerca del fenómeno que pretende estudiar; también podrá dar los lineamientos generales de su pensamiento personal en relación con aquel fenómeno. Documentará este aparte con la bibliografía que considere como la más representativa en cuestión. el segundo capítulo es la enunciación de la hipótesis. es este, tal vez, el aparte más esen- cial del proyecto. La hipótesis debe ser cuidadosamente meditada y ajustada a los postulados señalados antes. el tercer capítulo es la descripción del material y del o de los métodos que empleará du- rante el desarrollo de su trabajo. Finalmente, construirá la lista de las referencias bibliográficas que haya citado en el texto. ¿cuánto debe ser el tiempo de graduado para que quien esté interesado presente el proyecto de tesis? el tema del proyecto de tesis de doctorado no aparece de manera casual, sino que es el re- sultado de la maduración de una concepción particular e individual que le permite a alguien explicar un fenómeno dado. Logrado este propósito, quien interpreta podrá suponer que el [ 62 ] conocimiento de ese fenómeno es incompleto o no resulta del todo claro, o que la concepción corriente que de él se tiene es errada. en cualquiera de estas tres situaciones es aceptable y lícito que pretenda ya sea incrementar su conocimiento, ponerlo mas en claro o re-orientar su concepción; si esto es así le surgirá una idea nueva que supondrá que llevando adelante una determinada acción el conocimiento del fenómeno adquirirá características distintas a las que tiene en ese momento; esta actitud lo conducirá a la elaboración de una hipótesis de trabajo que se transformará en la base de su futura tesis. ahora bien, para que ello suceda, el futuro doctorando deberá haber obtenido una larga experiencia en el área que le preocupa, adquisición que, habitualmente, demanda varios años de labor en el tema, años que conducen a que el fenómeno de interés se transforme en una de sus vivencias. por ello no es posible suponer que un proyecto de tesis de doctorado sea presen- tado por alguien recientemente graduado. el tiempo medio que transcurre usualmente entre la graduación y la presentación del proyecto de tesis es de unos diez años. ello implica, también, una edad determinada del doctorando que, idealmente, debería estar entre los 35 y los 45 años, época de la vida en la que la maduración, en todos sus aspec- tos, se ha completado y en la que la pujanza y persecución de un objetivo dado tienen la mayor fuerza. sin embargo, pueden existir excepciones a lo comentado en los párrafos precedentes. puede suceder que quien se transformará en doctorando sea parte de un equipo de investigación al que se haya integrado poco tiempo atrás y en el que cumpla, por ejemplo, el papel de becario, trabajando sobre un tema que ha sido elegido por otros, habitualmente por su Director de Beca o por el Jefe de la estructura en la que se desempeña, y que ese tema se transforme en el su tesis de doctorado. también puede suceder que alguien, con muchos más de 10 años de graduado se vea en la necesidad de doctorarse para poder seguir adelante en su carrera, en este caso es probable que seleccione un tema en el que ya haya trabajado y del que ya tenga resultados para construir su tesis; esta última opción transformará a la tesis en un trabajo retrospectivo y no prospectivo como resultan todas las otras opciones. Ninguna de las dos posibilidades que suponen los dos párrafos anteriores son las mejo- res, la primera porque la elección del tema puede no tener mayor relación con la vocación del tesista y la segunda porque surge de la necesidad y no de la convicción de que la tesis significa una jerarquización académica que voluntariamente se quiere alcanzar. información bibliográfica Quien haya encontrado el tema que le servirá para la confección de su tesis de doctorado, luego de haber sorteado la etapa de elaboración de la hipótesis, no deberá suponer que la información que posee de él es la totalidad de la existente. La actitud mas razonable del futuro doctorando es creer que su conocimiento es parcial y que pudo haber habido otro autor que, en circunstancias iguales a las suyas, haya podido desarrollar ideas similares a las que él ahora tiene. esta última posibilidad, y la necesidad de conocer todo lo sabido con respecto a la materia [ 63 ] que tratará, obligarán al investigador a una exhaustiva y completa búsqueda de la bibliografía referida al tema de interés y a su lectura. esa tarea no solo enriquecerá aun más su conocimien- to, sino que también le posibilitará una mejor apreciación y comprensión de lo que pretende hacer. Décadas atrás la labor referida arriba era gigantesca y, en oportunidades, abrumadora, puesto que el futuro doctorando debía visitar un sinnúmero de bibliotecasen las que le fuera posible encontrar las revistas requeridas. afortunadamente hoy ese trabajo está francamente facilitado por la existencia de muy extensas bases bibliográficas a las que el estudiante puede acceder electrónicamente, mediante el uso de una computadora, desde su domicilio o desde el laboratorio, hospital o cualquier otro tipo de institución en la que trabaje. esta modalidad de adquisición de información permite obtener, al menos, el resumen del trabajo que se busca; en ocasiones es posible lograr la versión completa de él gratuitamente cuando la revista en el que se ha publicado lo permite, en otras el requerimiento es el pago de la copia, un valor que habitualmente es bastante oneroso. Después de finalizada la investigación bibliográfica es conveniente que el estudiante se- leccione las citas que conciertan el mayor interés para su propósito y reconozca aquellas otras de bajo o nulo valor. Habitualmente esta tarea necesita del asesoramiento de alguien con ma- yor experiencia; la intervención, en este sentido, de quien dirigirá su investigación puede ser de importante ayuda, puesto que contribuirá a darle un sentido lógico secuencial a su lectura y simultáneamente, ahorrará tiempo y dinero. para mejor recordar es aconsejable que el estudiante elabore un sistema de fichas en las que volcará el contenido de cada uno de los trabajos consultados, de manera resumida, y el valor que le adjudica en relación a su propósito; esto último puede hacerlo empleando tarjetas de colores diferentes, según la importancia del escrito examinado, o dándoles un número que identifique su importancia. Un esquema de ficha posible es el que se sugiere a continuación. Calificación del trabajo (color de tarjeta o valoración numérica) Título del trabajo: Autores: Revista, año de publicación, volumen, número de página inicial-número de página final: Resumen (en el que se destaquen el método empleado y los hallazgos básicos de ma- yor importancia): posee relevancia, también, la búsqueda de revisiones que hubieran sido escritas en co- nexión con el tema. De igual forma tiene valor la consulta de libros relacionados. en ambos casos su lectura puede dar una concepción mas holística del problema y ayudar al estudiante a conceptualizar mas adecuadamente sus ideas. también para esto es conveniente que elabore fichas; en el caso de las revisiones puede servirle la desarrollada arriba agregando solo la palabra “revisión” entre paréntesis luego de “Título del trabajo”. en el caso de que se tratare de un libro el tipo de ficha deberá cambiar adoptando un modelo que puede ser así: [ 64 ] Titulo del libro: Título del capítulo de interés: Autor(es) del capítulo: Editor(es) del libro: Año de edición: Ciudad(es) en la(s) que fue editado: Editorial: Número de página inicial-número de página final: Resumen (en el que consten los conceptos de mayor valor en relación al tema de in- terés): idiomas en muchos casos la literatura relacionada con el tema en cuestión está escrita en un idioma que no es el materno del estudiante. Hoy, el idioma de las ciencias es el inglés, así como lo fue el Latín, centurias atrás, para prácticamente todo el conocimiento. Mas aún, el inglés es el idioma de intercambio epistolar entre quienes desarrollan una misma actividad y hablan lenguas dife- rentes, y lo mismo sucede en todas las reuniones internacionales de cualquier índole en las que las presentaciones orales o escritas, a igual que su discusión, se hacen en esa lengua. por ello es imprescindible que el doctorando tenga un adecuado manejo del inglés de forma que le permita acceder a toda la literatura escrita en ese idioma. si bien lo ideal sería que lo hablase y leyese fluidamente, para la finalidad de su trabajo de tesis es, habitualmente, suficiente poseer capacidad para su lectura. No resultaría así si el estudiante decidiera visitar laboratorios extranjeros, ubicados en cualquier país en el que su idioma materno no se hable, puesto que lo usual es que la comunicación entre los integrantes de esos laboratorios y sus visitantes se haga en inglés. es cierto que existen trabajos de valor escritos en otros idiomas; entre ellos el castellano, el alemán, el Japonés, el portugués y el Francés. sin embargo, todos ellos, casi sin excepción, poseen un resumen en inglés que le permitirá al doctorando entender su importancia. si ese valor fuese mayúsculo para la mejor concreción de la labor en la que está empeñado, no le quedará otro camino que pedir su traducción a alguien que sepa hacerlo. Otras fuentes de información si bien es cierto que lo dicho en el apartado dedicado a la bibliografía tiene el mayor peso en cuanto a la adquisición de información, ello no excluye otras fuentes que puedan servir al mismo objetivo. ellas son varias. es útil que el doctorando concurra a reuniones científicas, o relacionadas con la índole de su labor, en las que se discuta el tema de su interés u otros que pudieran estar conectados con él. en esos encuentros el estudiante podrá escuchar las opiniones de otros investigadores [ 65 ] con, tal vez, mas experiencia que la de él; podrá hacer preguntas a esos investigadores, cuyas respuestas pueden volver mas claras sus ideas; tendrá, en oportunidades, ocasión de observar prácticas de laboratorio, clínicas, semiológicas u otras cuyo aprendizaje puede serle de ayuda, y tendrá la posibilidad, hablando con otros, de conocer las dificultades e inconvenientes que pueda tener la puesta en marcha y desarrollo de un método o de una técnica dada. en relación a lo dicho al final del párrafo anterior es, sin duda, de la mayor utilidad que el doctorando concurra a otros lugares en los que se trabaje en conexión con su tema de interés. estadías cortas, de entre uno y tres meses, en esos otros centros seguramente ampliarán la vi- vencia que tenga de su proyecto y, posiblemente, lo instruirán acerca de los detalles prácticos del manejo del método, o de los métodos, que él mismo debe, o deberá, emplear. es, también, valioso que acepte dar conferencias, participar en ateneos o llevar a delante seminarios en los que hable del tema que lo ocupa. ello contribuirá a que mantenga actuali- zada su bibliografía. puede suceder, también, que al preparar una disertación o participar en una discusión aparezcan nuevas ideas hasta entonces no previstas. importancia de la redacción La redacción del trabajo de tesis de doctorado debe ser hecha en el mejor idioma posible. para el caso nuestro, el castellano que se emplee debe ser absolutamente correcto. el doctorando cuidará que los tiempos de verbo sean los adecuados al párrafo que está escribiendo. también debe ser precisa la puntuación. es conveniente utilizar párrafos cortos. es importante el uso de sinónimos que eviten la repetición de sustantivos y verbos, ello hace que la lectura sea más amena. No debe ser redundante en sus dichos y no debe insistir en una noción determinada más allá de lo necesario. puede emplear abreviaturas. cuando lo haga por primera vez, y ellas no sean de uso co- tidiano, es menester que las preceda por las palabras completas que esa sigla supone; en esta primera introducción la abreviatura irá entre paréntesis, por ejemplo Organización Mundial de la salud (OMs), luego, en lo que sigue del texto, podrá usarla sin enmarcarla por parén- tesis. en mi criterio resulta práctico que el doctorando exhiba en una página, que esté situada al comienzo del escrito principal, todas las abreviaturas que empleará en el texto junto a su significado. por supuesto que esto no es necesario para aquellas de uso universal como, por ejemplo, las relacionadas con el sistema métrico decimal. es conveniente insistir en la redacción correcta del manuscrito, puesto que cuando no es así se hace incomprensible, laboriosa, tediosa y frustrante su lectura. si bien la tesis de doctorado, en el caso de las ciencias, es un trabajo científico, su desa- rrollo es algo mas suelto, por decirlode alguna manera, que el que corresponde a un escrito enviado a una revista. es conveniente que la construcción de la tesis de doctorado tenga algún parecido con una novela, de forma que quien la redacte pueda hacer que el lector [ 66 ] transcurra por ella siguiendo los pasos y el razonamiento que conducen a la conclusión de manera distendida, hacer que el escrito evolucione de un concepto al otro naturalmente, que no encuentre razonamientos forzados, que no resulte imprescindible volver atrás con frecuencia para poder entender el párrafo bajo análisis, que fácilmente pueda acceder a la comprensión de una abreviatura; en síntesis, que su lectura resulte agradable, fluida y placentera. es experiencia corriente hoy para muchos de quienes juzgan los trabajos de tesis de doc- torado que, lamentablemente, existe una buena proporción de tesistas que emplean un pobre español, a pesar de que nuestro idioma es el segundo en riqueza de vocablos después del ale- mán. creo que esto no es anecdótico, sino un defecto grave, sobretodo si se tiene en cuenta que la falta de recursos idiomáticos condiciona la falta o mezquindad de ideas. La razón para que esto ocurra está en el bajo apetito, que tiene gran parte de los jóvenes de hoy dedicados a las ciencias, para la lectura de literatura no técnica. este defecto nace en la escuela primaria, no es atendido adecuadamente en la secundaria, y pierde toda posibilidad de solución en la Universidad o, al menos, en las facultades ligadas a la enseñanza técnico-científica. pro- bablemente lo que sucede es que la imagen esté reemplazando a la palabra, acontecimiento útil cuando se trata de aprender hechos concretos, pero un obstáculo para cuando tratan de relacionarse fenómenos entre si, para lo que es indispensable emplear palabras, emplear la capacidad de abstracción y crear ideas. Otro aspecto que merece ser citado es la abundancia de anglicismos en los textos de las tesis de doctorado científico-técnicas. ello es consecuencia del uso de palabras inglésas en el lenguaje común de la ciencia; esto explica su empleo, pero no lo justifica ya que para cada uno de los vocablos ingléses que se utilicen existe una traducción acorde en castellano. Lo dicho arriba hace aconsejable que quien decida embarcarse en un trabajo de tesis de doctorado posea un lenguaje lo suficientemente rico que le permita expresar sus conceptos con precisión y claridad. para ello deberá tener una formación cultural más extendida que la que provee el mero asunto técnico-científico en el que trabaja. estructura de la tesis de doctorado Luego de haberme referido, en los párrafos anteriores, a los lineamientos generales que debe respetar un trabajo de tesis de doctorado, quiero, ahora, dedicar el resto de este escrito a la descripción de los pasos que debe seguir un proyecto de este tipo. a) Nacimiento de la idea. Observación. Quien decida emprender un proyecto de tesis de doctorado deberá ser alguien con alta capacidad de observación, también de síntesis, y poseer buena imaginación cuya única res- tricción sea la argumentación lógica. sin duda, reparar en el trabajo propio y en el ajeno y valorar los hechos en relación a un fenómeno dado es el primer paso que dará, aun inconscientemente, quien luego se transfor- mará en tesista. [ 67 ] esa observación deberá ser seguida por la síntesis del conocimiento del tema que llevará, a quien sea el interesado, a concluir en que estado se encuentra el saber relacionado con ese fenómeno o acontecimiento en ese momento. Llegado aquí, surgirá la pregunta que inquirirá qué sucedería con el fenómeno o acontecimiento visto si tal o cual circunstancia se modifica- ra. es esta pregunta el embrión de la futura tesis. b) Elección del Director Logrado esto, el futuro tesista buscará a la persona que, con la mayor autoridad posible, pueda orientar su investigación. seleccionará a su Director. esta persona, naturalmente, debe ser un idóneo en el tema pero, además de ello, debe tener vocación por la enseñanza, amplitud de pensamiento, ser receptor de ideas novedosas, apreciar su posibilidad de verosimilitud y alentar decididamente al investigador cuando ello suceda o convencerlo de su error cuando ello ocurra. Fuera de las características anteriores, quien dirija una tesis debe establecer con el doc- torando una relación de familiaridad que permita a este último acercarse a él cada vez que necesite de su consejo y ayuda. el Director debe estar dispuesto a leer críticamente el manuscrito todas las veces que fuere necesario hasta llegar a su redacción final. Debe, igualmente, analizar gráficos, tablas y figuras sometiéndolas, igualmente, a la crítica hasta que resulten convincentes. Finalmente, debe cuidar que la bibliografía citada sea la correcta, que no se hayan sos- layado trabajos que, eventualmente, pudieran contradecir las conclusiones de la tesis, sino que hayan sido discutidos y refutados convenientemente. Debe asegurarse que toda cita que esté en el texto figure en la lista bibliográfica y que en ésta no haya citas que no hubiesen sido incluidas en el texto. c) Formulación de la hipótesis Discutida y aceptada, entre el tesista y el Director, la nueva idea, llega el tiempo de for- mular la hipótesis. en párrafos anteriores he tratado de conceptualizar el término. para decirlo de otra ma- nera, básicamente es entender que es posible introducir una idea diferente que incremente o modifique el conocimiento de un fenómeno dado, de un hecho acaecido o de una construc- ción intelectual cualquiera. es claro, entonces, que la hipótesis es la consecuencia de la meditación. Volviendo a aristóteles, tres razonamientos son posibles; el analógico, que va de lo par- ticular a lo particular; el inductivo, que va de lo particular a lo general y el deductivo, que va de lo general a lo particular. De los tres, el habitualmente empleado en ciencia es el deductivo; es usual que a partir de todo el saber que se posee acerca de un fenómeno dado sea posible obtener una información novedosa, particular, más cercanamente relacionada con el ser y el comportamiento de aquel fenómeno. [ 68 ] sin embargo, el método inductivo es, también, aplicable a la ciencia. No lo es usual- mente en el trabajo cotidiano, aunque existen algunos ejemplos que muestran que ello es factible; Mendeleiev, al elaborar la tabla periódica de los elementos dejó espacios en blanco sugiriendo que allí encontrarían lugar otros no conocidos entonces, es hoy realidad que la tabla se ha completado llenando las expectativas de aquel físico que supuso, o intuyó, la existencia de todos los elementos que componen la Naturaleza. en realidad, si por un momento se atiende a como han surgido las leyes que gobiernan los fenómenos natura- les, necesariamente se arriba a la conclusión de que se lo ha hecho de manera inductiva, analizando fenómenos particulares que posibilitaron la universalización del concepto, es decir que permitieron la generalización de ese conocimiento; véase, por ejemplo, la noción de gravedad, aplicable a la manzana que cayó sobre la cabeza de Newton y, también, al desplazamiento de sistemas estelares dentro de una galaxia. es, en definitiva, el sueño de matemáticos y físicos adquirir, en algún momento, y a partir de los conocimientos parciales obtenidos, una ley general de la Naturaleza que permita explicar todos y cada uno de los fenómenos que en ella se dan; quizás resulte posible algún día; realizable o no, la idea es muy atractiva. Habitualmente la hipótesis es el corolario de una deducción que emplea, como base del razonamiento, al silogismo. aceptando que es este el mecanismo de pensamiento que condu- ce a una determinada conclusión, que es la hipótesis, resulta absolutamente necesario que las premisas sean verdaderas, para evitar construir una falacia. el estudiante enunciará su hipótesis de forma que ella sea comprensible por otros idóneos en el tema y tendrá que dar las razones que lo llevaron a la elaboraciónde la propuesta. d) Presentación de los objetivos sin duda que el objetivo mayor del trabajo de tesis de doctorado es la demostración de la hipótesis. sin embargo, pueden, en el camino, fijarse otros objetivos menores en relación a la mag- nitud del primero. esos otros objetivos, que constituyen pasos necesarios en la consecución del de mayor valor, pueden ser nombrados en este aparte del proyecto y, llegada la ocasión, descriptos con la extensión necesaria en el trabajo final. La enumeración de los objetivos menores o secundarios en el proyecto primero no invalida la posibilidad de que el tesista encuentre otros datos novedosos, capaces de aparecer en el decur- so de su labor, y que con ellos haga igual que con los que hubiere previsto inicialmente. e) Materiales y Métodos es este un capítulo de la tesis de doctorado, tanto en el proyecto inaugural como en el trabajo último, que requiere la mayor atención del estudiante y de su Director. el material debe ser cuidadosamente seleccionado. en los trabajos en los que se utilicen seres vivos, cualquiera sea la especie, el investigador deberá individualizar pormenorizada- mente las características que identifican al animal o al humano que empleará en sus expe- rimentos, deberá describir los controles que utilizará y propondrá el número de sujetos que [ 69 ] integrará cada una de las muestras en las que se dividirá el material. en relación a este último aspecto verá que el total de individuos que forme cada muestra sea tal que permita efectuar un cálculo estadístico cuyos resultados sean convincentes. tanto en el empleo de animales de laboratorio como de humanos, el investigador deberá cuidar que el trato dado a ellos se ajuste a los postulados éticos vigentes, incluyendo el even- tual sacrificio de los animales de laboratorio, si ello fuese pertinente a los fines de la investi- gación. por ello resultará imprescindible que cada proyecto posea el aval del comité de Ética de la institución en la que la labor será llevada a cabo. en el caso en el que se convocaren humanos para la investigación, cualquiera fuere el procedimiento al que se les sometiere, el investigador deberá obtener del interesado o de su responsable mas cercano, cuando el directamente involucrado no estuviere en condiciones de juzgar su participación, el consentimiento expreso, firmado, en el que el sujeto de la expe- riencia, o su responsable, acepta ser parte del estudio. para ello el investigador les informará detalladamente el propósito de la experiencia, las eventuales incomodidades a las que puede enfrentarse y los efectos indeseables que el estudio podría acarrearle. también dejará taxati- vamente dicho que estará dispuesto a interrumpir la investigación y liberar al participante si éste lo solicitare; de igual manera, se comprometerá a no dar a publicidad la identificación de las personas que accedieran al estudio. resulta respetuoso y recomendable que, cuando se tratare de humanos y una vez finali- zada la investigación, el responsable de ella informe a cada uno de los participantes, de ma- nera individual, los resultados y conclusiones obtenidos en el estudio, empleando un léxico que resulte comprensible para el interlocutor. en lo que se refiere a los métodos, tendrán que ser enunciados en el proyecto inicial y exhaustivamente descriptos en el trabajo final; para cada uno de ellos se establecerá su fina- lidad. De esta forma, quien lea y juzgue el manuscrito de la tesis, podrá hacerse una idea cabal de los objetivos que ha perseguido el investigador al usar tal o cual procedimiento técnico. f) Tratamiento de los resultados este aspecto es clave en el desarrollo del trabajo. resulta conveniente que el estudiante conforme una base de datos con sus resultados; idealmente la disposición que se les de a ellos debería permitir el cálculo en cualquier momento del desarrollo y, naturalmente, al concluir la labor. existen hoy, comercialmente, muy diferentes esquemas de base de datos, para distintos propósitos, que posibilitan el cálculo y la graficación de los resultados obtenidos; el tesista debe seleccionar aquella que mejor se acomode a sus requerimientos. también es posible que el estudiante diseñe una base que abarque todas sus necesidades; para ello sus conocimientos de programación y computación deben ser los adecuados. Ordenados de la mejor manera que cupiere a los objetivos del estudio, el tesista elegirá el tipo de tratamiento matemático-estadístico que les dará. es por ello que su versación en estadística debe ser alta. ello le posibilitará seleccionar el cálculo que mejor muestre lo que ha obtenido. [ 70 ] el tipo de tratamiento que se le dará a los resultados puede ser esbozado en la presenta- ción del proyecto inaugural y debe ser ampliamente justificado en el escrito final. No necesa- riamente la sugerencia hecha inicialmente debe coincidir exactamente con el tipo de cálculo que, en definitiva, se usará; es aceptable que el devenir de la investigación modifique la con- cepción previa y sea otro el cálculo necesario que mejor se ajuste a los resultados. Distinta es la actitud cuando el investigador trabaja de manera ciega, sin conocer si está o no modificando las circunstancias con su intervención y cuál es el resultado que eso provoca. sucede esto en trabajos en los que se ensaya, por ejemplo, el efecto de un fármaco sobre una patología determinada, partiendo de la hipótesis que supone que la composición molecular de la droga en ensayo es capaz de interferir alguno de los pasos metabólicos que llevan a la instalación de determinada dolencia. en estas circunstancias, el investigador se reunirá con sus resultados recién al finalizar la totalidad de la experiencia. es más, en este tipo de diseño expe- rimental es conveniente que otra persona, ajena a la investigación, sea quien haga el tratamiento de lo observado. g) Resultados es este el eje y el capítulo mas importante del trabajo. Lo es porque los resultados son tal como se muestran, no pueden modificarse a voluntad, son independientes de las ideas, razonamientos, interpretaciones que de ellos se haga y sensaciones que ellos provoquen en quien los ha logrado. Los resultados son hechos permanentes, son parte de la realidad y parte de la verdad. Las discusiones y conclusiones que induzcan pueden o no ser ciertas; sin embargo, nada de ello los cambia. es la experiencia de todos que una observación dada puede ser vista de una manera en un momento determinado y de otra en alguna oportunidad siguiente. en Neurología, una rama de la Medicina clínica, un ejemplo es el de la enfermedad denominada Miastenia Gravis, en ella la reducción de la amplitud del potencial de acción muscular evocado por el estímulo eléctrico, repetido a alta frecuencia, del nervio dirigido a un músculo determinado, fue tomado como argumento para sostener el origen pre-sináptico de la dolencia, es decir de ubicación en la termi- nal axónica de la fibra nerviosa que alcanza a las células musculares, concepto que se mantuvo hasta los años ’60 y que sostenía que aquella caída de amplitud era debida a disminución o alteración molecular de la acetilcolina, que es el intermediario sináptico en la transmisión neu- romuscular, y que se aloja en el nervio; en esa década se demostró cabalmente que la falla en la transmisión neuromuscular era de origen post-sináptico, localizado en la célula muscular y no en la terminal nerviosa, entendiendo, entonces, que el comportamiento referido del potencial muscular era la consecuencia de la disminución de receptores a la acetilcolina en el músculo; a pesar de estos vaivenes en la interpretación, la conducta del potencial muscular frente al estí- mulo eléctrico repetido a frecuencia elevada permaneció inmutable. por ello los resultados deben exhibirse prolija y detalladamente, de manera objetiva y clara, aceptando que si bien han logrado su existencia gracias al investigador, unas vez aparecidos se independizan de él para pasar aformar parte del conocimiento, parte de la cultura. [ 71 ] No es aceptable que, al describir los resultados, el autor sugiera interpretaciones de ellos, que deberá guardar para la discusión. tampoco es aceptable que condicione al lector diciendo que tal o cual fenómeno muestra una determinada tendencia sin que ello esté basado en va- lores estadísticos que lo sustenten. cuando estas cosas suceden, el lector avezado comprende que el autor, tal vez apasionado, está tratando de ver en sus resultados lo que desea ver y, por tanto, ha perdido la objetividad. es útil recordar, aunque suene superfluo, que quien busca la verdad tiene la obligación de aceptar los hechos tales como son, a pesar de que muchas veces ello contradiga sus expectativas iniciales. La manera mas razonable de exhibir los resultados es empleando tablas, gráficos y figu- ras, poniendo en ellas todos los datos necesarios como para que el lector esté en condiciones de repetir el cálculo si así lo quisiere. Otra ventaja de la mostración de tablas y gráficos es que cuando los números son dados en el texto el lector los olvida rápidamente y su búsqueda, cuando la lectura ha progresado más allá, se hace laboriosa; mucho mas sencillo es recurrir a las tablas nuevamente. De todas formas, el autor debe cuidar que el número de tablas, gráficos y figuras que presente no abrumen al lector. Verá como combinar datos, para que varios de ellos ingresen en la misma tabla o gráfico. Nunca el autor repetirá en el texto valores que ya estén graficados o en tablas, enviará al lector a ellos cuando resultare necesario. Las figuras, cuando existan, serán ejemplos representativos del fenómeno en estudio. en líneas generales, unas pocas figuras bastan para que quien lee se forme una idea adecuada del comportamiento del fenómeno en investigación. el autor reparará en que cada figura tenga un número y un título, que cada gráfico también lo posea y que igual ocurra con las tablas. en el caso de los gráficos y las figuras es usual que exista una leyenda explicativa al pie. si en cualquiera de los tres tipos de demostración existie- ran abreviaturas no aclaradas previamente en el texto, ellas lo serán al pie de la mostración. h) Discusión en este aparte el autor dará su interpretación del comportamiento del fenómeno que ha sido el objeto de su estudio. Hará esto en primer lugar; luego cotejará esa interpretación con otras que pudieran exis- tir en la literatura, destacando la originalidad de la suya. en el análisis de la literatura deberá incluir tanto las ideas que fortifiquen su postura como aquellas otras que puedan debilitarla o que, definitivamente, contradigan su posición; buscará como refutar a estas últimas, dando razones convincentes para que pueda ser aceptado. Finalizado este segmento de la discusión, el autor destacará su posición intelectual frente al hecho analizado y lo hará tratando de enmarcar esa posición dentro del conocimiento corriente que del fenómeno se tuviere en ese momento. en ningún caso volverá a repetir lo que dijo en la introducción al hablar de la literatura re- lacionada. si fuera necesario citar parte de ella, enviará al lector a la página correspondiente. encontrar algo diferente y explicarlo es uno de los atributos privativos de nuestra especie. es de destacar que un nuevo conocimiento se universaliza inmediatamente, hace mayor nues- [ 72 ] tro saber y se transforma en cultura. De esto debe tener conciencia el autor y si su convicción es que su interpretación puede no ser lo suficientemente sólida, debe dejar espacio como para que ingresen visiones diferentes de sus resultados. Dado que la discusión tiene cierta proporción de subjetividad, es del todo aconsejable que el tesista la someta al análisis crítico de su Director antes de introducirla definitiva- mente en el texto. La crítica del Director deberá ser férrea, tratando de poner en claro las eventuales debilidades y contradicciones que pudieran tener los dichos del tesista. No es de mala práctica pedir a otro investigador, fuera del Director, que lea el escrito y obtener de él su impresión. todo ello hará que el autor redacte nuevamente la discusión; la nueva versión deberá seguir los pasos de la precedente y, así, hasta que tanto el autor como el Director estén convencidos de haber obtenido un relato en el que los argumentos hayan logrado la suficiente solidez que les permita ser aceptados por la comunidad universitaria en cuyo ámbito será presentado. es, de todas formas, inteligente suponer que, con el avance de las ideas, la interpre- tación dada a los resultados por el autor puede ser modificada por otros en el futuro; de allí que la propuesta que se haga deba ser presentada como una verdad relativa y, tal vez, provisoria. i) Conclusiones este aparte es, habitualmente, de corta extensión. consiste en unos pocos párrafos en los que se hace claro y preciso el nuevo hallazgo y su eventual valor en el desarrollo de las ideas relacionadas con el tema en estudio. el autor tendrá presente que aunque lo encontrado sea del mayor aprecio, nunca es la respuesta final al problema en el que esa observación se inserta, solo un paso más en la dilu- cidación de su conocimiento. j) Resumen esta pieza del escrito es de importancia y apela a la capacidad de síntesis del autor. en el resumen deberá decir, en pocas líneas, lo que resulta conceptual de todo lo dicho. La estruc- tura del resumen deberá ser idéntica a la del manuscrito principal. su objetivo es dar al lector la idea central de la investigación hecha, como fue concebida, que herramientas se usaron para explorarla, cuáles fueron los resultados de mayor valía y a qué conclusiones ellos condujeron. No necesariamente este aparte debe ir al final del texto mayor, puede precederlo. yo creo que es mejor esto último, puesto que quien lo lee sabrá, anticipadamente, que es lo que le aguarda en el resto del manuscrito. k) Bibliografía es absolutamente imprescindible que toda la bibliografía citada integre la lista biblio- gráfica. [ 73 ] esa lista puede confeccionarse por abecedario, tomando el apellido del primer autor del trabajo o capítulo de libro o libro. también puede hacérsela por orden de aparición en el tex- to. es preferible esta última modalidad, ya que hace más suelta la lectura. es conveniente que, en el texto principal, la cita figure como el número que tiene en la lista bibliográfica. ello es preferible a la inserción dentro del manuscrito mayor, entre pa- réntesis, del nombre de los autores, año, etc; esta forma de individualización bibliográfica entorpece la lectura, actúa como un distractor y la vuelve laboriosa. La forma de citación seguirá las normas internacionales para las publicaciones periódi- cas. el modelo de ficha sugerido arriba se ajusta a ello. No deben incluirse en la lista citas que no hayan sido referidas en el texto principal. l) Apéndices Hay autores que crean apéndices para mostrar hechos que, usualmente, se conectan con la idea central de manera tangencial. en general no agregan demasiado al pensamiento guía del trabajo y lo que puedan aportar puede ser incluido en el escrito mayor. en mi concepto, la mayor parte de las veces ellos son innecesarios. Más aun, yo creo que desvalorizan el trabajo. resultan un esfuerzo adicional para el lector y pueden desviar la línea de pensamiento que sigue el escrito principal. creo que no es recomendable su introducción en un trabajo de tesis de doctorado. m) Índice es conveniente introducir un índice en el que se detalle la ubicación de cada uno de los apartes o capítulos de los que consta el escrito. es aconsejable que sea lo mas analítico posi- ble, de forma que en cada capítulo figuren los distintos puntos que lo integran. es también conveniente que se lo exhiba en el comienzo del manuscrito; su lectura, a igual que lo que sucede con el resumen, podrá dar al lector una apreciación general de las pretensiones del autor. colofón He tratado dedar las ideas y herramientas generales de lo que, creo, debe ser un trabajo de tesis de doctorado. es cierto que mi experiencia está limitada a los escritos médicos y biológicos y que ello constituye una restricción de ideas de la que, lamentablemente, no puedo escapar. sin embargo, quizás, lo dicho a lo largo de este capítulo pueda ser de utilidad, al menos parcial, para cualquier estudiante dispuesto a emprender la denodada labor que implica lle- var adelante un proyecto de tesis de doctorado. tal vez, quien lea estas páginas pueda adoptar algunos de los conceptos dados en benefi- cio de su tarea. si me enterase de ello estaría muy complacido. [ 74 ] Lecturas sugeridas alonso M. ciencia del lenguaje y arte del estilo. 1953. editorial aguilar. 3° edición. 1. Madrid. eco U. cómo se hace una tesis. 2006. editorial Gedisa. 8° edición. Barcelona.2. Fishbein M. Medical writing. 1957. editorial McGraw-Hill company. Nueva york.3. Lasso de la Vega J. cómo se hace una tesis doctoral. 1958. editorial Mayfe. 2° edición. 4. Madrid. Lejarraga H. cómo confeccionar un proyecto de tesis. 2006. curso Virtual. Facultad de 5. Medicina Virtual. Facultad de Medicina. UBa. Moroney MJ. Facts from figures. 1960. editorial penguin Books. 3° edición. Londres.6. Wikinski Ja, Usubiaga Je, Hernández HH. el trabajo científico. 1977. editorial Dia-7. frag. Buenos aires [ 75 ] CAPÍTULO 7 La comunicación oral de la investigación científica. Una herramienta para transmitir conocimiento. Ricardo J. Esper Antonio Paragano en los ambientes científicos, los conocimientos se divulgan para buscar la verdad, y no para imponer la verdad del investigador. por lo tanto, deben presentarse de manera que no estén influenciados por la subjetividad o emotividad del presentador ni con recursos que puedan tergiversar la percepción del auditorio. De esta forma, el oyente dispondrá de condi- ciones adecuadas para analizar los conceptos de la manera más ecuánime posible, interpreta- rá mejor los resultados y podrá llegar a una discusión objetiva y más provechosa al momento de las conclusiones. por otra parte, con la globalización tecnológica, los conocimientos universalmente acep- tados por la comunidad científica suelen perder vigencia rápidamente, porque se actualizan en forma vertiginosa e ininterrumpida. además, la difusión de la creciente cantidad de infor- mación implica un tiempo por demás excesivo para su exposición, contingencia que obliga a los oradores a emplear tiempos muy cortos y sin intervalos para su comunicación. esta forma de presentación acotada y sintética puede no captar la atención constante de los oyentes o no despertar interés, y hasta fastidiar por lo rutinaria o monótona. es por ello que los expo- sitores recurren a un sinnúmero de técnicas para proporcionar una comunicación atractiva, placentera y que cautive a la audiencia. sin embargo, un poema, leído por dos poetas, puede llegar a enternecer en forma diferen- te. La misma partitura musical interpretada por dos directores de orquesta puede emocionar de distinta manera. Hasta un canto gregoriano, entonado con mayor o menor pasión, puede exaltar o deprimir a la audiencia. Los científicos tienen personalidades disímiles, algunos son extremadamente serios y circunspectos y otros espontáneamente demostrativos. Unos se expresan en voz baja y sin gesticular, otros modulan constantemente el volumen de su voz y se mueven en el estrado con amplias excursiones de sus brazos y manos. todas estas consideraciones tienen por objeto hacer saber al lector que, a diferencia de la presentación escrita, no hay un estilo definido y universal para la comunicación oral de un logro científico. entonces, ¿cómo alcanzar el adecuado equilibrio entre la rigurosidad científica y la presentación amena y agradable? en otras palabras, ¿cómo lograr el punto medio entre la austera divulgación del conocimiento, como se acostumbraba en los claustros universitarios a comienzos de la edad moderna, y la magia de los espectáculos musicales de Broadway? [ 76 ] La efectividad de una presentación oral depende de la habilidad del orador para comu- nicarse con la audiencia. cada aspecto de la presentación debe orientarse a captar la aten- ción del espectador y facilitar la comprensión de la información expuesta. este capítulo se enfocará en el proceso que conlleva la presentación de los resultados de un trabajo o informe científico, y en la forma de comunicarse eficazmente con la audiencia. son pautas o consejos para evitar caer en excesos o actitudes inadecuadas, intentado que las presentaciones tengan cierta atmósfera de homogeneidad, facilitando el entendimiento y forjando el ambiente para la discusión provechosa. La comunicación oral de la investigación científica Los pasos a seguir para la presentación oral de los resultados se pueden dividir, en una forma práctica, en cuatro fases: 1) la elaboración del resumen, 2) la confección del material gráfico, 3) la presentación formal, y 4) la discusión de los resultados obtenidos. 1. La elaboración del Resumen el material a presentar debe ajustarse exactamente al trabajo o informe científico origi- nal, pero como el tiempo de exposición suele ser escaso, es conveniente elaborar un resumen. Una regla práctica muy difundida es recordar que el resumen a presentar tiene que contener todo lo que dice el trabajo, y el título debe expresar todo lo que dice el resumen. tenga en cuenta que la lectura de una página tamaño carta (21,59 cm x 27.94 cm, u 8” x 11”) con letras de tipo 12 y a doble espacio, requiere entre 3 y 4 minutos para su lectura, según la ve- locidad del lector. Decía Gracián que “lo bueno, si breve, dos veces bueno”. Una vez escrito el resumen a presentar hágalo leer por alguien que no tenga relación con el mismo, ni con su temática o especialidad. si el lector lo entiende es porque es claro y está bien escrito. entonces, vuelva a escribirlo con la mitad de las palabras. se inicia con el título, que se aconseja sea atrayente e interesante. asumir que si concita la atención muchos escogerán esa exposición intrigados por la curiosidad que le despertó el título. enumerar a los coautores, agregando a las personas que verdaderamente participaron en su concepción, e indicar el servicio, departamento, hospital o centro de referencia donde se realizó el trabajo científico. comience con una breve reseña que justifique la hipótesis de trabajo, luego enuncie los objetivos de la investigación, la metodología utilizada, los resultados y las conclusiones. con- siderando las limitaciones en el espacio y/o el tiempo para su presentación, debe ser capaz de transmitir la relevancia del problema y la razón del estudio en pocas palabras o líneas. exponga con precisión la hipótesis que pretende probar y describa claramente sus objetivos. Un acápite importante es el correspondiente a material y métodos. Debe contener in- formación acerca del diseño, las características de la población estudiada, las variables en estudio, aspectos del proceso de recolección de datos y seguimiento, la estimación del ta- maño de la muestra y la descripción de la estadística empleada. probablemente, parte de esa información no es prioritaria, y es lógico concentrarse en presentar sólo los datos relevantes [ 77 ] y vinculados con el objetivo de la investigación. exponga fielmente la información que res- ponde a la hipótesis y a los objetivos planteados o que será utilizada en las conclusiones, y debe hacerlo aún cuando obrara en contra de la tesis inicial o no se obtuvieran valores con significación estadística. Finalmente, la conclusión debe ser concisa, reflexiva y respaldada por los resultados del estudio. comentar el o los elementos más notables y sugerir recomendaciones. No añada conclusiones que no se ajustan a los resultados, tampoco extenderlos a otras situaciones que no son estrictamente las del estudio. atañe al presentador establecer los puntos cruciales correctos,ya que las personas no retendrán más de unos pocos datos significativos, comuníquelos eficazmente y logrará que los oyentes consigan recordarlos. No pretenda que la audiencia decida qué es lo importante, asegúrese que ellos consideraran relevantes los mismos conceptos que usted. Una forma de lograrlo es comenzar comentando las conclusiones de la última diapositiva, y enfatizar los puntos esenciales para facilitar la presentación. cada palabra hablada, y cada palabra escrita en las diapositivas debe ser importante y relacionada con los objetivos. 2. Medios visuales y material gráfico Un viejo dicho expresa que “una imagen puede más que mil palabras”, y es una verdad indiscutible. para que la presentación se desarrolle de manera didáctica y prominente es absolutamente válido recurrir a los recursos técnicos disponibles, como la proyección de diapositivas, videos, películas u otro tipo de material, siempre y cuando se amolden a normas de prudencia. en diversas encuestas se observó que una conferencia sin proyecciones habi- tualmente capta la atención del 20% al 30% del auditorio, y asciende hasta un 75% cuando se acompaña de material gráfico o visual. asimismo, el proyectar imágenes borrosas, con in- adecuada combinación de colores, desorganizadas e inclusive excesivas, conducen al fracaso de la exposición y hasta cuestionan la profesionalidad del presentador. rutinariamente las presentaciones actuales se almacenan en un cD o en una memoria removible con terminal UsB (llamados habitualmente pen-drive, memory-drive, thumb- drive, flash-drive, etc.) y simplifican el traslado del material al sitio de exposición. Lo ideal, cuando es posible, es copiar los datos en el disco duro, lo cual agiliza considerablemente la presentación. en muchas convenciones se pide que los archivos de clips sean enviados electrónicamente antes de la reunión, en este caso asegúrese llevar una copia de respaldo, con un formato de medios de comunicación que la computadora aceptará (cD, disquete, UsB flash drive, etc.). el manejo de los medios visuales puede realzar la calidad de una presentación, aunque la efectividad de cualquier presentación no depende exclusivamente de la calidad del material visual. La proyección de imágenes, cifras, frases o procedimientos fija los conceptos con mayor claridad y refuerza e ilustra la información transmitida por el orador. La conferencia debe mantener el foco en la comunicación de los objetivos y no des- viarse especialmente hacia los efectos tecnológicos. La habilidad del presentador para co- municarse con la audiencia puede conducir a presentaciones muy efectivas, a veces sin disponer de medios visuales. Lo contrario no es verdadero, no importa cuán sofisticados son estos recursos, si un presentador hace un pobre trabajo al comunicarse con la audien- [ 78 ] cia, la presentación se opacará. el empleo de la tecnología puede ser un contratiempo en la exhibición, y suele ocurrir cuando el expositor no está completamente familiarizado con su funcionamiento. Ni el individuo más experimentado es capaz de improvisar una presentación en horas. prepare personalmente el material y con la debida antelación, estime el número de diaposi- tivas que puede necesitar y distribuya la información que quiere proporcionar en un número razonable de ellas. Una buena regla es dedicar un mínimo de tiempo para cada diapositiva, no mayor de un minuto, aunque esto puede ser variable. piense en el tamaño de la sala y la audiencia posible, si no tiene un fondo establecido para sus diapositivas busque uno que sea agradable y que no interfiera con la lectura del mensaje. No confíe en la apariencia de la presentación en la pantalla de su computadora, proba- blemente cuando la proyecte su aspecto cambiará, y es aconsejable experimentar antes de exponerla. Utilice un tipo de letra claro y de tamaño adecuado para facilitar su lectura, apro- veche todos los espacios que le proporciona la diapositiva, pero no abuse de la información que coloca en ellas. incorpore el material gráfico que estime conveniente (fotos, gráficos, tablas, etc.), pero recuerde que no son adornos, únicamente son útiles cuando componen una imagen interesante. Las tablas deben tener un título claro, ponga especial cuidado en las cifras, sumas, porcentajes, etc. Los gráficos deben mostrar una tendencia definida, seleccione el más adecuado para la expresión de los resultados (barras, columnas, etc.). Utilice pocas palabras por línea y pocas líneas por diapositivas, aquellas con demasiada información y, por consiguiente, letra peque- ña y frases apretadas, no son legibles y atentan contra la atención del oyente. Las proyecciones (diapositivas) La diapositiva o proyección es siempre un apoyo del expositor, y se las suele clasificar co- mo de reafirmación, ampliación y complementación. cuando el expositor describe la imagen que se proyecta, está reafirmando lo que se observa. por el contrario, si oralmente amplía lo que se proyecta es porque está profundizando lo que expresa la imagen. y si agrega informa- ción que la imagen no muestra o no permite deducir, está complementando la imagen. pueden existir variantes, como la forma negativa de la reafirmación, cuando se contrasta con la ima- gen lo que se expone, tal el caso de aconsejar no fumar y mostrar a un individuo fumando. también se suele diferenciar las diapositivas según el contenido consista en textos o gráficos, y para la elaboración de cada una de ellas existen ciertas reglas o consejos que han persistido en el tiempo y que es conveniente tener en cuenta. Diapositivas de texto No más de 7 palabras por renglón y no más de 7 renglones por proyección. eluda las proyecciones llenas de números y frases que el espectador no alcanza a ver por el tamaño y por carecer de tiempo para leer toda la imagen. prefiera no transmitir más de una idea por proyección. • el texto se debe poder leer desde la parte final del auditorio. • No más de una diapositiva por minuto, para dar tiempo a la lectura del texto. esta • regla ha perdido un poco su vigencia, y se puede admitir un número mayor, especial- [ 79 ] mente de imágenes sin lectura. pero evite dar demasiada información, el espectador no podrá captarla. tamaño y tipo de las letras. No demasiado pequeñas que no se puedan leer des-• de una distancia considerable, según las dimensiones del local y de la pantalla de proyección, ni demasiado grandes que haga incómoda o hasta molesta su lectura. en cuanto al tipo de letras, las computadoras ofrecen una infinidad de ellos, y se aconseja utilizar los de lectura fácil y clara, aunque en algunos casos y para destacar conceptos se recomienda emplear tipos diferentes al del texto principal. prefiera las proyecciones horizontales a las verticales. estas últimas por lo general • dejan parte de las mismas fuera de la pantalla. considere los contrastes. el contraste entre el color de las letras y el fondo de la dia-• positiva es un elemento de suma importancia, porque facilita o dificulta la lectura. existe una escala de contrastes de colores que optimizan este hecho, y que de mayor a menor son los siguientes: Letras negras sobre fondo blanco Letras blancas sobre fondo azul. Letras negras sobre fondo amarillo. Letras blancas sobre fondo negro. Letras rojas sobre fondo blanco. Letras verdes sobre fondo blanco. Letras blancas sobre fondo rojo. Letras amarillas sobre fondo azul obscuro, etc. el presentador seleccionará el contraste que permita la mayor legibilidad según su pare- cer. No es aconsejable un fondo con texturas complejas u policrómicas, ya que atenta contra la concentración en lo esencial y puede resultar tedioso. Hoy día, con los recursos de los programas de computación, estas reglas han perdido parte de su vigencia, especialmente con la superposición de leyendas, las imágenes animadas, la sumatoria de imágenes, rótulos, etc., a medida que la exposición con diapositivas avanza. es aconsejable emplearlos, perosiempre con la premisa de no generar una exposición donde es más importante la imagen que el mensaje. Diapositivas de gráficas Los gráficos cobran singular importancia en la presentación de los resultados y existen múltiples opciones y combinaciones posibles de los mismos. Los clásicos son los de barras, de torta, de línea, etc. cada uno se utiliza según lo que se quiera expresar, pero es aconsejable no manejar más de 7 barras o 7 divisiones de la torta, y deben rotularse en unidades o por- centajes muy claros y contrastantes. es aconsejable que en las gráficas figuren los valores de las coordenadas y/o de las barras o partes de la torta, para evitar al expositor tener que especificarlos. el tiempo de atención del auditorio en una gráfica raramente sobrepasa los 30 segundos, a partir de los cuales la curva de atención comienza a decrecer. por lo general la atención en una gráfica de mala calidad, complicada o de difícil comprensión no pasa de unos pocos segundos. en 30 segundos el [ 80 ] expositor solo podrá decir entre 50 y 70 palabras. Luego, es aconsejable programar la expo- sición oral sobre esa gráfica en esa cantidad de palabras y de tiempo. Lo habitual es combinar en las proyecciones texto y gráficas. en la actualidad, los in- vestigadores cuentan con el apoyo de los profesionales de diseño y las posibilidades de los programas de computación, asociación muy efectiva para lograr presentaciones de calidad. No dejar de consultarlos, ellos son creativos y saben como transmitir un concepto. Póster (Cartel) el póster, otro medio de apoyo visual, surgió como una necesidad para permitir una mayor cantidad de presentaciones en las sesiones científicas. Habitualmente no son tan valo- radas por el autor como una presentación oral. sin embargo, el mayor tiempo de exposición y la posibilidad de discutir los resultados con los espectadores pueden provocar un gran interés y resultar de mayor divulgación. La discusión más personal que puede generarse entre los autores, los revisores y los lectores del póster presentes en el lugar, suele ser muy provechosa y enriquecedora. el póster introduce una variedad de ilustraciones que permite presentar el trabajo con claridad. Debe combinar la parte escrita y gráfica con un diseño agradable y legible, y su ta- maño debe facilitar la lectura desde una distancia prudencial. La información volcada debe contener los mismos puntos que la presentación con diapositivas: título, autores, objetivo, etc. evite incorporar demasiados datos, dispóngalos en orden y destaque visualmente los elementos clave. Imprevistos pero suponga el presentador que se ha cortado la luz, no dispone de micrófono ni de me- dio de proyección. O que los inconvenientes suceden en forma menos trágica, como un pro- yector de diapositivas dañado, se interrumpe solamente el micrófono o, lo que es más común, falla la computadora o la inserción de la memoria. ¿Deberá usted declinar la presentación? puede hacerlo, pero quizás no tenga otra oportunidad hasta varios meses después, tiempo en que probablemente otro investigador presentará un estudio muy semejante al suyo y le quitará primacía. asimismo, puede mal interpretarse y verse como un desprecio al auditorio que ha asistido a oírlo. Mejor improvise una presentación parcial, empleando sus mejores condiciones pedagógicas e histriónicas. ayúdese con un pizarrón y tiza, y hasta con alguna humorada para elevar el estado de ánimo de los presentes. al usar el pizarrón hay datos claves que se pueden escribir en él, nombres científicos, una fórmula o un resultado numérico importante. esto contribuye a mantener la atención, ayuda a la comprensión y ofrece un tiempo extra para analizar lo que se expresó en palabras. siempre se debe contar con recursos para salir del mal trance, y el mejor instrumento es la experiencia del presentador. entienda que todo material sirve de apoyo, y que lo relevante es el discurso y su trasfondo. No hay muchas oportunidades para presentar su experiencia y demostrar sus habilidades científicas y comunicativas, ¡no las desperdicie! [ 81 ] 3. La presentación oral elaborar una presentación para una reunión local, nacional o interdisciplinaria no es momento para apresurarse, una exposición efectiva requiere de ensayo. La espontaneidad es un número infinito de posibilidades entrenadas. practicar le otorga al expositor la oportuni- dad de medir cuánto tiempo tomará la exposición, planear las pausas en el momento opor- tuno y familiarizarse con las diapositivas, tratar de memorizar y recitar la conferencia no es la forma de presentar. ensayar le permitirá modificar la presentación al instante, según las necesidades o ante una pregunta de la audiencia. si se admiten preguntas durante la presen- tación, podrá fácilmente saltar adelante o atrás por las diapositivas, demostrando conocer la información contenida en ellas y reforzando la evidencia para las respuestas. el ensayo debe incluir probar el equipo que va a usar y crear un plan de apoyo, por si deja de operar. practique la presentación en voz alta, expresándose diferente cada vez. puede ser de ayuda hacerlo frente a los coautores o, mejor aún, en un ateneo de su servicio. sus colegas pueden proveer información honesta acerca del contenido, colores y/o cualquier defecto en los gráficos. aún con las mejores intenciones, pocas presentaciones están realmente acaba- das. tómese el tiempo necesario para encontrar la imagen que destaque su exposición, y reemplace a la imagen que no lo hará. agregue contenido actualizado y haga la presentación interactiva. intente tener acabado el borrador bastante tiempo antes de la fecha tope, y use el tiempo extra para mejorarlo. Depender de notas para trabajar o emplear largas pausas para componer pensamientos desvía la atención y afecta la calidad de la presentación. No es recomendable la lectura de notas, o debe hacerse con moderación, los buenos conferencistas rara vez las necesitan. Gas- tar tiempo leyéndolas puede convencer a la audiencia que el presentador no está preparado. es posible que un presentador hable lentamente, otros hablan y se mueven muy rápido por las diapositivas. por regla general, cada diapositiva merece al menos 10 segundos, y ninguna debería superar 1 o 2 minutos. si toma más tiempo para cubrirla, probablemente es mejor rehacer el contenido en dos diapositivas. Disponga de una vestimenta adecuada al lugar y el foro de presentación, no se acicale o atavíe excesivamente. puede ocurrir que un atuendo inadecuado o insólito conduzca a la desatención o, lo que es peor, al sentimiento de menoscabo, y que entonces el auditorio no se concentre en la meta más importante que es el aspecto científico. Lo aconsejable es utilizar una indumentaria que no desentone con el medio en que se encuentra, pero nunca estará mal con el clásico saco y corbata. en ese momento, usted es el centro de las miradas, aparezca lo más natural y relajado po- sible. recuerde, nadie sabe más del tema que usted. si puede escoger, elija la parte izquierda del auditorio, la explicación del material audiovisual será más lógica, es la forma en que se lee nuestro idioma. comunicar la presentación con pasión y confianza le añadirá credibilidad al mensaje, y la audiencia reconocerá esas emociones. al mostrar imágenes, oriente a la audiencia hacia el punto relevante, proporcióneles el tiempo suficiente para asimilar la información y permitir conjeturar las conclusiones. Mu- chos oradores se apresuran a través de las diapositivas, hacen declaraciones que aluden a conclusiones en las imágenes, pero no explican o señalan claramente esas conclusiones. Una técnica que ayuda al auditorio a comprender mejor las diferencias es mostrar un ejemplo [ 82 ] “normal”, seguido de uno que no lo es. exprese claramente las diferencias entre los dos, es un error dejar a la audiencia que establezca la conexión entre ellos. considere cómo va a señalar los puntos importantes en una diapositiva,las herramientas disponibles como el puntero de láser o el cursor del ratón, pueden ser efectivas si se emplean adecuadamente. es frecuente que el presentador no dirija el haz de luz sobre el elemento que desea señalar, sino que lo mueva displicentemente en forma circular, oval o totalmente asincrónica tratando de englobar múltiples áreas o, lo que es peor, no señalando ninguna en especial. esto no resulta útil, sino más bien distrae y hasta puede llegar a ser desagradable. el contenido de las diapositivas es explicativo y dirigido a la audiencia y no al orador, que no debe leerlas. es conveniente afrontar en dirección a los presentes y no a la proyección. además no corresponde disculparse dentro de la presentación, si una diapositiva será difícil de comprender no debería ser presentada. a veces las preguntas pueden ser más importantes que la presentación real, piense y adelántese a las preguntas que podrían manifestarle. al replicar mire a todos los oyentes, ya que todos pueden tener la misma duda. evite elogiar algunas consultas y no otras, además, trate todas las cuestiones e interrogadores con el mismo respeto. contestar las dudas que le plantea el auditorio no debe ser un problema si ha sabido transmitir las ideas esenciales, las preguntas suelen ir dirigidas a aclarar y ampliar alguno de los puntos clave de su charla. si no sabe la respuesta no intente responder con evasivas o invenciones, mejor transmitir al interlocutor el interés por tratar de darle contestación en un futuro o, simplemente, admitir su desconocimiento al respecto. suministrar toda la informa- ción, positiva o negativa, para que los demás puedan juzgar con ecuanimidad el valor de su trabajo, no exponga información sesgada tratando de orientar el juicio de los presentes. el aprendizaje es un proceso dinámico que requiere de la participación activa de los presen- tes. Desde tiempos inmemoriales la clase profesoral ha sido una técnica de instrucción amplia- mente respetada. sin embargo, en nuestros días una conferencia para transmitir información o como método de enseñanza puede considerarse igualmente igualmente primordial. La presen- tación oral debe orientarse para incluir la participación de los oyentes, despertar su curiosidad, motivarlos a aprender y pensar, en resumen, lograr más que lo que puede cualquier libro o publicación. el clima de la conferencia es importante, los factores que perturban la voluntad de aten- ción de la audiencia deterioran la comprensión. Un ambiente seguro y relajado facilita el entendimiento. el orador, intencionalmente o involuntariamente, puede modificar el clima emocional y debe comprometerse para lograr un contexto con estas características. La interacción informal con la audiencia, con el humor apropiado, ayuda a establecer un clima que conduce al aprendizaje. Muchos autores recurren a alguna anécdota o hecho inusual para llamar la atención, inclusive, alguna cita o una gracia que causa hilaridad entre los presentes. esto “despierta” a un auditorio un tanto estático y motiva su interés. Manejar prudentemente una cantidad correcta de humor puede contribuir al mutuo entendimiento con la audiencia. está bien salirse ocasionalmente de la “letra”, no es un recurso desdeñable, pero con la precaución de no ser ofensivo ni chabacano, ni hacer que la presentación se re- cuerde por el imprevisto y no por la esencia científica. es aconsejable llevar las imágenes de la conferencia en la computadora personal, en un cD o memoria electrónica, pero siempre con un duplicado. examinar antes de la presen- [ 83 ] tación las imágenes a proyectar para evitar inconvenientes, recordar que los programas de computación se renuevan muy frecuentemente, por ello consultar si los programas de la com- putadora a utilizar son compatibles con el formato que el presentador dispone. por sobre todas las cosas, respetar los tiempos. todos los investigadores están conven- cidos que sus hallazgos son de máxima importancia y que van a cambiar los destinos de Occidente. pero a todos se les da la misma cantidad de tiempo para su presentación, por lo general de 10 minutos o, a lo sumo, 15 minutos. superado este límite se reduce el tiempo de los siguientes expositores, o el de las preguntas y respuestas. es necesario que se entrene lo suficiente como para asegurar de terminar en tiempo. Más de una vez, los encargados de cronometrar la exposición, por lo general el presidente o secretario de mesa, truncan la co- municación en el tiempo justo y el presentador se ve perjudicado por no haber expuesto las conclusiones o el comentario más importante. es necesario recalcar que el principiante debería ensayar la presentación varias veces en presencia de sus colegas para habituarse al medio, a las formas y al tiempo. ellos le acon- sejaran sobre todo aquello que pueda mejorar y optimizar, inclusive hacerle preguntas que podrían surgir luego desde el auditorio y prepararse para ello. solo después de mucho tiempo y amplia experiencia podrá exponer sin temores ni mayores errores. Los mensajes publicitarios tratan de captar la atención en pocos segundos, y es un ejem- plo importante que debemos tener en cuenta porque aunque dispongamos de un plazo mayor para presentar nuestro trabajo, tenemos un mínimo de tiempo para atraer la atención. De no hacerlo, por mucho que hablemos no conseguiremos ser eficaces en nuestro objetivo. para cumplir con esta recomendación debemos comenzar la presentación de manera original y atractiva, utilizando los recursos de la narración oral (vista, voz, cuerpo, manos y pies). Nuestra presencia ante la audiencia tendrá un impacto en su reacción para lo que sigue, el orador debe estar cómodo y controlado, o al menos transmitir esa impresión. La cabeza debe estar en alto con la barbilla arriba, actitud que da la impresión de tener el mando. Los brazos cruzados en el pecho se ven como un signo de defensa. si uno esta sentado, enderezarse en la silla manteniendo la columna recta, los pies en el suelo y las manos extendidas sobre la mesa. Los gestos son un refuerzo visual para las ideas y las palabras enunciadas, diríjase a la au- diencia con movimientos que cautiven la atención. es más cómodo atender a un conferencista dinámico que escuchar a alguien que está detrás de un podio con los brazos cruzados. Use gestos amplios y envolventes, nunca emplee ademanes rápidos y espasmódicos. Los gestos más efectivos son extensiones naturales de uno mismo y deben ser variados, la repetición puede ser molesta. algunos modales, como apuntar con el dedo o el puño cerrado, son amenazadores. evite poner las manos en los bolsillos, use las palmas de la mano abiertas hacia el público, incline la cabeza y sonría para enfatizar aquello que expone. No permanezca durante un período prolon- gado detrás del podio, separa al orador de la audiencia y se percibe como lejano. alcance a los presentes físicamente, aumentará la atención e interés, y alentará a las preguntas y respuestas. Los oradores efectivos hacen contacto visual con el público y advierten sus reacciones, aburrimiento, entusiasmo, etc. para hacer el contacto visual correcto debe “barrer” con la mirada a la audiencia, observe a cada persona unos segundos. es importante hacerlo, deja percibir si están atentos o qué nos indica su lenguaje corporal, se mueven irritados, toman notas o están dormidos. [ 84 ] Hablar claramente requiere de trabajo y práctica, esto es particularmente cierto si el orador está hablando en un idioma diferente del materno. Una manera segura de perder la atención del público es hablar con voz suave y monótona, duro trabajo es atender a alguien que habla de ésta manera, muchos de los asistentes no harán el esfuerzo. para comprometer al auditorio, debe hablar con un tono natural, seguro e interactivo. este estilo involucra a las variaciones en la inflexión de la voz y la velocidad con que se habla, incorporando ocasional- mente pausas. el ritmo debe ser lento, facilitándoleal público la oportunidad de oír y asimi- lar lo que se dice, hablar demasiado rápido puede fatigar. el orador balbuceante impresiona nervioso, si mira hacia abajo puede percibirse como un intento de mantenerse alejado de la situación. evite las reiteraciones “muletillas”, molestan y desvían la atención hacia eso que se repite sistemáticamente. Uno puede desconocer sus gestos faciales, como entrecerrar los ojos, fruncir el ceño, o poner caras extrañas que desorientan a la audiencia. puede ser muy instructivo mirarse en un espejo, o video grabado, y observar nuestros modos al hablar. No es fácil sonreír y hablar al mismo tiempo, pero es importante sonreír durante la presentación, si es congruente con el mensaje hablado. Nunca obtendremos una segunda oportunidad para cambiar la primera impresión. 4. La discusión de los resultados obtenidos probablemente es el momento más difícil, sobre todo para los autores noveles. es el tiempo donde se capta el interés que ha promovido la exposición, de responder las dudas y los comentarios que surgen, discutir aspectos controvertidos y proporcionar información adicional. recuerde que se encuentra en un ámbito científico, entre colegas, y que el objetivo es debatir. agradezca los comentarios, los interrogantes y las dudas porque son apreciables, algunos pueden ayudarle a enriquecer la investigación actual u otras futuras. De esta expe- riencia realmente se puede aprender, esté tranquilo e intente no estar a la defensiva. si no sabe la respuesta a una pregunta, diga que no la sabe y no conjeture acerca de datos adicionales a menos que usted esté absolutamente seguro. atienda todas las preguntas, responda gentil y pausadamente, no discuta e intente no disentir a menos que el punto señalado por el interrogador sea extremadamente importante. sea breve, y si el tiempo lo permite agradezca a la mesa, al moderador y al público en general por su atención, e invítelos a continuar con la discusión posteriormente. en una reunión científica, donde se exponen muchos trabajos en forma ininterrumpida y a veces simultánea en varios salones, el expositor puede considerarse satisfecho en demasía si la audiencia, al final del día, recuerda el objetivo y las conclusiones del trabajo presentado. técnicas pedagógicas existen algunas técnicas pedagógicas que pueden ser útiles de conocer cuando se prepara una clase u otro tipo de exposición, ya que orientan en como concitar y mantener la atención del auditorio. [ 85 ] Clínica del rumor consiste en hacer salir del aula a 7 de los espectadores presentes y proyectar al resto del auditorio una diapositiva intrascendente, que puede ser de un paisaje, una escena familiar o cualquier otro asunto. a continuación, se hace pasar al primero de los espectadores que quedó afuera y se pide a alguno de los presentes que le relate lo que ha visto en la proyección. Luego, se hace pasar al segundo espectador de afuera y se pide al primer espectador que vino de afuera que relate al segundo lo que le contaron que han visto en la proyección. y así sucesivamente hasta llegar al 7º espectador. el auditorio notará que el primer espectador relata al segundo lo que él in- terpretó de lo escuchado de quien presenció la diapositiva, y el segundo le dirá su impresión al tercero y así hasta llegar al séptimo. como cada uno de los espectadores cuenta su impre- sión subjetiva, la realidad se va transformando, pudiendo llegar a tergiversarse la verdadera imagen de manera tal que despierta la hilaridad de la concurrencia. al final, se proyecta la diapositiva original y se muestra a los 7 espectadores que estuvieron afuera que se asombra- rán de lo diferente a lo imaginado por ellos. De no contarse con una proyección, se puede suplantar la imagen con el relato de algún hecho rutinario o acaecido a alguno de los presentes, y continuar de igual manera. Durante la ejecución de esta técnica, cada uno de los presentes interpreta a su manera lo visto o escuchado, y al relatarlo es habitual que lo module con su punto de vista personal o su interpretación subjetiva. si bien esta técnica tiene como objeto principal convencer a la audiencia de la importancia de recurrir a las fuentes de la información para no recibirla de- formada por la subjetividad del intermediario, es enormemente útil para que el presentador la tenga en cuenta al momento de su exposición. Debe intentar utilizar las palabras adecuadas y los ejemplos ajustados para que impidan, o al menos no faciliten, interpretaciones subjetivas demasiado diferentes de lo que el presentador quiere transmitir, y posibilitar que el mensaje llegue en su justa realidad. Otra aplicación práctica, es convencer al iniciado de la importancia de recurrir a los trabajos originales para basar sus hipótesis, y no a las revisiones de los temas que, si bien economizan tiempo y esfuerzo, suelen transmitir el punto de vista subjetivo del autor de la revisión, y pueden influenciar fuertemente el análisis de las conclusiones. Atención de la audiencia consiste en recitar a la audiencia 20 palabras habituales de la conversación diaria. Des- pués, se les pide que escriban todas las palabras recordadas sin importar la secuencia. Luego, el presentador preguntará a la audiencia cuantos de los presentes recordaron cada palabra en la secuencia original, y tomará nota de ello para graficar esas respuestas en un diagrama de barras o de líneas con la cantidad de personas que recuerdan cada palabra en las ordenadas. Observará que la gran mayoría evoca con mayor facilidad las primeras y las últimas palabras, y recuerda mucho menos las del medio. esto hace que la curva de evocación de las palabras tenga una concavidad superior que expresa que la atención de la audiencia fue más importan- te al inicio y al final. estos resultados se observan con frecuencia en las audiencias del mundo Occidental. contrariamente, en el mundo Oriental, lo habitual es que el nivel de atención se mantenga uniforme en todo el tiempo, con una resultante que es bastante horizontal. [ 86 ] esta técnica fue inicialmente utilizada para conocer el nivel de atención de la audiencia durante una exposición, y es útil que el orador la tenga presente para intentar mantener un nivel uniforme de atención de la audiencia. puede alternar con cierta periodicidad frases o proyecciones que impacten positivamente a la audiencia, concitando una atención pareja durante la exposición. O por lo menos, utilizar los elementos de mayor importancia en forma escalonada o periódica para despertar interés. también es importante que el orador exprese la hipótesis del trabajo y los objetivos al principio, cuando la audiencia está más interesada, y que sea claro y determinante en las conclusiones al final de la presentación. epílogo La intención este artículo fue acercar algunas recomendaciones a los que se enfrentan por primera vez a un auditorio para difundir información científica. es posible que estas conside- raciones parezcan intrascendentes, sin embargo, pocas veces se tienen en cuenta y el resultado de una exposición se ve innecesariamente disminuido. Hablar en público es un arte, algunas personas parecen haber nacido con las habilidades y el deseo para hacerlo. sin embargo, la mayor parte de nosotros necesitamos aprender este arte, trabajando continuamente para mejorar. Vale la pena el esfuerzo, comunicaremos mejor el conocimiento y provocaremos un cambio en las actitudes y/o la práctica cotidiana de los oyentes. este es el resultado que uno desea cuando se involucra con la investigación y la educación médica. No olvide que la constancia genera talento. material de consulta sugerido albert t. Winning the publications game. Oxford & New york, radcliffe Medical press, 1. 1997. arribalzaga eB, Borracci ra, Giuliano rJ, Jacovella pF. el artículo científico. Buenos 2. aires, editorial Magister eos, 2005. Biancuzzo M. Developing a poster about a clinical innovation. part i: creating the pos-3. ter. clinicalNurse specialist 1994; 8:153-155. Biancuzzo, M. Developing a poster about a clinical innovation. part ii: creating the 4. poster. clinical Nurse specialist 1994; 8: 203-207. Bradley H. it’s show time!. Home Office computing 1999; 17: 102.5. Bragshaw e. slide projection. pc User 1992; 196: 61.6. Brinko Kt. the practice of Giving Feedback to improve teaching: What is effective? 7. J Higher education 1993; 64:574-593. cirigliano G, Villaverde J. Dinámica de grupos y educación. Buenos aires, ed. Huma-8. nitas, 1985. collins J. education techniques for Lifelong Learning. Giving a powerpoint presenta-9. tion: the art of communicating effectively. radioGraphics. 2004; 24:1185-1192. collins J, Mullan BF, Holbert JM. evaluation of speakers at a National radiology con-10. [ 87 ] tinuing Medical education course. Med educ Online [serial online] 2002; 7: 17. availa- ble from http://www.med-ed-online.org. council of Biology editors. council of Biology editors style Manual. arlington, Va, 11. council of Biology editors, inc, 4th edition, 1978. cruz Verduit L, arencibia Jr, pérez Fernández e. aspectos metodológicos básicos pa-12. ra la preparación y el empleo de las diapositivas. http://www.bvs.sld.cu/revistas/aci/ vol10_4_02/aci030402.htm. Dalal MD, Daver BM. computer generated slides: a need to curb our enthusiasm. Br J 13. plast sur 1996; 49: 568-571. estrada ca, patel sangnya r, talente G, Kraemer s. the 10-Minute Oral presentation: 14. What should i Focus on? am J Med sci. 2005; 329(6): 306-309. Farrow r. aBc of learning and teaching in medicine: creating teaching materials. Br 15. Med J 2003; 326: 921-923. Garity J. creating a professional presentation. J intraven Nurs 1999; 22: 81-86.16. Garson a, Gutgesell Hp, pinsky WW, McNamara DG. the 10-minute talk: Organiza-17. tion, slides, writing, and delivery. am Heart J 1986; 111: 193-203. Greenhalgh t. cómo leer un trabajo científico. Guía basica de la medicina basada en la 18. evidencia. Buenos aires, Volpe/Fox s.a., 2005. Haber rJ, Lingard La. Learning oral presentation skills: a rhetorical analysis with peda-19. gogical and professional implications. J Gen intern Med 2001; 16: 308-314. Hewson M, Little M. Giving feedback in medical education. Verification of recommen-20. ded techniques. J Gen intern Med. 1998; 13: 111-116. Hoffman M, Mittelman M. presentations at professional meetings: notes, suggestions 21. and tips for speakers. eur J intern Med 2004; 15: 358-363. Jadoul M. ten ways to ruin or market your oral presentation. Nephrol Dial transplant 22. 2001; 16: 2119-2123. Kroenke K. the 10-minute talk. am J Med 1987; 83: 329.23. Leddy c. How to effectively present your product. Multichannel News 2001; 22: 44.24. Maddow cL, shah MN, Olsen J, cook s, Howes Ds. efficient communication: as-25. sessment-oriented oral case presentation. acad emerg Med. 2003; 10: 842-847. Manterola c, pineda V, Vial M, Grande L. ¿cómo presentar los resultados de una inves-26. tigación científica? i. La comunicación oral. cir esp. 2007; 81(1): 12-7. Mecklenburger Ja. emerging technologies for education, beyond the computer revolu-27. tion. peabody J edu 1986; 64: 183-187. Moore Weaver L, augspurger p, O’Brien King M, proffitt ch. insights on the poster 28. preparation and presentation process. applied Nursing res 2001; 14: 100-104. Niamtu J. the power of power point. plast reconstr surg 2001; 108: 466-484.29. Noguerol rodiguez B, Gonzalez López s, sicilia Felechosa a. Uso de la diapositivas en 30. presentaciones científicas iii: confección de diapositivas mediante el ordenador. perio- doncia 1995; 5: 153. ruhl KL, suritsky s. the pause procedure and/or an outline: effect on immediate free 31. recall and lecture notes taken by college students with learning disabilities. Learning Disability Quarterly 1995; 18: 2-11. [ 88 ] sherbino J, Bandiera G. improving communication skills: Feedback from faculty and 32. residents. acad emerg Med 2006; 13: 467-470. the eclectic slide. Goverment computer News 2001; 20: 12.33. Van Overbeek J. the presentation of scientific papers. science, new series 1941; 93: 184-34. 185. Wikinski Ja, Usubiaga Je, Hernandez HH. el trabajo científico. Buenos aires, editorial 35. Diagraf, 2da ed, 1977. thompson WM, Mitchell rL, Halvorsen ra, Foster WL, roberts L. scientific presen-36. tation, what to do and what not to do. invest radiol. 1987; 22: 244-245. Zorrilla aM. Hablar, escribir, traducir en español. Buenos aires, editorial Dunken, 37. 2003. III. desarroLLos modernos en Las cIencIas médIcas [ 91 ] CAPÍTULO 8 Metanálisis Luis Alcocer introducción por muchos siglos, el conocimiento médico se ha basado primordialmente en la obser- vación cuidadosa de los síntomas y signos de la enfermedad. el médico clínico educado, ha practicado desde siempre una semiología esmerada de los signos recogidos con sus sentidos, la vista (inspección), el tacto (palpación), el oído (auscultación y percusión), el olfato y aún el gusto, más recientemente ampliados por los exámenes de laboratorio y gabinete, que en última instancia amplifican estos sentidos. el interrogatorio sistemático de los síntomas ha permitido al médico vivir las carac- terísticas propias de la enfermedad manifiesta de su paciente. Usando ambos métodos, (el interrogatorio y la exploración física simple y armada), ha elaborado la historia clínica, que le permite sentar una hipótesis razonable sobre el estado de salud de su paciente, y que sobre todo sirve de base para la toma de decisiones, que se centran en recomendar o ejecutar me- didas para preservar el estado de salud, si este se considera satisfactorio, o a restaurarlo lo mejor posible si se juzga alterado. este es el proceso médico primordial que es empleado hasta la fecha en la mayoría de las acciones médicas. el análisis de la propia experiencia, basada en la senso-percepción, inició el intento por conocer la naturaleza propia de la enfermedad, y se aplicó en sus orígenes al análisis de los resultados de los intentos terapéuticos. La medicina se aprendía directamente de otro médico experimentado y dispuesto a trasmitir su experiencia personal a sus alumnos. el registro de las experiencias era personal del Médico y las primeras publicaciones médicas se refieren a descripción de casos, en forma especialmente de síntomas, signos y síndromes, que se relacio- naban con enfermedades específicas: esa fue la gran época de los epónimos, pues al descubrir alguna asociación el investigador era premiado bautizando con su nombre su descubrimien- to. Los investigadores describían las manifestaciones que resultaban propias de entidades patológicas, que se comprobaban de preferencia con autopsias y que eran de mayor valor si resultaban de series de enfermos observados retrospectivamente. si clasificamos a la investigación médica, desde un punto de vista de jerarquías crecien- tes en términos de validez, el primer grupo más bajo en la escala es, precisamente, el de los estudios descriptivos, y de ellos los retrospectivos de casos o series de enfermos. todavía es posible encontrar en las revistas más modestas estudios retrospectivos de series de pacientes, [ 92 ] ahora reforzados los sentidos del médico con estudios más o menos elaborados de laboratorio y gabinete. algunas revistas tan prestigiosas como el New england Journal of Medicine, aún reportan casos completos, muy bien estudiados y se les considera de un alto valor didáctico. este método del análisis del caso es empleado como un método muy actual, por ejemplo en las grandes escuelas de negocios. Los estudios de series se completan con estadística descriptiva. se refieren fundamental- mente a enfermedades, síndromes o síntomas-signos y en ocasiones a resultados sobre deter- minado procedimiento, especialmente quirúrgico. su validez es simplemente descriptiva y, en ocasiones, se intenta justificar su publicación al limitarlos a un grupo de interés particular, como por ejemplo: “caractéristicas de la enfermedadX en grupo de ciudadanos del país y, en edades de n a p años”. Los caminos de la intuición, la fe, la magia y aún la percepción extrasensorial, han sido utilizados por siglos por la medicina para reconocer, interpretar el sentido e intentar curar la enfermedad. el método científico es el pensamiento que permite al hombre tener una cer- teza razonable de lo que sus sentidos recogen (senso) y su mente elabora (percepción). es lo más cercano posible a la verdad y es actualmente el único aceptable para tomar decisiones sobre el estado de salud-enfermedad de las personas y para preservar, promover o restaurar su estado de salud, entendido este como tiempo de calidad de vida. el método científico nace formalmente desde el siglo XVii con el pensamiento de Galileo y es un proceso des- tinado a explicar fenómenos, establecer relaciones entre los hechos y enunciar leyes que expliquen los fenómenos físicos del mundo y permitan obtener, con estos conocimientos, aplicaciones útiles al hombre. el siguiente nivel de la investigación médica emplea el método científico en un más alto nivel, y nace cuando se comparan las características de un grupo francamente enfermo con otro grupo de personas de características similares, pero sin evidencias de enfermedad. estos estudios son llamados “caso-control” y permiten emplear la estadística no solo descriptiva sino también inferencial, esto es que permiten inferir relaciones. es consustancial a la investigación científica el someterse siempre a una “prueba de la verdad”, que consiste en evidenciar que cada hecho descubierto pueda ser comprobado, mediante otros experimentos, por cualquier persona y en cualquier lugar, y en que sus hi- pótesis son revisadas y cambiadas si no se cumplen. esto es ya posible en los estudios caso- control, que son todavía vigentes, se emplean para construir hipótesis causa-efecto, aunque no permiten demostrarlas y son especialmente útiles para el estudio de condiciones muy raras, en las que es imposible conseguir muestras grandes en número de sujetos enfermos. el siguiente nivel de estudios se llama estudios de cohorte. consiste en seleccionar un grupo de personas y seguir en el tiempo la evolución de su estado de salud. en general se com- para la incidencia del evento que se decidió estudiar, entre personas expuestas y no-expuestas a diversos factores. Los estudios de cohorte se han utilizado de manera clásica para determi- nar la ocurrencia de un evento específico en un grupo de individuos inicialmente libres del evento o enfermedad en estudio. permiten estudiar los factores de riesgo para una enfermedad determinada y son la base de la epidemiología moderna. Quizá el más significativo de ellos es el estudio Framingham, con más de 50 años de seguimiento. [ 93 ] Hasta este nivel el método que se emplea es la observación, sin interferir en el proceso, por lo que podríamos decir que estos grupos de estudios están destinados a conocer la histo- ria natural del proceso salud-enfermedad y su principal producto es la caracterización de las enfermedades y la posibilidad de conocer y evaluar el riesgo. La experimentación es un procedimiento mediante el cual se trata de comprobar una hipótesis, mediante la manipulación de una o más variables, manteniendo fijas las otras conocidas, lo que permite estudiar las relaciones y el peso que estas variables tienen para el desarrollo del fenómeno en estudio. La experimentación es fundamental para poder ofrecer explicaciones causales. La experimentación en humanos es desafortunadamente esencial para conocer en especial los efectos benéficos e indeseables de los agentes tera- péuticos. es por ello que las normas éticas son fundamentales cuando se experimenta con humanos y deben ser muy estrictas y muy vigiladas en estos estudios. este tipo de investigación se emplea para valorar la eficacia de diferentes terapias, de actividades pre- ventivas o para la evaluación de actividades de planificación y programación sanitarias. como en los estudios de cohorte, los individuos son identificados en base a su exposición, pero a diferencia de estos, en los estudios experimentales es el investigador el que decide la exposición. Los estudios experimentales son de varios tipos: ensayo clínico: es el estudio experimental más frecuente. Los sujetos de estudio son en la mayoría de los casos pacientes y se planean para evaluar uno o más tratamientos para una enfermedad o proceso. Deben ser comparativos, entre dos o más grupos en los que la intervención debe ser distribuida aleatoriamente. (principio activo en estudio con- tra placebo o principio activo en estudio contra tratamiento estándar, o principio activo en estudio contra otro principio activo conocido). La validez de estos estudios radica fundamentalmente en que el proceso aleatorio haga los grupos comparables en las va- riables más relevantes en relación al problema a estudiar, con el objeto de poder atribuir las diferencias en los resultados a la acción de la intervención practicada. este tipo de estudios se emplean desde la investigación pre-registro de los medicamentos (fases i-iii), hasta las fases post-registro. tienen posibilidades de diseño muy variado y la muestra es- tudiada puede ser pequeña, 20-100 probandos o hasta los grandes estudios que incluyen a miles de pacientes, tan en boga actualmente y que son bautizados frecuentemente con un acrónimo ingenioso. ensayos de campo: tratan con sujetos que aún no han adquirido la enfermedad o con aquéllos que estén en riesgo de adquirirla, y estudian factores preventivos de enfermedades como pueden ser la administración de vacunas o el seguimiento de dietas. ensayos comunitarios: incluyen intervenciones sobre bases poblacionales amplias. este tipo de diseños suelen ser cuasi experimentales (existe manipulación pero no aleatorización), en los que una o varias comunidades recibirán la intervención, mientras que otras servirán como control. Los estudios experimentales, si tienen un diseño cuidadoso con un tamaño muestral suficiente, un proceso de aleatorización adecuado, una intervención y un seguimiento perfec- tamente controlados pueden proporcionar evidencias muy fuertes que nos permitan emitir juicios sobre la existencia de relaciones causales entre variables. [ 94 ] Frecuentemente, los estudios clínicos pequeños no alcanzan potencia estadística para sacar conclusiones, en especial cuando se intenta, por ejemplo, analizar el efecto que tiene una intervención sobre desenlaces muy importantes, como mortalidad o complicaciones graves, infartos de miocardio, accidentes vasculares cerebrales, etc. para contestar esta pregunta se requieren estudios muy grandes y seguimientos por tiempos prolongados, en general más de 4 años, por lo que estos ensayos son muy caros y toman mucho tiempo para obtener conclusiones sólidas. Una alternativa para solucionar estos problemas pueden ser los metanálisis. generalidades sobre los metanalisis en la literatura de los últimos años, nos encontramos frecuentemente con este tipo de análisis conjunto de estudios de investigación y nos será muy útil tener nociones sobre como se genera e interpreta un metanálisis. el metanálisis es una evaluación y síntesis sistemática, organizada y estructurada, de un problema de interés, con base en los resultados de varios estudios independientes realizados sobre este problema. es un “estudio de estudios” o “epidemiología de sus resultados”.1 el primer metanálisis (no con ese nombre) fue realizado probablemente en 1904 por Karl pearson, quien intentó superar el problema del reducido poder estadístico de los estudios rea- lizados con muestras pequeñas. se le ocurrió que si se acumulan los resultados de un grupo de estudios similares, se puede alcanzar un tamaño mayor de valores y el manejo estadístico puede mejorar. el término metanálisis fue introducido por Gene V. Glass,2 un psicólogo de la educación, en el año 1976. se trata de una técnica matemático-estadísticaque permite, con una certeza razonable, analizar en conjunto los resultados de estudios clínicos independientes, con hipóte- sis y enfoques analíticos similares que resulten combinables, practicados en muestras relativa- mente pequeñas, que analizados independientemente muestran resultados no conclusivos sobre el mismo problema. relaciona sistemáticamente y cuantifica gran diversidad de resultados y ofrece conclusiones cuantitativas y cualitativas sobre el aspecto estudiado. La idea es que no se pueden mezclar peras con manzanas, a menos que ambas se consideren como frutas: debido a que en estudios diferentes las diversas variables dependientes se miden en diferentes escalas, en el metanálisis la variable dependiente se transforma en una medida del tamaño del efecto, transformándola en una medida estándar equivalente a una diferencia entre las medias o fre- cuentemente a la relación de desventajas (relación de momios o en inglés “Odds ratio”). el prefijo meta implica el concepto de junto o paralelo y también puede entenderse como algo que acontece más tarde que o, simultáneamente, con algo que es más comprensivo que su precursor. algunos sinónimos utilizados incluyen: revisión cuantitativa, síntesis. De hecho los metanálisis se entienden en la Medicina Basada en evidencias como un tipo de revisión cuantitativa, pues se distinguen dos tipos de revisiones: 1. Revisiones narrativas: revisan un tema en forma más o menos exhaustiva, general- mente por un experto en el contenido. en general, el autor presenta el tema en un formato narrativo sin declarar explícitamente los métodos utilizados para obtener y seleccionar la información presentada. su debilidad radica en que no existen normas sobre cómo conseguir [ 95 ] los datos primarios o cómo integrarlos; por lo tanto, no existe un estándar para evaluar la calidad de la revisión. 2. Revisiones sistemáticas): son aquellas que resumen y analizan la evidencia respecto de una pregunta específica en forma estructurada, explícita y sistemática. típicamente, se explicita el método utilizado para encontrar, seleccionar, analizar y sintetizar la evidencia presentada. existen dos tipos de revisiones sistemáticas: a) Cualitativas: cuando se presenta la evidencia en forma descriptiva, sin análisis esta- dístico. b) Cuantitativas o Metanálisis: cuando mediante el uso de técnicas estadísticas, se combinan cuantitativamente los resultados en un sólo estimador puntual. Los metanálisis se requieren por la misma razón por la que se necesitan los grandes estudios, aleatorizados y controlados, y mientras estos se realizan pueden sustituirlos. Los estudios pequeños y medianos tienen mayor oportunidad de sufrir un sesgo estadístico, fun- damentalmente por una menor oportunidad de que el reparto entre los grupos sea realmente por azar, y frecuentemente no tienen el poder estadístico, por el tamaño de la muestra, para distinguir diferencias no tan obvias. el metanálisis, a diferencia de los grandes estudios con- trolados, no está sujeto a reglas tan estrictas, por lo que siempre sus conclusiones deben ser tomadas como interinas, mientras se tiene la información proveniente de un gran estudio. su ventaja más importante es que para brindar información, no requiere del periodo de tiempo tan largo como un buen gran estudio. el nivel jerárquico de evidencias obtenidas por los metanálisis existe gran confusión en el nivel jerárquico que ocupan los metanálisis para la obtención de evidencias. en algunas clasificaciones, como la del centro para la Medicina basada en evidencias de Oxford, la revisión sistemática de estudios controlados y aleatorizados, con homogeneidad, representa el nivel 1a, mientras que los estudios aleatorizados de casos, con intervalos de confianza estrechos constituyen el nivel 1b. pongamos en perspectiva la utilidad de los metanálisis: Un estudio clínico, pequeño o mediano, controlado y aleatorizado, sirve para estudiar • mecanismos. Un metanálisis de estudios clínicos, pequeños o medianos, y aleatorizados, sirve para • generar hipótesis y planear estudios clínicos mas dirigidos. Un estudio clínico grande, controlado y aleatorizado, sirve para obtener respuestas am-• plias y confiables. Un metanálisis de estudios clínicos grandes, controlados y aleatorizados, sirve para ob-• tener un estimado típico y no sesgado del efecto de un tratamiento o para estudiar las interacciones entre subgrupos. sin embargo existen evidencias de que la información obtenida por metanálisis aún de es- tudios grandes y muy bien hechos, es inferior a la evidencia obtenida por un estudio mayor. por ejemplo el magnesio en el tratamiento del infarto del miocardio, los estrógenos en la prevención [ 96 ] de la enfermedad cardiovascular en la mujer, los antioxidantes vitamínicos para la prevención cardiovascular, los antibióticos para clamidias en el tratamiento del síndrome isquémico coro- nario agudo, mostraron en estudios medianos y en metanálisis de ellos, ser útiles. sin embargo, cuando se practicaron estudios clínicos aleatorizados y controlados en poblaciones muy gran- des no se demostró ninguna utilidad con estos procedimientos. este fenómeno puede explicarse por la metodología del metanálisis desarrollado, pues cuando se basan solamente en datos publicados en forma agregada, solo proporcionan estimaciones del efecto de los tratamientos y de su significación, que no se confirman cuando se analiza toda la evidencia relevante. La mejor metodología es la que reúne, comprueba y analiza datos de pacientes indi- viduales procedentes de todos los ensayos relevantes. Desafortunadamente este método requiere una cantidad de tiempo considerable, así como recursos humanos y financieros muy amplios. estos estudios se conocen como metanálisis basados en datos de pacientes individuales (Dpi). por esta razón, pensamos que la evidencia obtenida del metanálisis tradicional es provi- sional y que requiere la prueba final con el estudio controlado, aleatorizado, de preferencia cegado, con un tamaño muestral suficiente para mostrar una diferencia estadísticamente sig- nificativa con intervalos de confianza muy estrechos. estos estudios son lo mejor con lo que cuenta la ciencia para “demostrar” la verdad. (La senso-percepción que es el único camino que tiene la mente para conocer el entorno, puede ser muy engañoso, por lo que el método científico es la única forma conocida de obtener certezas razonables sobre la realidad). Objetivo y utilidad de los metanálisis a. evitar el efecto producido por las variaciones del muestreo en una serie de pequeños estu- dios y, por lo tanto, comprobar la existencia de un efecto en la dirección de interés. esto es: incrementar el tamaño muestral y el poder estadístico. B. confirmar hipótesis u otra información generada en estudios preliminares o explorato- rios. c. identificar errores producidos en diversos estudios y que por su magnitud únicamente puedan ser identificados mediante su agrupación. d. Buscar asociaciones adicionales a los objetivos centrales de las investigaciones originales y que por su escasa frecuencia no pudieron ser detectadas en estudios individuales. e. Generar nuevas hipótesis que justifiquen su posterior investigación, en dos aspectos: re- conocer cuáles son las variables de mayor relevancia y cuáles las comparaciones más apropiadas y ayudar a decidir entre organizar un gran estudio en un solo sitio o varios pequeños en diferentes lugares. el proceso del metanálisis Las etapas a seguir, al practicar un metanálisis, son muy parecidas a las que se siguen con otro tipo de investigación, solamente que en este caso la unidad de observación no son pacientes o sujetos, sino estudios3. La siguiente secuencia es una modificación de la recomendada por la asociación española de Hipertensión y la Liga española de Lucha contra la Hipertensión:4 [ 97 ] se elabora un protocolo, que defina claramente los objetivos y que describa minucio-1. samente los métodos quese utilizarán durante el estudio, el establecimiento de la pregunta que se desea responder y las razones para ella se deben especificar claramente. se identifican las fuentes bibliográficas que se someterán a revisión, principalmente 2. consultas en Medline con palabras clave, en ocasiones es necesario contactar a los investiga- dores originales para obtener permisos y bases de datos. se debe realizar una búsqueda ex- haustiva, objetiva y reproducible de los trabajos originales sobre el tema, que además de bases de datos electrónicas incluya búsquedas detalladas en las revistas relacionadas y búsquedas manuales de la llamada “literatura gris” (referencias bibliográficas, tesis doctorales, comuni- caciones a congresos, informes de instituciones públicas o privadas, trabajos no publicados o publicados en revistas no indexadas, etc). La exhaustividad y el rigor de la búsqueda biblio- gráfica determinará en gran medida la calidad y validez final del metanálisis. es necesario declarar expresamente, desde antes los criterios de selección de los en-3. sayos clínicos que deben ser incluidos, esto es criterios de inclusión y exclusión clara de estudios. Los investigadores deben establecer cuáles de los trabajos recuperados serán in- cluidos finalmente en el metanálisis, elaborando una lista de criterios de inclusión y exclu- sión que deberá ser lo más objetiva posible. para evitar el denominado sesgo de selección, es importante aplicar dichos criterios rigurosamente a cada estudio, siendo recomendable que esta evaluación sea realizada de forma ciega e independiente por varios evaluadores. entre los criterios de selección utilizados con mayor frecuencia en el metanálisis están: el tipo de diseño de los trabajos, el tamaño muestral estudiado, la exhaustividad de la información que presentan o la comparabilidad en la definición de los factores de exposición, de las inter- venciones y de las respuestas estudiadas. aunque algunos autores sugieren utilizar la calidad metodológica de los trabajos como un criterio de inclusión, es más aconsejable considerarlo como una variable más a tener en cuenta en la interpretación de los resultados del metanálisis mediante un análisis de sensibi- lidad, es conveniente emplear la clasificación de la evidencia según las revistas mayores del tema. en cualquier caso, una vez valorada la calidad metodológica de cada trabajo, algunos autores proponen utilizar las puntuaciones asignadas como pesos en el metanálisis, mientras que otros defienden la utilización en su lugar de un análisis de sensibilidad. La selección de investigadores independientes que lean, clasifiquen, codifiquen, cuan-4. tifiquen y finalmente evalúen y elijan el grupo de ensayos clínicos que serán incluidos, es una opción para garantizar la equidad de acceso de los estudios. elaborar una guía de los datos que deben ser recolectados de los ensayos clínicos es-5. cogidos para ser procesados en el metanálisis. combinar los resultados obtenidos y asegurar la calidad de los datos y su procesa-6. miento estadístico adecuado. Los investigadores deberán concretar qué medidas se van a utilizar para medir el efecto de interés, en función del tipo de respuesta a estudiar y el diseño [ 98 ] de los estudios revisados. así, por ejemplo, si la respuesta es binaria (enfermedad/no enfer- medad, muerte/supervivencia,…) las medidas de efecto utilizadas suelen ser la diferencia de proporciones, el riesgo relativo o la relación de desventajas o momios. por el contrario, si la respuesta es un parámetro numérico (por ejemplo, la determinación de un parámetro analí- tico) el efecto suele medirse mediante la diferencia estandarizada de medias en los grupos de interés. Debe tenerse en cuenta que en los estudios experimentales, con grupos aleatorizados, el propio diseño controla la confusión y los efectos pueden medirse con resultados “crudos” como los descritos. por el contrario, en metanálisis realizados a partir de evidencia obser- vacional, el control del sesgo en el análisis deberá hacerse mediante técnicas de regresión multivariada, siendo los resultados de estos modelos los que deben combinarse en la etapa del metanálisis para obtener una medida global de interés. Finalmente, es también aconsejable que en el momento de planificación de la investigación se fije la diferencia mínima en la variable respuesta que será considerada de relevancia clínica. en la mayoría de los casos, el estimador del efecto combinado se calcula como una media ponderada de los estimadores de cada estudio, donde los pesos se asignan en base a la precisión de cada trabajo, generalmente el inverso de la varianza de la estimación corres- pondiente. De esta forma, los estudios con mayor variabilidad (por ejemplo, aquellos con un tamaño muestral más reducido), tienen una contribución menor en el estimador global. La heterogeneidad entre estudios puede ser tenida en cuenta en estos cálculos utilizando el llamado modelo de efectos aleatorios, o no ser incluida mediante el uso del modelo de efectos fijos.5 La principal diferencia es que con este último se considera que no existe heterogeneidad entre estudios, mientras que con el modelo de efectos aleatorios se consideran dos posibles fuentes de variabilidad, la variabilidad intra-estudio y la variabilidad entre-estudios, que se incorporan al estimador combinado a través de los pesos correspondientes. No obstante, debe tenerse en cuenta que cuando existe una gran heterogeneidad entre estudios el meta- análisis, aún bajo la suposición de efectos aleatorios, no es apropiado y lo que procede es identificar las fuentes de variabilidad y realizar un análisis por subgrupos. cuando hay información suficiente son dos los pasos que se siguen: en primer lugar la extracción del estimador específico del estudio y su error estándar y luego la combinación de esos estimados en un estimador o función de resumen. cuando la información existente es incompleta como para permitir utilizarla con algu- nos cálculos sencillos, existen métodos estadísticos complejos que permiten hacerlo: ajustes usando estimadores externos de confusión tales como factorización de riesgos relativos y ajuste de coeficientes; ajustes para sesgos de selección y clasificación; tasas y razones de regre- sión; estimación desde informes que emplean categorías amplias de exposición y estimación de coeficientes desde informes que sólo presentan promedios. el estimador adecuado puede ser una diferencia de proporciones entre dos grupos, una relación de momios, un riesgo rela- tivo, etc. cada uno de ellos tiene sus ventajas e inconvenientes y por lo tanto su elección debe ser meditada y justificada. también podemos estar evaluando una variable cuantitativa con- tinua, en cuyo caso habitualmente se utilizará como medida del efecto la diferencia de medias entre los grupos, o situaciones más complicadas, que de momento no vamos a considerar, como pueden ser variables de tipo ordinal, o variables similares a las utilizadas en el análisis de supervivencia (observaciones censuradas), etc. [ 99 ] aunque existen diferentes propuestas estadísticas para combinar estudios, hay tres fun- damentales, que se conocen con el nombre modelo de efectos fijos, modelo de efectos aleato- rios y por último el modelo bayesiano. en el modelo de efectos fijos los estudios se combinan considerando que no existe hete- rogeneidad entre ellos, y que por lo tanto todos ellos constituyen estimaciones de un efecto real, cuya magnitud se desea conocer. así pues, la inferencia realizada está condicionada a los estudios que se han efectuado. en el modelo de efectos aleatorios la inferencia se basa en suponer que los estudios in- cluidos en el análisis constituyen una muestra aleatoria del universo de estudios posibles, y sus resultados son más conservadores al tener en cuenta una fuente extra de variación, ya que ahora se incluyen dos posibles fuentes de variación: la existente dentro de los estudios y la variación entre losestudios. La utilización de modelos bayesianos constituye, una alternativa interesante a la estadís- tica inferencial clásica. 7. análisis de la heterogeneidad de los estudios: la evaluación del grado de heterogenei- dad de los estudios puede llevarse a cabo mediante distintas pruebas estadísticas, entre las que destaca la prueba Q propuesta por Der simonian y Laird.6 No obstante, estos tests pre- sentan una potencia muy baja, dado que además en la mayoría de los casos los metaanálisis incluyen un número relativamente pequeño de estudios, aumentando así la posibilidad de co- meter un error de tipo ii. por todo ello, el análisis de la heterogeneidad suele llevarse a cabo mediante métodos gráficos como el gráfico de L’abbé o el gráfico de Galbraith que permiten inspeccionar visualmente la falta de homogeneidad entre los estudios recopilados. en caso de que exista heterogeneidad entre los estudios incluidos en la revisión, los inves- tigadores pueden optar simplemente por no realizar el metaanálisis, por obtener una medida agregada del efecto de interés indicando una medida de la variabilidad entre estudios o bien por realizar un análisis por subgrupos homogéneos de ser posible identificar la causa de la heterogeneidad. 8. análisis de sensibilidad: el análisis de sensibilidad permite estudiar la influencia in- dividual de cada estudio al resultado del metaanálisis y, por lo tanto, determinar si los re- sultados pueden verse sesgados por estudios con escasa calidad metodológica, trabajos no publicados o que no cumplan estrictamente los criterios de selección, etc. consiste en replicar el metaanálisis quitando en cada paso uno de los estudios incluidos, para ver si se obtienen o no resultados similares de forma global. 9. identificación del sesgo de publicación: como en cualquier otro estudio, en un meta- nálisis deberá valorarse la existencia de posibles sesgos entre los que el sesgo de publicación es uno de los más importantes. entre los métodos disponibles para valorar el sesgo de publi- cación el gráfico en embudo o funnel plot7 es quizá el más utilizado, en el que se representa el tamaño muestral de cada trabajo frente al tamaño del efecto detectado. este tipo de gráficos, puesto que pueden dar lugar a interpretaciones poco objetivas, suelen complementarse con técnicas estadísticas como la prueba de Begg y egger.8 [ 100 ] 10. analizar e interpretar los resultados del metanálisis 11. Llegar a conclusiones y dar recomendaciones. 12. elaborar el informe final y publicar el metanálisis. en resumen el primer paso es la elaboración de un protocolo correcto de investigación, en el que se inicie describiendo el motivo para practicar el metanálisis, los objetivos que se proponen, la hipótesis que se intenta demostrar, es muy importante precisar el ámbito del cual se seleccionaran los estudios que se agruparán, el alcance para la búsqueda de trabajos y de los métodos que se utilizarán en esa búsqueda, así como los criterios de la inclusión y de la exclusión de los estudios candidatos a ser incluidos. el siguiente paso es elaborar un resumen de los datos obtenidos de los diferentes trabajos en forma estructurada y de esta forma pro- ceder al análisis, la descripción de los resultados y por ultimo su discusión. todo el proceso debe ser descrito con toda claridad en la publicación, puesto que solo se puede juzgar de la calidad de un metanálisis si se está seguro que se siguió un procedimiento alejado de sesgos. para que un metanálisis sea aceptado como fuente de información definitiva, debe cumplir con requisitos similares a los de un buen estudio clínico que serían: características cualitativas: • Un protocolo prospectivo1. Definición comparable de los eventos cruciales a incluir2. control de calidad de los datos3. inclusión de todos los pacientes, de todos los estudios seleccionados, para el análisis 4. final características cuantitativas:• cuidado de que la muestra total sea suficientemente grande para asegurar resultados 1. reales y confiables empleo de técnicas cuidadosas de estadística para constatar, que la acumulación de 2. datos es correcta y que los resultados del metanálisis puedan ser confiables. Representación gráfica de los resultados además de toda la información básica de cada estudio, se presenta la información rea- nalizada (estimación puntual del efecto, error estándar) en forma de tabla, lo cual permite visualizar la variación de los resultados. también se presenta en forma gráfica a través de un histograma ponderado de los resultados. en el caso de los metanálisis no es posible el cálculo verdadero del riesgo relativo, por lo que se recurre frecuentemente al cálculo de la relación de momios con su respectivos interva- los de confianza, la gráfica de la relación de momios nos da una impresión visual muy útil y fácil de interpretar. analicemos la figura 1 que corresponde a un metanálisis de la mortalidad [ 101 ] observada en 17 estudios de prevención secundaria, después de un infarto del miocardio,9 utilizada para explicar estos conceptos en una magnífica serie que sobre metanálisis ha pu- blicado el British Medical Journal.10 cada cuadro negro representa la relación de momios de un estudio diferente, su tamaño expresa el peso relativo de cada estudio. Las líneas horizontales corresponden a los intervalos de confianza al 95% de cada estu- dio (contienen el efecto verdadero del estudio que se repetirá en el 95% de las ocasiones en el que el estudio se efectúe nuevamente) La línea vertical sólida equivale a la relación de momios 1, que es el punto de corte en el cual el efecto del uso del betabloqueador es igual a no usarlo, llamado punto de no-efecto, de tal forma que si los cuadrados que muestran los resultados se sitúan a la izquierda de esta línea, el usar un betabloqueador es mejor que no usarlo y se sitúa del lado contrario, es mejor no usar un betabloqueador que usarlo. si los intervalos de confianza tocan o cruzan la línea de igualdad (1), la diferencia no tiene validez estadística, (p>0.05) . en este ejemplo ninguno de los estudios muestra diferencia esta- dísticamente significativa, excepto los estudios G y J, que favorecen el uso del betabloqueador. el rombo blanco indica la combinación de todos las relaciones de momios su ancho muestra los intervalos de confianza de la combinación, esto es: la relación de momios cal- culada en conjunto para los estudios incluidos en el metanálisis es de 0.28 con intervalos de confianza del 95% que van de 0.71 a 0.87. Otra manera de expresar este resultado es decir que el uso de betabloqueadores después de un infarto del miocardio reduce la mortalidad en un 22% (1 - 0.78 = 0.22 = 22%). La línea punteada que expresa la relación de momios conjunta, cruza la casi totalidad de los intervalos de confianza de cada estudio, excepto la del estudio N, lo que indica que el metanálisis se efectúo con una serie de estudios bastante homogéneos entre si. Principales problemas de los metanálisis Los dos principales problemas metodológicos de los metanálisis de ensayos clínicos son:11, 12 el “sesgo de publicación” que es una de las principales limitaciones de los metanálisis, con- siste en que no todos los ensayos clínicos realmente realizados se publican, de esta forma los trabajos con resultados positivos y significativos estadísticamente, tienen mayor probabilidad de ser publicados que los que no muestran diferencias, o estas son negativas, es decir que no hayan encontrado diferencias entre el grupo de estudio y el de control o que estos resultados resulten inesperados. por otra parte los “buenos estudios”, además de ser más aceptados, tardan menos en ser publicados y son citados con más frecuencia, lo que aumenta considerablemente la probabilidad de que aparezcan en una búsqueda bibliográfica. asimismo los ensayos con gran número de pacientes, tienen mayor probabilidad de ser publicados, aunque sean de tipo negati- vo. De entre los trabajos que sepublican, aquellos con resultados estadísticamente significativos tienen una mayor probabilidad de aparecer en las revistas importantes. por lo que no cabe duda, e incluso se han hecho estudios que lo confirman, que hay un sesgo favorecedor de determinado tipo de publicaciones, un importante sesgo de idiomas, los publicados en inglés son mucho más [ 102 ] accesibles y citados y además existe una preferencia en el número de citas, lo que conlleva a que la probabilidad de que determinados resultados intervengan o no en un metaanálisis esté sesgada. el otro problema frecuente que limita la validez externa de los metanálisis, es la hetero- geneidad entre los ensayos seleccionados para el metanálisis, que se da necesariamente por diferentes características clínicas y socio-demográficas de las poblaciones de cada ensayo, pues suceden en distintas instituciones y regiones del mundo. Los métodos de evaluación clínica aplicados, la dosis, forma farmacéutica o pauta de dosificación del fármaco evaluado, etc., resultan muy heterogéneos pues proceden de diferentes protocolos. el futuro de los metanálisis Los grandes estudios controlados y aleatorizados para conocer el impacto que las accio- nes terapéutucas tienen sobre los descenlaces importantes y para fundar nuevas indicaciones de agentes terapéuticos seguirán realizándose en el futuro, aunque quizá en menor escala por su alto costo. por lo que veremos todavía muchos metanálisis en este campo. Figura 1: ejemplo de la representación gráfica de un metanálisis. Modificada de: yusuf s y col.9 [ 103 ] Referencias Greendlands s. Quantitative methods in the review of epidemiologic literature. epide-1. miol rev 1987; 9: 1-30. thacker sB Meta-analysis: a quantitative approach to research integration JaMa 1988; 2. 259: 1685-1688. Guallar e, Banegas Jr, Martín-Moreno JM, Del río a. Metaanálisis: su importancia en 3. la toma de decisiones clínicas en cardiología. rev esp cardiol 1994; 47: 509-517 sociedad española de Hipertensión y Liga española de Hipertensión 4. www.seh-lelha.org/ stat1.htm, consultada noviembre 15-2007 egger M, smith GD, phillips aN. Meta-analysis: principles and procedures. BMJ 1997; 5. 315: 1533-1537. Dersimonian r, Laird N. Meta-analysis in clinical trials. control clin trials 1986; 7: 6. 177-188. egger M, smith GD, schneider M, Minder c. Bias in meta-analysis detect by a simple, 7. graphical test. BMJ 1997; 315: 629-634. Begg cB, Mazumsdar M. Operating characteristics of a rank correlation test for publi-8. cation bias. Biometrics 1994; 50: 1088-1101. yusuf s, peto r, Lewis J, collins r, sleight p. Beta blockade during and after myocardial 9. infarction: an overview of the randomized trials. prog cardiovasc Dis 1985; 27:335- 371 egger M, smith GD, phillips aN. Meta-analysis: principles and procedures. BMJ 1997; 10. 315:1533-1537 ruano-raviña a, Figueiras a, Barros-Dios JM. el metaanálisis a debate. Med clin 11. (Barc) 2002; 119(11): 435-439. egger M, smith GD. Meta-analysis bias in location and selection of studies. BMJ 1998; 12. 316: 61-66. [ 104 ] Capítulo 9 ¿Que es cardiología basada en la evidencia? Salim Yusuf Rafael Díaz en 1836, el editor del american Journal of Medical sciences, elisha Bartlett, presentó un estudio declarándolo como “uno de los más importantes trabajos médicos del siglo que marcará el comienzo de una nueva era en la ciencia.” Dicha proclama, que sugería un cambio de paradigma, la determinaba una colección sistemática y presentación numérica de una serie de datos acerca de flebotomías (sangrías) efectuadas por el Dr pierre Louis.1 este médico Fran- cés acumuló una vasta cantidad de datos de una gran cantidad de pacientes durante sus años de actividad como clínico y anatomopatólogo en el hospital parisino de la charité. Louis fue un clínico meticuloso, lo cual tuvo importantes implicancias en la calidad de su investigación sobre la eficacia de la flebotomía para el tratamiento de la neumonía. Después de establecer en cada paciente el tiempo desde el inicio de los síntomas, analizó la duración de la enfermedad y la frecuencia de muerte según el momento en que se efectuó la primera sangría, obteniendo dos grupos comparables. Louis argumentaba que esto era necesario para equilibrar las diferencias entre ellos, pues “siguiendo esta metodología los errores (que son inevitables) se distribuyen igualmente en los dos grupos de pacientes sometidos a diferente tratamiento y, de esta manera, se compensan mutuamente pudiendo ser desestimados sin afectar sensiblemente la exactitud de los resultados”.2 Louis proseguía: “un agente terapéutico no puede ser empleado con alguna probabilidad de éxito, a menos que su eficacia en casos análogos haya sido previamente docu- mentada y así, sin la ayuda de la estadística, nada que se parezca a la medicina es posible”.3 el concepto prevaleciente de la época era que los enfermos se hallaban contaminados, bien por alguna toxina o contagio, o por un exceso de uno u otro. esta concepción de la en- fermedad contenía en sí la idea de que esos estados mejorarían abriendo una vena para dejar salir el padecimiento al exterior. La investigación de Louis comprobó que la sangría aceleraba la muerte de los pacientes portadores de neumonía, mostrándose como una sorpresa devas- tadora. precisamente, a George Washington se le habían extraído 2,4 litros de sangre en las 15 horas previas a su muerte: había estado padeciendo fiebre, dolor de garganta y dificultad respiratoria durante 24 horas.4 Basados en la observación de Louis algunos han sostenido que Washington fue asesinado.5-7 aunque éste es un ejemplo relativamente reciente, el reclamo de una evaluación compa- rativa se materializó tempranamente, y a través de la historia hubo repetidos exhortos para cuantificar los problemas médicos o sanitarios y para comparar los resultados en grupos de [ 105 ] pacientes bajo diferentes conductas terapéuticas y asistir a los médicos en forma individual. En este capítulo discutiremos el significado de la medicina basada en la evidencia y su consecuente toma de decisiones. Desarrollaremos un caso clínico como recurso didáctico en la aplicación de estos conceptos. ¿Qué es la medicina basada en la evidencia? Aunque los fundamentos de la medicina basada en la evidencia fueron establecidos a lo largo de varias centurias, recién en las últimas décadas ha sido concebida como una filosofía explícita, con sus conceptos, definiciones y modelos conexos que la instalan como una doctrina formal. La medicina basada en la evidencia es un recurso que procura hallar la mejor evidencia experimental, objetiva, cuantificable y relevante para resolver un pro- blema en particular.8 Este enfoque le quitó énfasis “a la intuición, la experiencia clínica no sistemática y al fundamento fisiopatológico aislado como bases suficientes para la toma de decisiones clínicas”, acentuando la importancia de “el examen de la evidencia a partir de la investigación clínica”.9 Sin embargo, la evidencia experimental aislada nunca es sufi- ciente para tomar una decisión clínica. El médico siempre debe interpretar a la evidencia en el contexto del paciente individual, y analizar desde una perspectiva costo beneficio la apli- cabilidad de esa evidencia en esa situación clínica particular. Además, deben considerase igualmente las preferencias y los valores del paciente. 10 La figura 1 está basada en la prime- ra edición de Evidence-Based Medicine11 y fue publicada en una editorial del ACP Journal Club y Evidence-Based Medicine en 1966, cuya definición es: “La medicina basada en la evidencia consiste en el empleo juicioso y consciente de la mejor evidencia disponible pro- veniente de la investigación clínica en el manejo de pacientes individuales”.12 Asimismo, la editorial incluía la advertencia de que la definición evolucionaría a medida que emergieran nuevos tipos de información, y por ello debería depurarse y mejorarse continuamente. Figura 1. Modelo tempranode los elementos clave para las decisiones clínicas basadas en la evidencia. [ 106 ] Los conceptos de medicina basada en la evidencia han evolucionado considerablemente y el modelo inicial ha sido recientemente ampliado, especialmente en lo que se entiende por expe- riencia clínica y en lo concerniente a la consideración de las circunstancias clínicas. en la sección siguiente utilizamos este nuevo modelo de “decisiones clínicas basadas en la evidencia” para ayudar a resolver un caso clínico frecuente. enfoque de la toma de decisiones basada en la evidencia. Panorama clínico Un médico de familia le envía a usted un paciente y requiere su contribución en el tema de la terapéutica antitrombótica. Se trata de un hombre de 80 años con historia de hiperten- sión arterial, en quien hace 10 meses se constató una fibrilación auricular en un examen de rutina. Al día siguiente de este diagnóstico, el paciente sufrió una hemorragia digestiva que requirió hospitalización, endoscopía y transfusión de sangre urgentes. El paciente no había iniciado terapéutica antitrombótica pero sí había recibido AINES por una osteoartritis. Continuó libre de síntomas gastrointestinales y mediante la ingesta de acetaminofeno ha evitado exitosamente a los AINES. Ocho meses atrás el ecocardiograma evidenció función ventricular izquierda normal, ausencia de alteraciones estructurales y funcionales valvula- res y aurícula izquierda severamente dilatada (65 mm). Basado en la duración de la arritmia usted decide que la cardioversión no es una opción válida. El paciente está muy preocupado por la posibilidad de padecer un accidente cerebrovascular (ACV), ya que su esposa, luego de un ACV mayor, quedó completamente dependiente de él durante los 2 años previos a su muerte. El médico referente, quien recientemente tuvo un paciente que sufrió serio sangrado gastrointestinal mientras se hallaba recibiendo warfarina, se encuentra muy preocupado acerca del riesgo de sangrado que presenta su paciente actual, considerando su edad y la historia reciente de hemorragia digestiva. Nuevo modelo para las decisiones clínicas basadas en la eficiencia La Figura 2 muestra la evolución del modelo para las decisiones clínicas basadas en la evidencia, 8 que ha sido redefinido recientemente como “la integración de la mejor eviden- cia clínica con las habilidades clínicas (expertise) y el juicio u opinión del paciente”.13 este modelo representa un enfoque deseable de cómo deberían ser construidas las decisiones clí- nicas. No obstante, reconocemos que actualmente muchas de las decisiones clínicas no son realizadas de este modo. por ejemplo, hoy en día, las preferencias individuales de los médicos (que no son lo mismo que sus habilidades clínicas), tienen a menudo un gran papel en sus decisiones, llevando a “grandes variaciones en lo concerniente al manejo práctico” de casos similares. De esta manera, confrontados con pacientes críticamente enfermos, distintos mé- dicos pueden instituir diferentes intervenciones.14 Nuestro modelo acepta que las preferencias de los pacientes sean consideradas en primer término anteponiéndose a las preferencias de los médicos, siempre que esto sea factible. en la Figura 2, el “estado y circunstancias clínicas del paciente” reemplaza a la “habi- lidad clínica” como uno de los elementos clave en la toma decisiones. Las “preferencias del [ 107 ] paciente” son extendidas hasta incluir las acciones del paciente, y éstas se superponen con “evidencia experimental”, comprometiendo su frecuente precedencia frente a ésta. integrar los tres aspectos requiere juicio y experiencia clínica, constituyendo un cuarto elemento integrador. Describiremos cada componente, y el rol de la experiencia clínica que los fu- siona. Figura 2. Modelo en evolución para las decisiones clínicas basadas en la evidencia estado clínico y circunstancias del paciente el estado clínico y las circunstancias del paciente juegan a menudo un papel dominante en la toma de decisiones clínicas. Los ensayos clínicos nos proporcionan resultados que refle- jan al paciente promedio dentro de los grupos de tratamiento del estudio, “pero raramente el paciente de la práctica clínica es el mismo que el paciente promedio del estudio clínico”. Los pacientes individuales tienen características únicas y poseen en un menor o mayor nivel de riesgo de eventos, o de efectos colaterales del tratamiento, que el del paciente promedio del ensayo clínico. así, las decisiones clínicas óptimas deberían ser ajustadas al estado clínico del paciente. Un paciente que presenta alto riesgo de un futuro evento vascular pero bajo riesgo para cualquier complicación derivada del uso de una determinada droga (por ejemplo, un paciente con colesterol LDL de 300 mg/dl post infarto de miocardio y ninguna contra- indicación para terapia con estatinas), o a la inversa, un paciente que se halla en bajo riesgo de eventos y en alto riesgo de complicaciones por el tratamiento (por ejemplo, un hombre de 40 años con fibrilación auricular sin factores de riesgo para acV que ha experimentado un sangrado gastrointestinal importante), exhiben estados clínicos que pueden dominar el desarrollo del proceso de decisión. es notable que los círculos correspondientes a estado, circunstancias clínicas y evi- dencia experimental se superpongan. Frecuentemente la evidencia experimental puede in- [ 108 ] formarnos acerca de la influencia del estado y las circunstancias clínicas. considerando a nuestro paciente, los datos reunidos de cinco estudios clínicos randomizados (ecrs) que evaluaron la eficacia de la warfarina en pacientes con fibrilación auricular no valvular (FaNV), demostraron una tasa media anual de acV del 4-5% y una tasa de sangrado ma- yor del 1% en pacientes que no reciben medicación antitrombótica. Los investigadores, que combinaron los cinco ecrs, usaron los datos de los pacientes del grupo control para desa- rrollar una herramienta para la predicción clínica que permitiera estimar el riesgo anual de acV. en estos pacientes los factores de riesgo que predijeron acV en forma independiente fueron la edad, historia de hipertensión arterial, diabetes, y acV o ataque isquémico tran- sitorio previo. el riesgo anual de acV para nuestro enfermo resulta estimado en 8%, más alto que el 4.5% del paciente control promedio de los cinco ecrs.15 análogamente, ha sido desarrollada una herramienta de predicción clínica del riesgo de sangrado mayor (definido como la pérdida del equivalente a dos unidades de sangre en 7 días, o sangrado que amena- ce la vida) durante el tratamiento con warfarina.16 Los factores de riesgo que lo predicen en forma independiente incluyen edad >65 años, historia de acV, historia de sangrado gastro- intestinal, infarto de miocardio reciente, anemia, insuficiencia renal y diabetes (nótese que varios de los factores que predicen un mayor riesgo de acV, aumentan asimismo el riesgo de sangrado). el riesgo de sangrado mayor de nuestro paciente, igual a 8%, también difiere de aquél del paciente promedio tratado con warfarina en los cinco ecrs, cuyo riesgo anual de sangrado fue del 1.3%. No tenemos conocimiento de instrumentos clínicos diseñados para predecir sangrado mayor durante la ingesta de aspirina, y los ensayos clínicos sobre fi- brilación auricular no tenían una potencia suficiente para estimarlo. No obstante, basados en los resultados del meta-análisis realizado por los investigadores del grupo Antithrom- botic Trialists’ Collaboration, esperaríamos que la aspirina aumente el riesgo de sangrado mayor en 1% a 1.3% en promedio.17 Las circunstancias médicas en las cuales se encuentran usted y su paciente (como su po- sibilidad de administrar y controlar el tratamiento) pueden ser muy diferentes de las de un ecr. por ejemplo, el paciente puede no tener la posibilidad de controlar el nivel de anticoa- gulación con la necesaria frecuencia. No obstante, para un paciente con las mismas carac- terísticas clínicas es posibleoptimizar las circunstancias clínicas para disminuir el riesgo de un evento o de un efecto colateral del tratamiento. por ejemplo, podemos disminuir el riesgo de sangrado por warfarina mediante un monitoreo más intenso de sus parámetros de coagulación. Luego, una decisión “basada en la evidencia” acerca de la anticoagulación para un paciente con fibrilación auricular, no está solamente determinada por la eficacia demostrada de la terapia antitrombótica y por sus potenciales efectos adversos, sino que oscilará según el estado clínico del paciente y de acuerdo con las circunstancias clínicas individuales. Preferencias y acciones de los pacientes Los pacientes pueden o no poseer firmes opiniones sobre sus opciones terapéuticas, de- pendiendo de su estado, valores y experiencias personales, grado de aversión al riesgo, re- cursos y seguros de salud, familia, voluntad de tomar la medicación, información exacta o [ 109 ] incorrecta a su disposición, etc.8 individuos con estados clínicos y circunstancias muy seme- jantes pueden elegir cursos de acción muy diferentes, a pesar de haber sido confrontados con la misma información acerca de los beneficios y riesgos de una intervención. para nuestro paciente con FaNV la evidencia experimental nos provee información so- bre las diferentes preferencias de los pacientes y sus médicos respecto de la terapia anti- trombótica en la fibrilación auricular, al evaluar los riesgos de acV y sangrado.18 en este caso, los participantes (médicos y pacientes) revisaron material que describía en detalle las consecuencias en el corto y largo plazo de un acV mayor y menor y de un sangrado mayor. a los participantes se les informó que la probabilidad de acV mayor y menor era la misma. Los participantes fueron entonces interrogados mediante un cuestionario técnico (trade-off technique*) que determinaba el número mínimo de acVs que sería necesario poder prevenir para que cada participante juzgara que la terapia antitrombótica estaba justificada (valor determinado para la warfarina y la aspirina), considerando el riesgo asociado de sangrado, costos e incomodidades. La misma técnica fue empleada para determinar el número máximo de sangrados que el participante consideraría aceptable con la terapéutica antitrombótica (determinado para warfarina y aspirina dados los beneficios en términos de reducción de los acV con esta terapia). este estudio demostró una variabilidad significativa entre médicos y pacientes en su ponderación de los posibles resultados asociados con la fibrilación auricular y su trata- miento. Los pacientes requerían menos reducción de los acV y eran más tolerantes con el riesgo de sangrado que los médicos. por ejemplo, en promedio, los pacientes se hallaban dispuestos a aceptar el riesgo de 17 eventos extra de sangrado mayor en 100 pacientes en un período de 2 años, si la warfarina prevenía 8 acVs entre esos 100 individuos. Los médicos, no obstante, estaban dispuestos a aceptar solamente 10 eventos de sangrado mayor por el mismo nivel de beneficios. Más aún, los médicos variaban significativamente acerca de qué riesgo de sangrado era aceptable para una determinada reducción en los acV asociada con un agente antitrombótico. De este modo, distintos médicos darían recomendaciones muy diferentes al mismo paciente con idénticos riesgos de sangrado y acV. esto subraya la importancia de guiar las decisiones por medio de los valores y preferencias del paciente. es el paciente el que está en riesgo de eventos y así, “siempre que lo desee y sea apto para hacerlo”, debería ser él quien pondere los potenciales beneficios versus los riesgos, costos e incomodidades. existe controversia en cuanto al modo óptimo de obtener e incorporar las preferencias del paciente en la elaboración de las decisiones clínicas. Un método es discutir los beneficios y los riesgos potenciales con el paciente e incorporar la impresión del médico acerca de las preferencias del paciente en la decisión clínica. cualesquiera que sus preferencias puedan ser, las conductas de los pacientes pueden dife- rir de sus preferencias y de los consejos del médico.19 por ejemplo, un paciente puede preferir perder peso, dejar de fumar y tomar sus medicamentos de acuerdo a las prescripciones, pero * trade-off technique: postula que un individuo puede elegir entre un conjunto de alternativas disponibles de forma que maximice su satisfacción. Ello implica que conoce cada una de las alternativas y es capaz de evaluarlas. En el caso de un individuo racional y consistente es posible definir una función de valor (determinística) o una función de utilidad (probabilística) que represente sus preferencias. [ 110 ] su conducta contrastar y estar alejada para llegar a alcanzar esos objetivos. alternativamen- te, pueden seguir el tratamiento como está prescripto, aún siendo renuentes a la imposición, los efectos adversos y el costo. Desafortunadamente, las estimaciones de los médicos sobre la adherencia de sus pacientes a los tratamientos prescriptos no tienen más exactitud que la de una conjetura. 20 Debemos reconocer que actualmente las preferencias de los pacientes raramente son in- corporadas a la práctica clínica. esto puede estar relacionado con la falta de entrenamiento del médico en este tipo de enfoques, el recelo de transitar por terrenos poco familiares, y tam- bién en muchas circunstancias a la falta de información cuantitativa exacta de los posibles peligros o beneficios y sobre herramientas de predicción del riesgo. evidencia experimental Nosotros respaldamos una definición muy amplia de la evidencia experimental, que podría ser: “cualquier observación empírica acerca de la relación aparente entre eventos”. De acuerdo con esta definición, la evidencia experimental incluye desde la observación no sistemática de un solo médico, hasta la revisión sistemática de grandes ecrs. No toda la evidencia se origina por igual, y por lo tanto hay una jerarquía de evidencias que varía según se trate de decisiones diagnósticas, pronósticas o terapéuticas. 21 toda evidencia es valiosa, y “la mejor evidencia disponible debe ser entonces consi- derada”. así, las observaciones no sistemáticas de los colegas no deberían ser desestima- das cuando no existe un nivel de evidencia mayor. ciertamente, las observaciones aisladas pueden conducir a concepciones muy valiosas, y los clínicos experimentados generalmente tienen respeto por los conceptos de sus colegas más avezados. No obstante, es igualmente importante reconocer que las observaciones no sistematizadas están corrientemente limita- das por el pequeño número de casos observados, la variabilidad de los resultados, la falta de objetividad y las dificultades para integrar otras variables (por ejemplo, al tomar en cuenta la historia natural de la enfermedad, el efecto placebo y el deseo del paciente de complacer al médico).22 toda evidencia tiene limitaciones, aunque la mayoría de los avances en medicina son inicialmente traídos a la luz a través de observaciones individuales, estudios fisiológicos, observacionales o ensayos controlados y randomizados designados para evaluar eventos su- rrogantes. sin embargo, hubo varios descubrimientos que causaron marcada confusión y, en algunas oportunidades, han llegado a producir daño. es importante recordar que no han sido pocos los casos de resultados contradictorios entre diferentes estudios, con distintos niveles de jerarquía en la tabla de evidencias. Quizá el ejemplo más importante está en la historia de la terapia antiarrítmica. a pesar de la evidencia alentadora de que la encainida y la flecainida podían prevenir la extrasistolia ventricular, un ecr demostró una mayor tasa de mortalidad con esas drogas que con placebo, resultando en una muerte extra por cada 20 pacientes que recibían esta terapéutica.23 se estima que más norteamericanos murieron a causa de esas dro- gas que en la guerra de Vietnam.24 en forma ideal, correspondería tener evidencias entodos los niveles de jerarquía, evidencias que deberían ser coherentes con cada uno de estos niveles [ 111 ] transformándolas en las más convincentes. No obstante, esto raramente ocurre, porque to- davía los ecrs exhiben frecuentemente por azar hallazgos contradictorios, especialmente cuando son pequeños. por lo tanto, es deseable utilizar el mayor nivel de evidencia disponible para la toma de decisiones, como la proveniente de la revisión sistemática de varios ecrs o, simplemente, de un extenso ecr bien diseñado. el ecr es una herramienta muy poderosa porque la rando- mización es nuestro único medio para reducir el sesgo en las comparaciones de tratamientos, al controlar factores pronósticos conocidos y desconocidos.25 es así que, los ecrs tienen la posibilidad de proveer la más “valiosa estimación del efecto” del tratamiento y cuando sus criterios de inclusión son amplios aumentan la generalización de sus hallazgos (validez externa).26 retornando a nuestro caso del paciente con FaNV, el mayor grado de evidencia procede de una revisión sistemática de todos los ecrs que han evaluado la terapia antitrombótica en pacientes con fibrilación auricular.27 este estudio demuestra que la warfarina reduce el riesgo relativo de acV (isquémico y hemorrágico) en 62%, y la aspirina en 22%. considerando el riesgo de sangrado asociado con la terapia con warfarina, hay un ecr que demuestra un 50% de disminución del riesgo de sangrado si el paciente está dispuesto a someterse a un proceso de aprendizaje, entrenamiento y auto-monitoreo del tiempo de pro- trombina.28 experiencia clínica La toma de decisiones requiere experiencia clínica para establecer y balancear el esta- do del paciente, sus condiciones, preferencias, conductas y la mejor evidencia experimental disponible. antes de considerar cualquier decisión terapéutica se necesita la pericia clínica suficiente para obtener un diagnóstico y un pronóstico correctos. como se ha visto, los pro- cedimientos para la predicción clínica pueden ser extremadamente útiles para determinar el pronóstico del paciente, pero es muy improbable que puedan eliminar la necesidad de un juicio sólido basado en la experiencia clínica. como parte de la experiencia clínica, la comunicación con el paciente adquiere gran importancia debido a un creciente deseo de los pacientes de involucrarse en las decisiones relativas a su salud. La experiencia clínica es necesaria para proveer a los pacientes la in- formación que necesitan, conocer sus preferencias e incorporarlas en las decisiones. actual- mente no existe consenso acerca de cómo debe presentarse la información a los pacientes y cómo incorporar sus preferencias. No obstante, sabemos que la información no debe ma- nifestarse en términos relativos (por ejemplo, la warfarina disminuirá su riesgo en de acV en 62%).29 Una reciente revisión sistemática de ecrs que comparaban ayudas de decisión (trade-off technique) con los métodos tradicionales de involucrar/informar a los pacientes en la toma de decisiones, demostró que las ayudas de decisión, al contrario que los métodos corrientes, mejoraban los puntajes promedio de comprensión de las opciones y resultados posibles en 20% (95% ci 13 – 25), redujeron los puntajes de conflicto de decisiones (esto es, los pacientes se sintieron más seguros, informados y orientados acerca de los alcances de su decisión), y aumentaron la participación del paciente en la toma de decisiones. 30 [ 112 ] cuando es accesible, la ayuda de decisiones potencialmente provee un medio para facilitar la presentación de la información, la incorporación de las preferencias y la participación en el proceso de la toma de decisiones. Los roles variables de los componentes de las decisiones clínicas basadas en la evidencia Dependiendo de las circunstancias, podría predominar cualquiera de los círculos del nuevo modelo. esto puede visualizarse variando el tamaño de los círculos para reflejar su contribución efectiva a la decisión clínica. a veces, el estado clínico o la situación del paciente dominan la determinación médica. por ejemplo, el proceso de toma de decisiones en un pa- ciente que se halla en alto riesgo de eventos y bajo riesgo de complicaciones, puede hallarse dominado por el estado clínico. Un paciente que vive en un área remota puede no tener acceso al monitoreo de la anticoagulación, y esto probablemente dominaría el proceso de toma de decisiones. Las preferencias del paciente pueden ser tan fuertes que actúen como factor deter- minante en dicho proceso. tal el caso de algunos pacientes que no querrán recibir productos derivados de la sangre sin importar su situación clínica. La evidencia experimental puede ser el factor principal cuando el beneficio de una inter- vención es moderado a importante y el riesgo es pequeño, como la terapéutica con bloquean- tes beta adrenérgicos en pacientes post-infarto de miocardio, los inhibidores de la enzima convertidora de la angiotensina ii en la enfermedad coronaria o la insuficiencia cardíaca, o la reducción del colesterol con estatinas. Finalmente, la experiencia clínica puede predominar, especialmente cuando se trata de recursos técnicos. aplicación a nuestro paciente para nuestro paciente la evidencia sugeriría un 8% de riesgo de acV anual y 1% de riesgo de sangrado mayor sin terapia antitrombótica. con warfarina esperaríamos que el riesgo anual de acV se redujera al 3% y el de sangrado mayor aumentara a 8%. este último podría ser reducido al 4% si el paciente estuviera dispuesto a controlar él mismo su tiempo de protrombina y cumplir un programa de educación relacionada con ello, como se ha discutido más arriba.28 con aspirina esperaríamos que la tasa anual de acV disminuyera a 6% y el riesgo de sangrado mayor aumentara a 1.3%. como se ha discutido anteriormente, no hay consenso en cuanto a cómo presentar esta información a nuestro paciente o cómo incorporar sus preferencias. Nosotros hemos elabo- rado una ayuda de decisiones para pacientes que describe la fibrilación auricular (tabla 1), un acV mayor y uno menor (tabla 2), un sangrado severo (tabla 3) y un balance de las proba- bilidades resultantes para ningún tratamiento, tratamiento con aspirina, y tratamiento con warfarina (Figura 3). tabla 1. Fibrilación auricular: el desorden más común del ritmo cardíaco Riesgo Las chances de desarrollarla aumentan con la edad y está presente en alrededor del 10% de las personas por encima de los 75 años de edad. Síntomas Latidos cardíacos irregulares y habitualmente rápidos, percibidos como un aleteo en el pecho. Algunos pacientes no tienen molestias y no están al tanto de que padecen fibrilación auricular. Complicaciones (Stroke) Accidente cerebrovascular (“ataque cerebral”) La fibrilación auricular aumenta el riesgo de desarrollar coágulos en el corazón. Estos pueden ser arrastrados por la sangre hasta el cerebro, produciendo un accidente cerebrovascular. Con la fibrilación auricular las chances de desarrollar un “ataque cerebral” aumenta con la edad (mayor de 65 años), alta presión arterial, diabetes, insuficiencia cardíaca, y con el previo antecedente de “mini-ataques” (mini-strokes). El riesgo de desarrollar un accidente cerebrovascular con la fibrilación auricular varía, dependiendo en cuántos de los factores arriba mencionados tiene usted. Tratamiento Hay medicaciones para “licuar o disolver” la sangre, que ayudan a prevenir los coágulos y por lo tanto el “ataque cerebral” (stroke). La sangre “licuada” aumenta a su vez el riesgo de sangrado. tabla 2. Los accidentes cerebrovasculares pueden ser mayores o menores según su severidad. si usted padece uno a causa de la fibrilación auricular, las posibilidades de que sea mayor o menor, son las mismas. Accidente menor Accidente mayor Síntomas físicos Súbitamente usted no puede mover o “sentir” un brazo y una pierna. Súbitamente usted no puede mover un brazo y una pierna. No puede tragar. Síntomas mentales No puede comprendercompletamente lo que se le dice y tiene dificultad para expresarse. Es incapaz de comprender lo que se le dice y de hablar. Dolor No siente dolor No siente dolor Recuperación Es internado. Su debilidad, embotamiento y problema con el habla mejoran, pero todavía siente algo débil o torpe un brazo o pierna. Puede realizar casi todas sus actividades como antes del ataque. Puede manejarse en forma independiente. Deja el hospital luego de 1 semana. Es internado. No se puede vestir por sí mismo. Las enfermeras lo alimentan. No puede caminar. Después de 1 mes de fisioterapia puede mover los dedos de los pies y levantar el brazo de la cama. Permanece en este estado por el resto de su vida. Riesgo subsiguiente Tiene un mayor riesgo de sufrir otros ataques cerebrales. Su muerte será causada probablemente por otras enfermedades. [ 114 ] Las descripciones de acV mayor y menor, y de sangrado severo, son ligeras modifica- ciones de las desarrolladas y chequeadas por Man-son Hing y colegas.31 también hemos personalizado el balance de las probabilidades para nuestro paciente, asumiendo que rea- lizaría el monitoreo de su tiempo de protrombina en caso de decidir terapia con warfarina (Figura 4). tabla 3. sangrado severo mientras toma warfarina o aspirina: un ejemplo a nivel del estó- mago. Físicamente Usted no se siente bien durante 2 días, entonces tiene un vómito de sangre. Tratamiento Es hospitalizado. Suspende la toma de warfarina o aspirina. Un médico lo examina mediante un tubo que pasa por la garganta, para localizar de dónde viene la sangre. Recibe sedación para aliviar las molestias del examen. No necesita operaciones (cirugía). Recibe transfusiones de sangre para reemplazar la que ha perdido. Recuperación Permanece en el hospital por una semana. Hacia el final de su estadía en el hospital, ya se siente bien. Necesita tomar pastillas durante 6 meses, para evitar un nuevo sangrado. Luego de todo esto, usted ha vuelto a la normalidad. al alcanzar esta decisión clínica basada en la evidencia, nuestra tarea aún no está com- pleta. el paciente necesitará control para asegurar que él está en condiciones de seguir y concretar el tratamiento indicado. Una ventaja de la ayuda de decisiones provista es que el paciente puede llevar a su domicilio la información y no tiene que confiar en su memoria para recordar los hechos discutidos durante la entrevista médica. Limitaciones del modelo de decisión clínica basado en la evidencia este modelo no toma en cuenta los importantes roles que la sociedad, los gobiernos y las organizaciones de salud pueden jugar en la toma de decisiones. Nosotros nos hemos limitado deliberadamente a la consideración de las decisiones tomadas por los pacientes y sus provee- dores de salud, a fin de permitir un examen enfocado de los temas involucrados en forma inmediata al tomar cualquier decisión. por ejemplo, la falta de reembolso de la angioplastia transluminal coronaria primaria en el infarto agudo de miocardio puede tener un enorme impacto en los resultados de las políticas de salud, e impondrá una decisión clínica sobre todos los pacientes y los médicos al eliminar esta opción. en estos casos, los médicos deberán intervenir considerando las condiciones clínicas de sus pacientes. [ 115 ] Figura 3. Conclusiones Los fundamentos de la medicina basada en la evidencia han sido establecidos a lo largo de los siglos pero las filosofías específicas, conceptos, definiciones y modelos han evolucio- nado esencialmente en las últimas décadas. La medicina basada en la evidencia trata de la solución de problemas clínicos. La toma de decisiones basada en la evidencia depende de la utilización de la experiencia clínica para integrar la información acerca del cuadro clínico y las condiciones de un paciente, con la mejor evidencia experimental disponible, incorporan- do al mismo tiempo las preferencias y conductas del enfermo. Sin medicación anticoagulante Chance de ACV en los próximos 2 años es ……por 100. Chance de sangrado severo en los próximos 2 años es ……por 100. Aspirina Chance de ACV en los próximos 2 años es ……por 100. Chance de sangrado severo en los próximos 2 años es ……por 100. Warfarina Chance de ACV en los próximos 2 años es ……por 100. Chance de sangrado severo en los próximos 2 años es ……por 100. [ 116 ] Figura 4 Referencias 1. Louis pca. researches on the effects of blood-letting in some inflammatory diseases, and on the influence of tartarised antimony and vesication in pneumonitis. Am J Med Sci 1836;18:102-11. 2. Louis pca. researches on the effects of Bloodletting in some inflammatory Diseases and on the influence of tartarised antimony and Vesication in pneumonitis. translated by cG putnam. Boston: Hilliard, Gray, 1836. 3. Louis pca. Medical statistics. Am J Med Sci 1837; 21: 525-8. 4. Morens DM. Death of a president. N Engl J Med 1999; 341: 1845-9. 5. Lloyd JU. Who killed George Washington? Eclectic Med J1923; 83: 3536, 403-8, 453-6. 6. Marx r. a medical profile of George Washington. Am Heritage 1955; 6: 43-7, 106-7. 7. pirrucello F. How the doctors killed George Washington. Chicago Tribune Magazine, 20 February 1977. 8. Haynes rB, Devereaux pJ, Guyatt GH. clinical expertise in the era of evidence-based medicine and patient choice. ACPJournal Club 2002; 136: a11-a13. 9. evidence-based medicine working group. evidence-based medicine, a new approach to teaching the practice of medicine. JAMA 1992; 268: 2420-5. Sin medicación anticoagulante Chance de ACV en los próximos 2 años es …8…por 100. Chance de sangrado severo en los próximos 2 años es …1…por 100. Aspirina Chance de ACV en los próximos 2 años es …6…por 100. Chance de sangrado severo en los próximos 2 años es ..1,3...por 100. Warfarina Chance de ACV en los próximos 2 años es …3…por 100. Chance de sangrado severo en los próximos 2 años es …4…por 100. [ 117 ] 10. Haynes rB, sackett DL, Gray JMa, cook Dc, Guyatt GH. transferring evidence from research into practice: 1. the role of clinical care research evidence in clinical decisions. ACPJournal Club 1996; 125: a-14. Evidence-Based Medicine1996; 1: 196. 11. sackett DL, richardson sr, rosenberg W, Haynes rB. Evidence-Based Medicine: how to practice and teach EBM. London: churchill Livingstone, 1997. 12. sackett DL, rosenberg WMc, Gray Ja, Haynes rB, richardson Ws. evidence-Based Medicine: What it is and what it isn’t. BMJ 1996; 312: 71-2. 13. sackett DL, straus s, richardson sr, rosenberg W, Haynes rB. Evidence-Based Medi- cine: how to practice and teach EBM, 2nd edn. London: churchill Livingstone, 2000. 14. cook DJ, Guyatt GH, Jaeschke r. Determinants in canadian health care workers of the decision to withdraw life support from the critically ill. JAMA 1995; 273: 703-8. 15. atrial Fibrillation investigators. risk factors for stroke and efficacy of antithrombotic therapy in atrial fibrillation. Arch Intern Med 1994; 154: 1449-57. 16. Beyth rJ, Quinn LM, Landefeld s. prospective evaluation of an index for predicting the risk of major bleeding in outpatients treated with warfarin. Am J Med 1998; 105: 91-9. 17. antithrombotic trialists’ collaboration. collaborative metaanalysis of randomised trials of antiplatelet therapy for prevention of death, myocardial infarction, and stroke in high risk patients. BMJ 2002; 324: 71-86. 18. Devereaux pJ, anderson Dr, Gardner MJ et al. Differences between perspectives of phy- sicians and patients on anticoagulation in patients with atrial fibrillation: observational study. BMJ 2001; 323: 1218-22. 19. Haynes rB. improving patient adherence: state of the art, with a special focus on medi- cation taking for cardiovascular disorders. in: Burke Le, Okene is (eds). Patient Com- pliance in Healthcare and Research. american Heart association Monograph series. armonk, Ny: Futura publishing co, 2001. 20. stephenson BJ, rowe BH, Macharia WM, Leon G, Haynes rB. is this patient taking their medication? JAMA 1993; 269: 2779-81. 21. GuyattG, Haynes B, Jaeschke r et al. introduction: the philosophy of evidence-based medicine. in: Guyatt G, rennie Dr (eds). Users’ guides to the medical literature. aMa press, 2002. 22. Nisbett r, ross L. Human Inference. englewood cliffs, NJ:prentice-Hall, 1980. 23. echt Ds, Liebson pr, Mitchell LB. Mortality and morbidity in patients receiving encai- nide, flecainide, or placebo: the cardiac arrhythmia suppression trial. N Engl J Med 1991; 324: 781-8. 24. Moore tJ. excess mortality estimates. Deadly medicine: why tens of thousands of heart patients died in America’s worst drug disaster. New york: simon & schuster, 1995. 25. Kunz r, Oxman aD. the unpredictability paradox: review of empirical comparisons of randomised and non-randomised clinical trials. BMJ 1998; 317: 1185-90. 26. chalmers i. Unbiased, relevant, and reliable assessments in health care. BMJ 1998; 317: 1167-8. 27. Hart rG, Benavente O, McBride r, pearce La. antithrombotic therapy to prevent stroke in patients with atrial fibrillation: a meta-analysis. Ann Intern Med 1999; 131: 492-501. 28. Beyth rJ, Quinn L, Landefeld cs. a multicomponent intervention to prevent major [ 118 ] bleeding complications in older patients receiving warfarin. Ann Intern Med 2000; 133: 687-95. 29. Malenka DJ, Baron Ja, Johansen s, Wahrenberger JW, ross JM. the framing effect of relative and absolute risk. J Gen Intern Med 1993; 8: 543-8. 30. O’connor aM, rostom a, Fiset V et al. Decision aids for patients facing health treatment or screening decisions: a systematic review. BMJ 1999; 319: 731-4. 31. Man-son-Hing M, Laupacis a, O’connor a et al. Warfarin for atrial fibrillation: the patient’s perspective. Arch Intern Med 1996; 156: 1841-8. Iv. anáLIsIs deL conocImIento y herramIentas para su vaLIdacIón [ 121 ] CAPÍTULO 10 Lectura crítica de la literatura científica Daniel Fernández-Bergés Antonio Paragano Desde el advenimiento de la informática y la llegada de internet los tiempos han cambia-do; hoy día, el médico ve como lejanas las épocas en que debía realizar las búsquedas bibliográficas en los complejos libros del index Medicus para, finalmente, localizar los tra- bajos que otros colegas citaban en sus artículos de investigación. en este momento cualquier buscador, cada vez menos específico, nos permite introducir un título o referencia y una ola de información inunda la pantalla de nuestra computadora. Éste es un auténtico cambio cua- litativo, una inflexión en la evolución de nuestro acceso a la información y en la modulación de nuestro pensamiento. La experiencia, adquirida con los años de ejercicio en la profesión, continúa siendo impor- tante, pero es imprescindible unir a ella el conocimiento que surge de las investigaciones. La medicina basada en la evidencia1 ha demostrado con claridad cómo la información o el conoci- miento que no ha sido verificado puede llegar a incorporarse por décadas en la práctica clínica con resultados opuestos al esperado. sirven a modo de ejemplo los estudios cast i y ii,2-3 don- de se expuso que la administración de drogas antiarrítmicas del grupo i-c, de la clasificación de Vaughan Williams,4 aumenta la mortalidad en los pacientes que han padecido un infarto agudo de miocardio. esta información, ahora hecha conocimiento, anuló un erróneo concepto terapéutico previo, “la muerte súbita en el paciente coronario sobreviene como consecuencia de las arritmias ventriculares, luego, cualquier fármaco capaz de tratarlas con eficacia evitará millones de muertes”. por supuesto, no se consideraba que una droga antiarrítmica por sus efectos arritmogénicos podría aumentar la mortalidad de estos pacientes. La introducción del meta-análisis constituyó un notable avance en el conocimiento y, so- bre todo, destacó la necesidad de emprender estudios con el poder suficiente para demostrar con robustez una hipótesis de trabajo. La investigación biomédica produce actualmente una gran cantidad de información científica, disponible en grandes bases de datos electrónicas, el punto crucial es poder distinguir si lo que leemos es realmente creíble, es decir, si es aceptable según la idea que poseemos sobre el tema para ser incorporado a nuestra práctica cotidiana con seguridad. cómo se construye la información resultante de una investigación es el tópico que nos ocupa, pero nadie puede negar que para comprender adecuadamente un trabajo de investiga- ción es necesario tener un conocimiento aproximado en lo referente a metodología y análisis estadístico, de lo contrario, habrá que recurrir a comentarios sobre el estudio en cuestión pa- [ 122 ] ra tener una idea más concreta acerca de su credibilidad. Uno de los objetivos de este capítulo es transmitir al lector la necesidad de leer un trabajo de investigación con cierto orden y rigor, cuestionando y contrastando lo leído con otras publicaciones sobre el mismo tema. también pretende orientar acerca de cómo interpretar rápida, correctamente y con pocas fórmulas, las medidas estadísticas más frecuentes en la bibliografía médica. el artículo científico Un artículo científico recoge en forma ordenada la información que surge de un trabajo de investigación. por lo tanto, debemos leerlo críticamente y en cada apartado observar si lo que sostiene o propone tiene una base razonable.5 corresponde saber si la publicación que seleccionamos es de calidad y si sus resultados pueden aplicarse a nuestro desarrollo profesio- nal. La medicina basada en la evidencia ha contribuido considerablemente para facilitar esta tarea, aunque, finalmente quien lee es el que decide si lo que examina es creíble. La credibi- lidad surge del juicio cualitativo, pero este juicio de valor conlleva implícito el conocimiento de la metodología empleada para resolver el problema investigado. Un primer paso para reconocer la calidad del artículo es averiguar si la revista que lo publica está indexada, esta comprobación nos da ciertas garantías, ya que probablemente lo hayan leído previamente al menos dos revisores y un editor jefe, que han tratado que su revista gane prestigio con la publicación que acepta. es cierto que a veces, a la hora de publi- car, no se puede evitar el sesgo de aceptación que tiene un autor conocido, pero no es lo más frecuente. este punto nos lleva a recomendar que siempre se verifiquen los autores. ¿conocen el tema que publican o es su primer artículo? ¿son de una institución con reconocida trayec- toria en investigación? Quizá, esto puede parecer discriminatorio, pero debemos saber qué vamos a leer porque en la profesión médica la lectura es constante, y la velocidad con que se desarrolla el conocimiento, y nos llega la información, obliga a este ejercicio cotidianamente pues nuestro tiempo es limitado. además del título, la publicación debe adjuntar al inicio un resumen que sintetice la investigación y sus conclusiones. Luego comenzará con una introducción al tema, que nos anuncia el estado actual de la situación que se investiga, nos informa acerca de la hipótesis que sustenta el trabajo y cuáles son los objetivos del mismo. proseguirá con el material que es objeto de la investigación (pacientes generalmente) y los métodos seguidos, donde cono- ceremos el diseño del trabajo y con qué herramientas ha sido construido. a esta exposición sucederán los resultados obtenidos para culminar con la discusión, donde los autores deben defender, criticar, justificar sus hallazgos, proponer cambios o nuevos estudios y comunicar las limitaciones de su investigación. Frecuentemente surgen otros puntos de valor y que son parte de los requerimientos de las revistas científicas, como la declaración de conflicto de intereses, que también deben ser leídos con atención pues no son banales. el artículo cerrará con los agradecimientos y por último la bibliografía. a continuación, las secciones mencionadas y de las que corrientemente se compone una comunicación científica serán examinadas en sus aspectos más esenciales.[ 123 ] 1. Título y resumen el título debe responder a la hipótesis planteada para el progreso de la investigación, o enumerar el o los resultados importantes, instruyéndonos acerca de las características del ensayo o, qué tipo de artículo vamos a leer. el resumen es una síntesis ordenada que sólo pretende dar un “pantallazo” informativo al lector, pero no es el artículo. Ninguna práctica peor que leer el resumen y sus conclusiones asu- miendo, falsamente, que ésta lectura nos ha brindado el conocimiento integral de la investigación. el resumen puede, a lo sumo, informarnos en líneas muy generales sobre el tema que se discutirá y si el mismo es de nuestro interés. el conocimiento vendrá luego de evaluar la información com- pleta, de tal manera podremos conformar una idea más concreta sobre su credibilidad. 2. Introducción La introducción debe ser sucinta, pero relevante, y dejar claramente planteado el estado de la cuestión y los puntos que deben todavía investigarse, porque resultan conflictivos o bien porque han surgido nuevas evidencias en la literatura mundial. a lo largo de todo el trabajo deberemos cotejar las citas bibliográficas, al leerlo verificaremos si la hipótesis que lo sus- tenta se apoya en otras investigaciones, señaladas en las referencias, y que son el antecedente científico que respalda la teoría de la nueva publicación. puesto que es muy difícil tener ideas absolutamente originales u observar hechos que nadie ha visto, debemos recordar siempre la frase del genial Nóbel español ramón y cajal: “No hay cuestiones agotadas sino hombres agotados en las cuestiones”. 3. Objetivos cada ensayo debe exponer claramente el objetivo principal, si van a estudiarse otros puntos de interés los mismos serán secundarios, y deben estar especificados antes de reali- zar la investigación. De la propia hipótesis de trabajo se desprende el objetivo. es cierto que el resultado del análisis de subgrupos de pacientes puede servir como molde para futuras investigaciones, aunque resulta cuestionable observar la cantidad de estudios que analizan subgrupos de pacientes, que fueron parte de un ensayo clínico con determinado objetivo, donde se demuestra una cuestión que no formó parte del objetivo inicial. el diseño de un es- tudio depende del punto a estudiar, si se cambia el objetivo, lo más probable es que el diseño ya no sea el adecuado y las conclusiones serán discutibles. 4. Material y métodos este apartado nos pone en contacto con las características propias del estudio. Debe especificar el lugar geográfico donde se realizó la investigación, la edad y género de los su- [ 124 ] jetos seleccionados, qué criterios de inclusión y de exclusión se siguieron, etc. Nos referimos concretamente al diseño del ensayo, y en este sentido, los trabajos de investigación pueden clasificarse como: estudios observacionales o experimentales. Los estudios observacionales se fundamentan en el seguimiento de uno o más grupos de pacientes, registrando sus características para un análisis posterior. Los experimentales comprenden una actividad o una intervención controlada por el investigador, como puede ser la administración de un fármaco o procedimiento, y el interés recae sobre el efecto que la intervención tiene sobre los sujetos alistados en el estudio. A. Estudios de observación: a1- Descriptivos o casos en serie: el informe describe ciertas características de un grupo (o serie) de pacientes (casos), se detallan algunas observaciones interesantes que presenta un número reducido de ellos, en general por un período corto de tiempo, y suelen conducir a la concepción de una hipótesis que se investigará más adelante. por definición no incluyen controles, es decir sujetos sin la enfermedad o factor que se indaga, y tampoco admiten in- tervención. a2- Estudios de caso-control (retrospectivos): los casos se seleccionan de manera indi- vidual sobre la base de alguna enfermedad o consecuencia, buscando causas o factores de riesgo que potencialmente puedan explicarla; los controles son sujetos sin la enfermedad. co- mo indagan hacia atrás en el tiempo se los llama retrospectivos, y como cubren cierto tiempo también son longitudinales. algunos investigadores, cuando una o varias características en los grupos están desequilibradas usan el sistema de parejas para relacionar casos y controles. el proceso de parear asegura que los dos grupos serán semejantes, por ejemplo en edad y/o sexo, evitando confundir al momento de las conclusiones. Generalmente reportan causas e incidencia de una enfermedad o identifican factores de riesgo. a3- Estudios transversales (prevalencia): permiten conocer las características de un gru- po de sujetos en un momento determinado, no en un período de tiempo. plantean qué sucede en ese momento particular, la selección y la información de los sujetos se obtiene en un corto plazo de tiempo, por eso también se llaman estudios de prevalencia. Los estudios transversa- les se utilizan para describir una enfermedad o proporcionar información respecto al diag- nostico o etapa de la misma, y especialmente para describir la utilidad de un procedimiento nuevo. a4- Estudios de cohortes (prospectivos): una cohorte es un grupo de individuos con algo en común y forman parte del grupo por un período prolongado. ellos se seleccionan por pre- sentar algún rasgo o factor que se sospecha es la causa para un efecto patológico o enferme- dad. se observan durante cierto tiempo para constatar el efecto de estas características, tanto en sujetos que las presentan (expuestos) como en los que no (no expuestos). como los eventos que interesan se manifiestan después de iniciado el estudio también se los llama prospectivos. el más prestigioso de éstos es el estudio Framingham, que inició en 1948 para investigar la enfermedad ateroesclerótica e hipertensiva, a la fecha se han publicado numerosos artículos sobre el mismo, permaneciendo aún en observación algunos sujetos originales. sin embargo, para emprender un estudio de cohorte también se puede emplear información archivada y analizarla en la actualidad, precisamente, partiendo de datos sobre factores de riesgo en el [ 125 ] pasado se observa su efecto en el presente. en este caso se llaman estudios de cohorte histó- ricos o de cohorte retrospectivos, y únicamente son posibles si los registros de seguimiento se hallan completos. B. Estudios experimentales: en seres humanos se denominan pruebas clínicas, su propósito es extraer conclusiones acerca de un procedimiento o tratamiento particular. B1- Pruebas clínicas controladas: estudios donde un procedimiento o fármaco experi- mental se compara con otro aceptado. estos se clasifican en: B1.1- Pruebas con controles paralelos o concurrentes, independientes: incluyen dos gru- pos, el experimental o sometido al procedimiento que se probará, y el grupo control que reci- be el tratamiento estándar o placebo. Los dos grupos deben ser iguales en todos los aspectos, de modo que las diferencias encontradas se puedan adjudicar al procedimiento y no a otros factores. Los grupos deben participar del estudio en el mismo período, concurrentes, y para garantizar que los investigadores o los participantes no vean lo que esperan ver, ninguno co- noce el grupo al que fue asignado, doble ciego. a su vez estos estudios pueden ser: Aleatorios o randomizados: • los sujetos que participarán en los grupos son distri- buidos al azar, esta metodología proporciona la evidencia más fuerte de asociación, asegurando que el resultado se debe a la participación. No Aleatorios• : los pacientes no son asignados al azar, presentan el inconveniente de que nada previene el sesgo en la distribución de los participantes, y por lo tanto son menos confiables. B1.2- Controles secuenciales: incluyen a las pruebas clínicas con autocontroles y los estudios cruzados. Los estudios con autocontroles utilizan al mismo grupo de sujetos para opciones experimentales y de control, los pacientesse evalúan al inicio del estudio y luego son sometidos a un procedimiento o tratamiento, para ser estimados nuevamente en busca de cualquier cambio. Los estudios con controles cruzados emplean dos grupos, uno experimental y otro control. Después de un período de tiempo se suspende el tratamiento, experimental y placebo, se deja transcurrir un tiempo de reposo, en general sin tratamiento alguno, y luego se asigna a cada grupo el tratamiento alterno, o sea, el grupo control pasa a ser experimental y viceversa. B1.3- Pruebas con controles externos: el tercer método para controlar experimentos es el manejo de controles que no pertenecen al ensayo, o externos. estos comparan el resultado del propio estudio, grupo experimental, con el de otro investigador, grupo control. en ocasiones son sujetos que el mismo observador ha tratado previamente con otro procedimiento, en este caso se llaman controles históricos. B2- Pruebas clínicas no controladas: son estudios que sólo incluyen al grupo experimen- tal, no hay controles. es más probable que se usen con procedimientos y no con un fármaco, el principal conflicto es que los investigadores suponen que el procedimiento experimental es mejor que cualquier otro, sin haber comprobado su eficacia.6 [ 126 ] C. Revisiones c1- No Sistemáticas: clásicamente se basa en la selección de un número determinado de artículos sobre una cuestión en particular, tras su examen el autor expone una conclusión más o menos general sumando además su experiencia u opinión personal. esta modalidad de revisión genera un margen de duda sobre la confiabilidad de lo expresado pues únicamente ofrece el punto de vista, a veces subjetivo, del autor. c2- Sistemática cuantitativa, meta-análisis: es una metodología de análisis cimenta- da en la combinación de la información obtenida en diferentes ensayos clínicos sobre un tema determinado. el objetivo es proporcionar una estimación cuantitativa de todos los estudios disponibles, y dado que incluye un número mayor de observaciones tiene un poder estadístico superior al de los propios trabajos que contiene. Los principales problemas me- todológicos de los meta-análisis resultan como consecuencia de la diversidad de los ensayos clínicos que incluye, ya que las características clínicas, sociales, demográficas, etc., de los sujetos reclutados son diferentes en cada uno de ellos; como también son disímiles los mé- todos de evaluación aplicados, la forma farmacéutica o dosificación del fármaco evaluado, etc. asimismo, considerando que no todos los ensayos clínicos han sido publicados, por resultados no esperados o negativos, siempre mantienen la posibilidad de incurrir en un posible sesgo de publicación.7 - 13 continuando con los aspectos metodológicos, cuando leemos un trabajo de investiga- ción debemos distinguir si se ha procedido en forma correcta al establecer el tamaño de la muestra, si no encontramos esta información nos enfrentamos al menos con dos problemas: el primero es que no sabemos si el número escogido fue el necesario para demostrar las di- ferencias que se buscaban, y el segundo es si no se ha incluido más gente innecesariamente, con los riesgos que puede conllevar para los pacientes seleccionados, además de la pérdida de tiempo y recursos económicos. también repararemos sobre la estimación del número de pacientes perdidos durante el período de observación, porque es muy difícil lograr un segui- miento completo en un estudio de más de seis meses. La determinación del tamaño muestral es una tarea del epidemiólogo, que mediante un modelo matemático que incluye varios elementos, como variabilidad del parámetro, el error α y β que indican el nivel de confianza, etc., establece el número mínimo imprescindible de individuos a incluir en los grupos que van a estudiarse. No es necesario en todas las investi- gaciones, pero es ineludible cuando se buscan diferencias predefinidas entre grupos. en general se puede decir que a mayor nivel de precisión y confianza, mayor debe ser la muestra. se trata en definitiva de entender que si el estudio es pequeño y con un resultado positivo existe la posibilidad de que sea un falso positivo, ya que el hallazgo pudo ser válido únicamente por azar. investigaciones futuras homologarán su valor, o no, cuando se intenten confirmar sus deducciones con estudios más grandes.14 si hay muestras sanguíneas, cómo se recolectaron; si las sustancias que se examinaron son estables; cuántas muestras se recogieron y en qué condiciones se produjo el almacena- miento y el traslado (si es que lo hubo). estos aspectos, con las muestras sanguíneas en parti- cular, han merecido varios artículos en la literatura médica dentro de los cuales el de Jaffe y Vatus15 es particularmente revelador. [ 127 ] Las características de los sujetos seleccionados para participar de la investigación son un elemento clave, aunque no el único, a la hora de evaluar la importancia de una investigación. cuando se lee un artículo científico debemos poner atención a los criterios de inclusión y de exclusión, ambos deben estar claramente establecidos porque definen a la población objeto del estudio; y permitirá reconocer si estos pacientes son similares a los que vemos en nuestra práctica clínica. La selección de los mismos, asignación a un grupo definido, la recolección y análisis de los datos obtenidos, etc., son puntos importantes que nos introducen al concepto de sesgo, precisión y validez de un estudio. Dando por cierto que el tema y los objetivos de un estudio son de interés, queda aún de- terminar si el mismo es preciso y válido. el propósito de toda investigación debe concentrarse en alcanzar la exactitud en la medición de los datos, todo lo que amenace esta premisa debe ser identificado y advertido. Hablamos de los errores en las mediciones, y los hay de dos tipos: aleatorios y sistemáticos. entendemos por sesgos a los errores sistemáticos que producen una estimación incorrecta de asociación entre la exposición y la enfermedad, o una estimación equivocada del efecto. La precisión de un estudio se corresponde con la reducción del error debido al azar o aleatorio, error que suele ser de mayor magnitud cuando se realizan inferencias a partir de resultados obtenidos en muestras pequeñas de una población. para restringir esta desviación, el elemento más importante del que disponemos es incrementar el tamaño de la muestra. De esta manera los intervalos de confianza y el error estándar se reducen, logrando aumentar la precisión. La precisión de un estudio nos garantiza que será reproducible, esto es, obtener aproximadamente el mismo resultado cada vez que se repite, cuando es conducido en las mismas condiciones. el error sistemático aparece como consecuencia de faltas cometidas durante el proceso de diagnóstico o de selección de los pacientes. La ausencia de error sistemático define la validez del estudio, que tiene dos componentes: la validez interna, que es la ratificación de las inferencias a los sujetos incluidos en el propio ensayo, y la validez externa, que posibilita la generalización de los resultados a individuos que no formaron parte del mismo, o a la población general. La validez interna es por lo tanto un prerrequisito para que pueda darse la externa. La validez interna, se ve amenazada por distintos tipos de sesgos: A. Sesgos de selección: los grupos del estudio no son comparables debido a cómo fueron seleccionados los pacientes, hace referencia a cualquier error que se deriva del proceso de identificación de la población a estudiar. estos sesgos pueden ocurrir al seleccionar el grupo control o el espacio muestral donde se realizará el estudio. también por pérdidas durante el seguimiento o por la presencia de una supervivencia selectiva. Los sesgos de selección pueden manifestarse en los estudios de casos y controles, cuando el procedimiento utilizado para identificar la enfermedad (sesgo diagnóstico) varía o se modifica con el status deexposición. este sesgo se llama “sesgo de detección”. el resultado produce una relación entre exposición y enfermedad que es diferente entre los individuos seleccionados para el estudio, y aquellos que pudiendo haber sido elegidos para participar no fueron incluidos. [ 128 ] B. Sesgo de información u observación: los grupos de pacientes del estudio no son com- parables debido a como se obtuvieron los datos. incluye cualquier error sistemático en la exactitud de los datos o los resultados. por lo tanto producen una distorsión en la estimación del efecto, las fuentes de sesgo de información más frecuentes son: instrumento de medición inadecuado, criterios diagnósticos incorrectos, omisiones, o imprecisiones en la búsqueda o clasificación de los datos introducidos por los cuestionarios o los encuestadores. C. Factores de confusión: los autores no han apreciado información sobre un factor que se relaciona a la vez con la exposición y con el efecto estudiado. Dicho error provocará una alteración en la estimación del resultado, debido a una o más variables no consideradas. La prevención y control de los sesgos potenciales debe considerarse durante el diseño del estudio, ya que al momento del análisis no es posible solucionarlos. por el contrario, los factores de confusión sí pueden controlarse durante el análisis.16 por último ¿cuáles fueron los puntos finales? o “end-points”. el punto final más duro es la mortalidad de cualquier causa o mortalidad total, es fácil de averiguar durante el segui- miento, a través de un llamado telefónico a familiares o al registro civil. algunos estudios se- leccionan un punto final combinado (dos o más) aumentan así la tasa de eventos esperada, de esta manera necesitan incluir menos pacientes que los requeridos al escoger un único punto final.17 cuestión que nos obliga a examinar la publicación completa, para ver que efecto tuvo cada uno de los factores que componen el punto final combinado sobre mortalidad global, y éste ejercicio nos permitirá redimensionar las conclusiones. 5. Análisis estadístico el análisis de los datos reunidos durante la investigación culmina con la obtención de un resultado, que es el producto de estimar un parámetro o una diferencia entre grupos o bien una asociación entre variables, y este resultado procura responder a la o las preguntas plan- teadas en el objetivo. en general, el análisis de los datos experimentales apunta a establecer si las diferencias o las asociaciones observadas entre los distintos conjuntos estudiados reflejan características reales de las poblaciones, o si estos contrastes podrían haberse dado por el azar del muestreo. esta última posibilidad se conoce como hipótesis nula, y el poder recha- zarla le confiere legitimidad automática a la hipótesis alternativa, que es la que suele interesar especialmente al investigador. en este punto, ante una desigualdad (u otro tipo de relación) entre muestras, las técnicas estadísticas posibilitan cuantificar la probabilidad con que una diferencia, igual o más extrema que la advertida, podría ser observada si las muestras provi- nieran de la misma población, esto es, si la diferencia se debiera solamente a las fluctuaciones del muestreo. si dicha probabilidad resulta pequeña, digamos menor que el 5%, se dice que la diferencia observada es significativa, con una probabilidad p< 0,05. De modo que el nivel de significación dado por p, mide la probabilidad de equivocarnos al rechazar la hipótesis nula como improbable y aceptar la alternativa como válida. por lo tanto, p< 0,05 significa que la diferencia observada tiene el 95% de probabilidades de no provenir de muestras del mismo universo, sino que éstas deben representar poblaciones [ 129 ] diferentes. el valor 95% se conoce como nivel de confianza de la estimación. cuanto menor es la p, es decir, cuanto menor es la probabilidad de que los resultados observados ocurran como producto del azar, mayor será la tendencia a concluir que la diferencia existe en reali- dad. Deducimos entonces que existe una diferencia significativa entre los grupos o variables estudiadas, que la posibilidad de equivocarnos es tan sólo de un 5% y que nuestra diferencia en un 95% se debe al factor analizado y no a la mera casualidad. inversamente, si el valor de p es mayor que el 5%, se considera que no hay suficientes indicios para descartar que la o las desigualdades obtenidas se deben a la intervención del azar, no pudiendo descartar la hipótesis de nulidad o equivalencia entre lo que se comparó.18 según lo expresado, podremos juzgar si el estudio que estamos leyendo es creíble en cuanto a sus conjeturas, revelando un valor de p suficientemente pequeño que permite acep- tar que el efecto que se comunica existe realmente y en la dirección en que se informa. La falta de claridad conceptual es la que hace pensar que la estadística se equivoca y también que puede manipularse, por ello debemos dominar conocimientos básicos de la estadística y de sus limitaciones, para descubrir errores, sesgos o simplemente falta de rigor o calidad en el artículo que estamos examinando. si leyéramos estudios de los años 60, observaríamos que el análisis bivariado era la me- todología estadística más corrientemente empleada, y la simple obtención de una p< 0.05 concluía que el resultado era “estadísticamente significativo”. Generalmente así fundamen- tados, sugerían que el hallazgo de a en la enfermedad B podría ser de valor para determinar el diagnóstico, el pronóstico o el tratamiento. La significación estadística no quiere decir sig- nificación clínica, quien no comprende este concepto puede creer que la significación lograda indica causalidad y que el resultado obtenido en un trabajo nos obliga a aplicar una determi- nada intervención para lograr mejorar, por ejemplo, el pronóstico de una enfermedad, esto es un error de criterio importante. Los ensayos clínicos metodológicamente más convincentes son relativamente nuevos, en 1948 el consejo inglés de investigación clínica dio a conocer los resultados del primer estudio randomizado para evaluar la eficacia de la estreptomicina; y en 1951 Bradford Hill propor- cionó la primera definición sobre la sistemática de un ensayo clínico: “Es un experimento diseñado cuidadosa y éticamente con el objetivo de responder alguna pregunta formulada con precisión”.19 inmediatamente surgieron los estudios que incluyen el análisis multivariado, regresión, correlación, etc. estos modelos de análisis nos informan si la o las variables que en el bivariado surgían como estadísticamente significativas (aún aquellas con valores de p de hasta 0.15 y en algunas ocasiones hasta 0.20, por considerarlas de interés clínico trascenden- te) mantienen su independencia con respecto al objeto principal de la investigación o variable dependiente. Lo que nos anunciará la posibilidad de que pudieran ser tenidas en cuenta como parte o causa de la enfermedad o evento. el ejemplo que sigue nos ilustrará, si en un modelo de regresión se incluye la edad para conocer su posible independencia con la variable objetivo, por ejemplo mortalidad, lo más probable es que la edad tenga un vínculo significativo o causalidad con la muerte. si en el mismo modelo se introduce “arrugas”, éstas no tendrán probablemente la misma asociación o vínculo, pero si se quita la edad pasarán a tener una significación muy similar, dado que es muy probable que nuestro cuerpo tenga más arrugas a mayor edad.20 [ 130 ] 6. Los diferentes tipos de ensayos clínicos en general, los médicos vivimos pendientes del diagnóstico, pronóstico y tratamiento de las enfermedades que aquejan a nuestros pacientes. surgen a diario, en cada uno de estos segmentos, diversos interrogantes que frecuentemente hallan respuesta en un número de en- sayos que suelen proponer diferentes estrategias de aproximación. ¿cómo interpretar estos estudios para extraer la información que pueda auxiliarnos en la práctica clínica? Interpretaciónde los estudios sobre pruebas diagnósticas el notable avance tecnológico de la última mitad del siglo XX ha llevado a que dis- pongamos de numerosos medios diagnósticos pero, como veremos, los métodos diagnós- ticos también tienen sus indicaciones precisas y, fundamentalmente, sus limitaciones. antes de ser introducido en la práctica clínica cada método debe confrontarse, idealmen- te, con uno de probada eficacia que sirve de referencia o patrón oro, gold standard.21, 22 en cardiología, por ejemplo, un método que estudie la circulación coronaria debe con- trastarse con la coronariografía, su aproximación diagnóstica a esta última lo hará de mayor confiabilidad. para el caso de comparar dos métodos, el problema más sencillo que se nos puede plan- tear es el de una prueba dicotómica, que clasifica a cada paciente como sano o enfermo en función de que el resultado de la prueba sea positivo o negativo. La tabla 1 nos ayudará a comprender los términos empleados. Resultado de la prueba Verdadero diagnóstico Enfermo Sano Positivo Verdaderos positivos (vp) Falsos positivos (fp) Negativo Falsos negativos (fn) Verdaderos negativos (vn) tabla 1. Relación entre el resultado de una prueba diagnóstica y la presencia o ausencia de una enfermedad. Generalmente, al resultado positivo se lo asocia con la presencia de enfermedad y al negativo con la ausencia de la misma. cuando se estudia una muestra de pacientes los datos obtenidos permiten clasificar a los sujetos, en una tabla de 2x2, en cuatro grupos, como en la tabla 1. en ella, se enfrenta el resultado de la prueba diagnóstica (en filas) con el estado real de los pacientes (en columnas) o, en su defecto, el resultado de la prueba de referencia que vayamos a utilizar. La conclusión de la prueba puede ser correcta (verdadero positivo y ver- dadero negativo) o incorrecta (falso positivo y falso negativo). el análisis de su validez puede obtenerse calculando los valores de sensibilidad y especificidad: [ 131 ] Sensibilidad: es la probabilidad de clasificar correctamente a un individuo enfermo, esto es, la probabilidad de que en la prueba se alcance un resultado positivo en un sujeto enfer- mo. por lo tanto, la sensibilidad es la capacidad del test para detectar la enfermedad [S = vp/ (vp+fn)]. Especificidad: es la probabilidad de clasificar correctamente a un individuo sano, o de obtener un resultado negativo en ausencia de enfermedad. en otras palabras, se puede definir la especificidad como la capacidad para detectar a los sujetos sanos, [E = vn/(vn+fp)]. es claro que lo ideal sería trabajar con pruebas diagnósticas de alta sensibilidad y espe- cificidad, pero no siempre es posible. Una prueba muy sensible será especialmente adecuada en aquellos casos en los que el no diagnosticar la enfermedad puede resultar fatal para los enfermos, o en enfermedades en las que un falso positivo no produzca serios inconvenientes. por otro lado, las pruebas confirmatorias del diagnóstico deben ser de alta especificidad, evitando así los falsos positivos. Los test de alta especificidad son necesarios para descartar el padecimiento de enfermedades graves, o cuando se diagnosticó un mal que se sospecha no aquejar al paciente.21, 23 Los conceptos de sensibilidad y especificidad permiten, efectivamente, justipreciar el ren- dimiento de una prueba diagnóstica. sin embargo, ante la obtención de un resultado positivo o negativo, el médico más bien se plantea: ¿cuál es la probabilidad de que el paciente esté realmente enfermo, o no? Los valores predictivos nos permiten responder esta cuestión: Valor predictivo positivo: es la probabilidad de padecer la enfermedad si se obtiene un resultado positivo en el test. el valor predictivo positivo puede evaluarse a partir del número de pacientes con un resultado positivo en la prueba y que finalmente resultaron enfermos, sobre el total de resultados positivos: [VPP = vp/(vp+fp)]. Valor predictivo negativo: es la probabilidad de que un sujeto con un resultado negativo en la prueba se halle realmente sano, se estima dividiendo el número de verdaderos negativos entre el total de pacientes con un resultado negativo en la prueba: [VPN = vn/(vn+fn)].21, 24 Los valores de sensibilidad y especificidad definen la validez de una prueba diagnóstica, independientemente de cuál sea la prevalencia de la enfermedad en la población a la cual se aplica. pero tienen la desventaja de que no proporcionan información relevante a la hora de tomar una decisión clínica ante un determinado resultado. en cambio, los valores pre- dictivos, a pesar de la enorme utilidad que brindan a la hora de tomar decisiones clínicas y transmitir a los pacientes información sobre su diagnóstico, presentan la limitación de que dependen considerablemente de lo frecuente que sea la enfermedad a diagnosticar. cuando la prevalencia de una enfermedad es alta, un resultado positivo tiende a confirmar su pade- cimiento, mientras que si la prevalencia es baja, un resultado positivo no permitirá afirmar su presencia. entonces, debido a la influencia la prevalencia, los valores predictivos no pueden ser utilizados como índices a la hora de comparar dos métodos diagnósticos diferentes, tampoco [ 132 ] permiten extrapolar los resultados de otros estudios a datos propios. para ello, es necesario considerar otros índices de estimación clínicamente útiles y que no dependen de la prevalen- cia de la enfermedad en la población a estudiar. así, además de los conceptos anteriormente citados, se suele hablar de razón de verosimilitudes, razón de probabilidad, cociente de pro- babilidades o likelihood ratio. ellos indican cuánto más probable es un resultado concreto (positivo o negativo) según la presencia o ausencia de enfermedad, y se definen como sigue: Razón de verosimilitudes positiva o cociente de probabilidades positivo: es la razón entre la probabilidad de un resultado positivo en los pacientes enfermos y la probabilidad de un resultado positivo entre los sanos. O bien, el cociente entre la fracción de verdaderos po- sitivos (sensibilidad) y la fracción de falsos positivos (1 – especificidad): RVP = sensibilidad/ (1 – especificidad). Razón de verosimilitudes negativa o cociente de probabilidades negativo: se calcula dividiendo la probabilidad de un resultado negativo en presencia de enfermedad entre la probabilidad de un resultado negativo en ausencia de la misma. O bien, el cociente entre la fracción de falsos negativos (1 – sensibilidad) y la fracción de verdaderos negativos (especifi- cidad): RVN = (1 – sensibilidad)/especificidad.21, 25 Una RV de 1 significa que la probabilidad de un resultado positivo es exactamente la misma que la de uno negativo, en enfermos o sanos. RV superiores a 1 incrementan la pro- babilidad de que se encuentre presente el trastorno objetivo y, al contrario, RV inferiores a 1 disminuyen esta probabilidad. La razón de probabilidades ofrece la ventaja de que relaciona la sensibilidad y la espe- cificidad de una prueba en un solo índice. permite expresar la información de manera no dicotómica (resultado normal o anormal, positivo o negativo) y, al igual que sucede con la sensibilidad y la especificidad, no varía con la prevalencia. estas consideraciones nos permiten adoptarla como índice de comparación entre diferentes pruebas para un mismo diagnóstico. Finalmente, otra opción estadística útil a la hora de valorar la capacidad diagnóstica de una prueba cuantitativa son las llamadas curvas ROC (Receiver Operating Characteristic). se calculan a partir de la sensibilidad y especificidad para cada uno de los posibles valores de corte de la prueba. Hasta ahora nos ocupamos del caso de un test con un resultado dicotómi- co, positivo o negativo, pero en muchas situaciones la confirmación de un diagnóstico debe hacerse a partir de un parámetro numérico. estos se pueden clasificar en forma dicotómica según sean superiores o inferiores al elegido como corte. La estrategia de esteanálisis consiste en representar gráficamente los distintos valores de especificidad y sensibilidad obtenidos, generándose así una gráfica llamada curva ROC. el área bajo dicha curva se convierte así en el mejor indicador de la capacidad predictiva del test, pues es independiente de la prevalencia de la enfermedad en la población de referencia, admitiendo efectuar comparaciones entre diferentes pruebas diagnósticas. en forma muy general, puede aceptarse que la capacidad de predicción para un área bajo la curva de 0,50-0,60 se considera mala; de 0,60-0,70 pobre; de 0,70-0,80 aceptable; de 0,80-0,90 buena a muy buena, y de 0,90-1,00 excelente.26 [ 133 ] cuando leemos un artículo que informa sobre una nueva herramienta diagnóstica debemos conocer estos conceptos y valorar si su introducción en la práctica clínica aporta información relevante o no. además, no debemos olvidar que existen determinados aspectos en el diseño de este tipo de investigaciones que pueden afectar a la precisión y a la validez de las estimaciones realizadas. La población de estudio, la estrategia de muestreo, la selección del criterio de re- ferencia y la forma de aplicación de las pruebas diagnósticas serán algunos de los elementos a cuidar para evitar la presencia de sesgos. por supuesto, siempre deberemos valorar el costo que introduce en nuestro accionar (costo/beneficio) para saber si es aplicable en nuestro medio. Interpretación de los estudios sobre pronóstico y tratamiento. Ensayos clínicos Los ensayos clínicos han permitido un enorme avance en el conocimiento y han termina- do con muchas indicaciones terapéuticas que se tenían por buenas. Los estudios observacionales son muy importantes, porque de ellos surgen conjeturas que luego habrán de comprobarse en otras investigaciones, pero no debemos tomar conduc- tas basados en ellos. ciertas hipótesis fisiopatológicas o trabajos con un reducido número de casos, y por lo tanto con insuficiente potencia, llevaban a la aplicación de una determinada medicación que luego resultó ser nociva. podríamos citar el ejemplo de la administración profiláctica de lidocaína, por su efecto antiarrítmico, a los pacientes que padecían un infarto miocárdico agudo, pero luego los ensayos clínicos demostraron que no otorgaba beneficio, sino más bien era perjudicial.27 Otro ejemplo, relativamente cercano, fue la aceptación de que el suplemento hormonal en la mujer menopáusica disminuiría los eventos cardiovasculares, no obstante, los ensayos con terapia sustitutiva encontraron que podían aumentarlos. Un reciente meta-análisis sobre el tema muestra que si bien no incrementa el riesgo de nuevos eventos cardíacos, tampoco lo reduce, pero sí agranda el riesgo de accidente cerebrovascular,28 esto condujo a que las reco- mendaciones internacionales desaconsejaran su aplicación.29 el número de ensayos clínicos y meta-análisis se ha multiplicado en los últimos años, en muchos de ellos se despliega una metodología estadística que habitualmente expresa los resultados en forma de razón o ratio. al leerlos descubrimos expresiones como: odds ratio (OR), riesgo relativo (RR) o lo que es igual cuando se trata de estudios de supervivencia, ha- zard ratio (HR), términos que son poco intuitivos y a veces de difícil comprensión. seguida- mente, intentaremos orientar acerca de cómo interpretar correctamente estas medidas muy empleadas en bibliografía médica. Una forma de estimar el riesgo entre dos grupos es mediante una relación que se suele denominar relación de odds o chance. La OR es la relación entre las odds del grupo experi- mental sobre las odds del grupo control, y se obtiene dividiendo el número de eventos sobre el número de “no eventos” en cada grupo. en otras estimaciones del riesgo relativo (RR), el numerador contiene el número de even- tos y el denominador el número total de pacientes en riesgo (eventos + no eventos). ambas expresiones se emplean como estimadoras del riesgo relativo, la diferencia fundamental entre la OR y el RR reside en el denominador que se emplea para calcular las tasas de eventos. en la tabla 2 ejemplificaremos la diferencia: [ 134 ] Evento Grupo Control A Grupo Experimental B Si a 30 b 10 No c 70 d 90 Totales a + c = 100 b + d = 100 tabla 2 Odds ratio: [b/d]/[a/c] = [10/90]/[30/70] = 0,11/0,43 = 0,26 o 26%. Riesgo relativo: [b/(b+d)]/[a/(a+c)] = [10/100]/[30/100] = 0,10/0,30 = 0,33 o 33%. en este ejemplo, la probabilidad del evento en el grupo experimental se redujo a 0,26 según la OR, y a 0,33 de acuerdo al riesgo relativo. cuando la tasa de eventos en el grupo control es menor a 30%, la OR y el RR se aproxi- man o son similares, pero cuando la proporción de eventos es mayor al 30%, como sucede habitualmente en ensayos clínicos, la OR y el RR tienden a distanciarse. Reducción de riesgo relativo (RRR) es la reducción proporcional en la tasa de eventos entre grupo control y el experimental, se calcula como [(a – b)/a] o bien [1 – RR]. Del ejemplo anterior, [(30 – 10)/30] = 20/30 o directamente [1 – 0,33 = 0,67]. De igual manera que la RRR se puede obtener la reducción de la OR (ROR = 1 - OR) en el ejemplo, ROR = (1 – 0,26 = 0,74).18, 30-33 Cómo se interpretan estas medidas, intervalo de confianza (IC) aunque su fórmula matemática es diferente, el significado de la OR, el RR y el HR es equivalente. siempre hay un grupo experimental al que se le adjudica el valor de la ratio, lo que equivale a tomar como referencia al otro grupo. en el ejemplo anterior, B es el grupo de interés al que se refiere la estimación, y el grupo que sirve de referencia o de grupo control es a, cuyo valor es 1. La OR o similares deben ser distintos que 1 para aceptar con alguna certeza que existe un efecto. Una OR, un RR o un HR igual a 1 significa que en B se produce el mismo efecto que en a, en tanto, la OR del ejemplo indica que por cada evento en a hay 0,26 en B o sea, hay una reducción del 74%. el RR indica lo mismo, por cada evento en a hay 0,33 en B, reducción del 67%. como vemos la OR suele magnificar el efecto. si se tratara de un estudio de supervivencia (por ejemplo, estimación de la sobrevida a través del método de Kaplan-Meier), el HR indicaría que el riesgo de eventos terminales que se podrían esperar en B, durante el tiempo de seguimiento, es 0,33 a 1 comparado con a. estas estimaciones estadísticas suelen comunicarse seguidas del intervalo de confianza (IC) que expresa, en la población de estudio, la variabilidad del cálculo debida al azar. La mayoría de las investigaciones médicas incluyen muestras de una población, aunque la autén- tica realidad de un fenómeno sólo puede alcanzarse analizando la totalidad de esa población. Lo que en un estudio se calcula y ofrece como un resultado puntual, razón o ratio, no tiene por qué corresponderse con el verdadero valor en la población, estimación que siempre será [ 135 ] desconocida. su confiabilidad depende de que el resultado se encuentre comprendido entre un rango de valores, o IC, dentro de los que se encuentra la realidad biológica del fenómeno estudiado. De tal manera, si se obtiene una diferencia, esta puede ser aceptada biológica- mente y estadísticamente, es decir, el IC de la ratio puede ser considerado significativo en un determinado nivel. además, tiene que haber una diferencia entre lo que se compara, y dicha diferencia debe tener una determinada dirección compatible con la realidad. esto se logra únicamente cuando los individuos de la muestra tienen inicialmente la misma probabilidad de ser ingresados para su comparación, premisa que nos señala que sólo tienen valor los es- tudios aleatorizados. el IC expresa los límites que con una cierta garantía contendrán el verdadero valor del resultado obtenido. Generalmente se calcula con un margen de seguridad del 95%, lo que quiere decir que deja una probabilidad de 0,05 de que el verdadero valor de la ratio no se halle en este intervalo. si el IC del 95% de una ratio no contiene el1, el grado de evidencia de que los datos del estudio sean compatibles con la hipótesis nula (igualdad entre lo que se compara) ha de ser menor de 5%, y viceversa. evidentemente, el IC nos proporciona la misma información que el valor de p, pero además a través de sus propios límites nos da una idea de la intensidad posible del fenómeno estudiado, otro paso para estimar la credibilidad del estudio. en el ejemplo anterior tomamos como referencia un valor de 0,26 para la OR, se corres- ponde con una p < 0,0003 y con un IC del 95% entre 0,12 y 0,57. este último nos indica que la reducción real pudo haber oscilado entre el 12% y el 57%, en tanto que el nivel de p nos di- ce que la reducción del riesgo fue significativa, o en otras palabras, que la probabilidad de un resultado azaroso, igual o más extremo, es menor del 5%. Dicho de otro modo, si se informa que la reducción fue de 26%, el IC 95% de 12% a 57% traduce que existe una probabilidad menor del 5% de que el evento no se reduzca por lo menos un 12%. si el resultado de p fuera no significativo, el IC contendría la unidad. por ejemplo, si el IC 95% fuera 0,24 a 1,20, la relación de riesgos oscilaría entre 0,24/1 y 1,2/1, existiendo la proba- bilidad de que en realidad no haya reducción sino más bien un aumento del evento o riesgo. en el ejemplo, para el RR de 0,33 el IC 95% es de 0,15 a 0,72 y se interpreta de manera similar. ¿pero si fuera mayor que 1? digamos 1,5. a es el grupo de referencia y se le transfiere el 1, y B el experimental. entonces, en B hay 0,5 más eventos que en a, es decir que B, en el caso de que fuera un nuevo tratamiento, es menos efectivo que a. por lo tanto, un valor infe- rior que 1 indica un efecto menor para el grupo experimental, y viceversa. aunque lo anterior no es difícil de comprender, estas medidas no dan una idea inmediata de la magnitud absoluta de la diferencia entre los grupos comparados. existe una fórmula sencilla para resolver este problema, y se denomina diferencia o reducción relativa de riesgo (RRR): cuando una ratio es menor que 1 se utiliza este procedimiento, cuyo resultado es una proporción: RRR = OR - 1 (del ejemplo: 0,26 – 1 = 0,74) o la tasa de eventos en B es 74% menor que en a. cuando es mayor que 1 se aplicará RRR = 1 - OR (del ejemplo: 1,2 – 1 = 0,2), que traduce una tasa de eventos 20% mayor en B que en a.18 entonces, para comprender el mensaje de una OR, un RR o un HR, hay que indagar qué proporción absoluta de eventos se producen en el grupo control o de referencia, buscando entre los datos y las tablas que se nos ofrecen en el trabajo de investigación. igualmente, nos [ 136 ] ayudara el cálculo de la diferencia relativa de riesgo, que traduce las ratio a porcentajes, me- didas que son más fáciles de interpretar. por último, el número necesario a tratar, number needed to treat (NNT), se ha con- vertido en un indicador muy apreciado por los médicos, pues tiene la ventaja de darnos una idea rápida de la efectividad de un tratamiento, es más fácil de recordar y además permite comparar los beneficios y efectos adversos de una determinada terapia. es un indicador es- pecífico para cada opción terapéutica, y describe la diferencia que hay entre dicha opción de tratamiento y el control para alcanzar un resultado clínico concreto. su rango de valor va de 1 a infinito, siendo 1 el NNT ideal, ya que la mejor terapia es aquella donde debo tratar a un solo paciente para que este se beneficie. por consenso, sólo se expresa en números enteros y cuanto más alto es el NNT menos eficaz es la intervención. al agrupar un número mayor de pacientes las revisiones sistemáticas o meta-análisis, elaborados con ensayos clínicos aleato- rizados, proporcionan resultados de mayor confiabilidad al momento de calcular el NNT. La reducción del riesgo absoluto (RRA), absolute risk reduction (ARR), es la diferencia absoluta entre la tasa de eventos en los grupos evaluados [tasa de eventos grupo control – tasa eventos grupo experimental]. en el ejemplo de la tabla 2, [a – b] o [30% – 10%] = 20%, su IC 95%, entre 9% y 31%. el NNT, número de pacientes que se necesitan tratar para evitar un evento, se obtiene aplicando regla de tres simple a partir de la RRA. si cada 100 pacientes tratados se reducen 20 eventos, ¿cuántos necesitamos para reducir un evento?: [100/20 = 5]. O bien como [1/RRA], 1/0,2 = debemos tratar 5 pacientes para impedir el efecto adverso en uno de ellos. estas estimaciones reúnen cierto grado de incertidumbre que ha de ser expre- sada mediante el intervalo de confianza. para calcular el IC del 95% del NNT se emplea el valor inverso de los extremos del IC del 95% de la RRA, en el ejemplo, IC 95% del NNT= 1/0,09 a 1/0,31 = 3 a 11. significa que si los estudios se repitiesen, en el 95% de las veces el resultado estaría entre esas cifras, es decir, debemos tratar entre 3 y 11 pacientes para reducir el efecto en 1 de ellos.18, 34, 35 al mismo tiempo, recordemos que toda intervención puede promover efectos adversos o no deseados, y también se pueden estimar. el incremento del riesgo absoluto (IRA) o absolute risk increase (ARI), es la diferencia absoluta en las tasas de eventos perjudiciales entre los grupos evaluados, revela que el trata- miento experimental causa más daño que beneficio. su cálculo es semejante al de la reduc- ción del riesgo absoluto. IRA = [tasa de eventos adversos en el grupo control – tasa eventos adversos en el grupo experimental]. el número necesario para hacer daño (NND) o number needed to harm (NNH), nos indica a cuántos pacientes hay que tratar para que en uno de ellos se presente un efecto no deseado. O bien, el número de pacientes que si recibiesen el tratamiento experimental ten- drían un efecto adverso adicional comparado con el tratamiento control. se calcula como 1/ IRA, y su rango también va de 1 a infinito, pero al contrario del NNT, cuanto menor es su valor menos segura es la intervención. si un ensayo muestra un bajo NNT con un alto NND implica que el perfil terapéutico es seguro. también, si el estudio informa o hace referencia a estos indicadores, se puede obtener la relación beneficio/riesgo del tratamiento experimental (NNT/NND). y si adjunta el costo por período de tiempo necesario para evitar el evento, se puede construir un indicador de costo/efectividad.18 [ 137 ] 7. Discusión y conclusiones en este apartado él o los autores defienden la validez de sus observaciones, apoyados en los resultados de la propia investigación y los publicados en otros informes. Usualmente la discusión incluye una visión general de los hallazgos principales, su integración o relación con la teoría que sustentó el ensayo clínico y de sus limitaciones, ambigüedades e implicancias pa- ra futuras vías de investigación. aceptar como válidas las conclusiones de una investigación depende de una adecuada preparación metodológica que nos permitirá analizar, calificar y reconocer lo publicado en forma objetiva, hasta que nuevas evidencias sean presentadas. al mismo tiempo, fundamentados en nuestras propias deducciones podremos evaluar si los resultados están de acuerdo con el conocimiento actual, y si nos permiten trasladar sus pro- bables beneficios a la práctica clínica. 8. Referencias bibliográficas constituyen una parte importante del artículo porque brindan solidez a los hechos ex- puestos por el autor, además, ofrecen varias opciones de información sobre conceptos, técni- cas, metodologías, etc., que sustentan la teoría de la investigación. Las referencias facilitan la posibilidad de ampliar la información sobre el aspecto tratado, por ello es primordial que el ensayo cuente con las referencias adecuadas y actualizadas. 9. El conflicto de intereses Gran parte de la investigación en medicina ha quedado en manos privadas, y sobre todo la investigación farmacológica. esta realidad nos lleva a tener en cuenta que las empresas es- peran rendimientos; y si bien es cierto que cuanto más efectiva sea una drogamás aceptación tendrá en la clase médica, no es menos cierto que muchas investigaciones se realizan teniendo en cuenta las necesidades del mercado, y sobre todo de un mercado que pueda enfrentar gas- tos sanitarios. esto no es una crítica, es la descripción de un hecho, la investigación puede encararse de diferente manera si el que investiga lo hace para solucionar un problema o para obtener rendi- mientos económicos. por ello, es necesario que al publicar se explicite con toda claridad si se tiene algún conflicto de intereses, y si la investigación ha sido financiada total o parcialmente por empresas interesadas en el resultado. el conocerlo no invalida de ninguna manera los logros, simplemente permite a los lectores ampliar el juicio global del estudio en cuestión.36 corolario Hasta aquí comentamos qué buscar y cómo interpretar la información contenida en cada sección de un artículo científico, el objetivo fue ofrecer las herramientas para valorar en forma [ 138 ] crítica la información que se consulta y particularmente ponderar los méritos conceptuales y me- todológicos de las investigaciones publicadas. esperamos que este capítulo sea de utilidad para los que se inician en el apasionante campo de la investigación. elaborar las propias conclusiones y confrontarlas con los resultados que ofrecen otros investigadores puede ser el primer paso. Referencias sacket D, scout richardson W, rosenberg W, Brian Haynes r. evidence-based Medici-1. ne. How to practice & teach eBM. 1997, pearson professional Limited. echt Ds, Liebson pr, Mitchell LB, peters rW, Obias- Manno D, Barkers aH et al. Mor-2. tality and morbidity in patients receiving encainide, flecainide, or placebo. the cardiac arrhythmia suppression trial. N engl J Med 1991; 324: 781-788. the cardiac supresión trial ii investigators. effect of the antiarrhythmic agent moricizi-3. ne on survival after myocardial infarction. N engl J Med 1992; 327: 227-233. Vaughan Williams eM. a classification of antiarrhythmic actions reassessed after a de-4. cade of new drugs. J clin pharmacol 1984; 24: 129-147. Greenhalgh t. How to read a paper. the basics of evidence based medicine. 25. nd edition 2001. BJM Books. Dawson-saunders e, trapp r. Basic and clinical Biostatistics 1990. ed appleton & 6. Lange. cap. 2; 7-21. Greenhalgh t. assessing the methodological quality of publisher papers. BMJ, 1997; 7. 315: 305-308. LeLorier J, Grégoire G, Benhaddad a, Lapierre J, Derderian F. Discrepances between 8. meta-analyses and subsequent large randomized, controlled trials. N engl J Med 1997; 337: 536-542. cappelleri Jc, ioannidis Jpa, schmid cH, et al. Large trials versus meta-analysis of sma-9. ller trials. How do their results compare? J am Med ass 1996; 276: 1332-1338. Villar J, carroli G, Belizan JM. predictive ability of meta-analyses of randomised con-10. trolled trials. Lancet 1995; 345: 772-776. Naylor David c. Meta-analysis and the meta-epidemiology of clinical research. Br Med 11. J 1997; 315: 617-619. egger M, Davey smith G. Misleading meta-analysis. Br Med J 1995; 310: 752-754. 12. ioannidis J., cappelleri J. c., Lau J., et al. Meta-analyses and Large randomized, con-13. trolled trials. N engl J Med 1998; 338: 59-62. Dawson-saunders e, trapp, r. Basic and clinical Biostatistics 1990. ed appleton & 14. Lange. cap. 7; 136-138. Jaffe as, Vatus H. acute coronary syndrome biomarkers. the need for more adequate 15. reporting. circulation 2004; 110: 104-106. Dawson-saunders e, trapp r. Basic and clinical Biostatistics 1990. ed appleton & 16. Lange. cap. 15; 305-318. Gottlieb s. Dead is dead - artificial definitions are no substitute. Lancet 1997; 349: 662-17. 663. [ 139 ] Greenhalgh t. How to read a paper. the basics of evidence based medicine. BMJ publis-18. hing Group. 2001; cap. 5: 76-93. Hill B. the clinical trial. Med Bull 1951; 7: 278-282. 19. Brotman DJ, Walter e, Lauer Ms, O´Brien rG. in search of fewer independent risk fac-20. tors. arch intern Med 2005; 165:138-45. Greenhalgh t. How to read a paper. the basics of evidence based medicine. BMJ publis-21. hing Group. 2001; cap. 7:105-119. Jaeschke r, Guyatt GH, sackett DL. Users ǵuides to the medical literature. iii. How to 22. use an article about a diagnostic test. are the results of the study valid? evidence-Based Medicine Working Group. J am Med ass 1994; 271: 389-391. altman D.G., Bland J.M. statistics Notes: Diagnostic tests 1: sensitivity and specificity. 23. Br Med J 1994; 308: 1552. altman D.G., Bland J.M. statistics Notes: Diagnostic tests 2: predictive values. Br Med 24. J 1994; 309: 102-107. Dujardin B, Van der ende J, Van Gompel a, et al. Likelihood ratios: a real improvement 25. for clinical decisión making? eur J epidemiol 1994; 10: 29-36. altman D.G., Bland J.M. statistics Notes: Diagnostic tests 3: receiver operating charac-26. teristic plots. Br Med J 1994; 309: 188-193. antman e, Lau J, Kupelnick B, et al. a comparison of results of meta-analyses of rando-27. mized control trials and recommendations of clinical experts. treatments for myocardial infarction. J am Med ass 1992; 268: 240-248. Magliano DJ, rogers sL, abramson MJ, tonkin aM. Hormonal therapy and cardiovas-28. cular disease: a systematic review and meta-analysis. BJOG 2006; 113:5-14. evidence-Based guidelines for cardiovascular disease prevention in women: 2007 Upda-29. te. circulation 2007; 115: 1481-1501. a. Fahey t, Griffiths s, peters tJ. evidence based purchasing: understanding results of 30. clinical trials and systematic reviews. Br Med J 1995; 311: 1056-1060. pearce N. What Does the Odds ratio estimate in a case-control study? int J epidemiol 31. 1993; 22(6):1189-1192. Forrow L, taylor Wc, arnold rM. absolutely relative: How research results are sum-32. marized can affect treatment decisions. am J Med 1992; 92: 121-124. Naylor cD, chen e, strauss B. Measured enthusiasm: Does the method of reporting trial 33. results alter perceptions of therapeutic effectiveness? ann intern Med 1992; 117:916-921. Furukawa ta, Guyatt GH, Griffith Le. can we individualize the number needed to 34. treat? an empirical study of summary effect measures in meta-analyses. int J epidemiol 2002; 31:72-76. sinclair Jc, cook rJ, Guyatt GH, pauker sG, cook DJ. When should an effective 35. treatment be used? Derivation of the threshold number needed to treat and the minimum event rate for treatment. J clin epidemiol 2001; 54: 253-262. Doval Hernán c. ¿es fiable lo que leemos en las revistas médicas? resultados diferentes 36. según el patrocinio de los ensayos clínicos rev arg cardiol 2007; 75: 498-502. [ 140 ] CAPÍTULO 11 Delimitación de un área de investigación Análisis de los conocimientos existentes y elaboración de nuevas cuestiones. Eduardo B. Arribalzaga el siglo XX demuestra una aceleración de la historia al testimoniar sobre innovaciones científicas y avances tecnológicos con un creciente volumen de información sucedida con inusitada rapidez. esta celeridad en la aparición de conocimientos es, tal vez, el factor con mayor impacto en el estilo de vida cotidiano al modificar realmente las formas de comunica- ción e incrementar las áreas de investigación,9 incluso con áreas como la ingeniería genética donde hay que repensar los derechos de la propiedad intelectual de los nuevos descubrimien- tos.2, 32, 37 en las últimas dos décadas se obtuvieron beneficios como la creación de nuevos problemas que generaron tanto incomprensión como prevenciones hacia el mundo científico y se buscó necesariamente el consenso basado en la evidencia científica.6, 12 Una fuente de esa divergencia es que los científicos logran integrar un especial conjunto de objetivos, creación de conjeturas en el transcurso de su aprendizaje y guían su visión de los problemas según la naturaleza de su propia disciplina con ignorancia de la relación existente con la comunidad no científica que dificultan ese conocimiento hasta límites insospechados.30, 33, 41No se debe olvidar que la ciencia se opone en absoluto a la opinión:7 la opinión traduce necesidades en conocimientos y esto es un claro error conceptual. al designar los objetos por su utilidad, ella se prohíbe conocerlos. además, para agregar más confusión, no sólo aumenta el número de artículos editados en revistas científicas sino que aparecen nuevas publicaciones,50 incluso en formatos no tradi- cionales como la edición virtual electrónica: en 1970 se habían publicado cuatro millones de artículos (3) y en la actualidad se suman aproximadamente 5.000 nuevos títulos diarios de todo tipo (artículos originales, de revisión, monografías, etc). por más que la aparición de internet y los avances en el uso de computadoras personales con una intensa aplicación en las ciencias de la educación y las comunicaciones, permitieron el surgimiento de medios dinámicos muy eficaces para el manejo ordenado de un flujo creciente y constante de documentación científica y tecnológica, un nuevo paradigma de comunicación masiva se ha reconocido y facilita no sólo al nivel científico-tecnológico sino a toda la huma- nidad, con amplia comunicación de su método, sin exagerar su indisoluble asociación con la industria farmacéutica13, 26, 38, 43, 47, 72, 97,98 e infringir normas éticas elementales.14, 23-25, 46, 75 [ 141 ] acerca de la validez del método científico Una aproximación desarrollada por los científicos para percibir e investigar el mundo exterior es conocido como método científico, que no debe entenderse solamente como refe- rencia a un conjunto de procedimientos definidos rígidamente y asegurado por el hallazgo de respuestas correctas; la ciencia no es una sencilla máquina de resolución de problemas. en vez de eso, engloba cualquier aproximación para ayudar a descubrir la Verdad acerca de la naturaleza.17 el trabajo del científico consiste en proponer teorías y en contrastarlas.81 a veces, el amplio campo de actividades llamadas científicas, refleja un conjunto de principios que emergieron relativamente tarde en el desarrollo de la civilización. se cambió de una creencia en designios divinos o sobrenaturales con milagros incluidos a un sistema de preceptos que contenían la idea justificada y hallada en un mundo determinista-positivista, susceptible de un análisis racional. Otra innovación fue la abjuración del pensamiento filosó- fico y fijar en su reemplazo preguntas bien definidas y con resultados posibles de medir, coin- cidentes con un coherente mundo conceptuado acerca de la naturaleza (pequeños ladrillos en un gran edificio de conocimientos, que encajan unos con otros). también la ciencia descubrió en forma desordenada un pensamiento discursivo con difi- cultades para separar repentinamente 2 clases de nociones: las observaciones y las conclusiones. La primera debe ser verificable pero más tarde siempre es tema de reemplazo (o revisión) ante nuevas evidencias y principios. en la práctica, los conceptos esenciales tienen (o no) probada fiabilidad por el simple paso del tiempo: las bases del edificio científico son cotidianamente consolidadas por la importancia de hallazgos posteriores. al principio, sólo se comenzó con descubrimientos individuales, sin relación entre ellos hasta que, al incorporarse como un cam- bio social, acumuló secuencialmente y sin interrupciones nuevas nociones en un intercalado entretejido en el cuerpo global del conocimiento. estos conceptos son de categoría jerarquizada: busca la comprensión de los fenómenos no solamente a un nivel particular de organización como así también en términos de propiedades e interacciones de sus componentes. como ejem- plo de este principio de explicación o reducción de sucesos a un primer nivel de interacción de sus componentes (el reduccionismo), se comprende la neurobiología al dominar su complejo desarrollo como una simple interacción bioquímica de sus componentes. se entiende mejor un fenómeno y se tiene más confianza en su interpretación si refuerza nuestro razonamiento acerca de sus características a diferentes niveles comparado con otros conocimientos, formas de pensamiento que deberían incorporarse en el grado universitario,22, 83, 99 con la asociación de la investigación a la práctica asistencial cotidiana.18, 52 Diferenciar entre la investigación básica, cuyo objetivo es comprender la naturaleza de la investigación aplicada (que pretende su utilización controlada), no siempre es clara y es fuente permanente de tensión entre científicos y médicos asistenciales por los riesgos generados54, 82 así como con los organismos estatales de financiamiento de las investigaciones.55 Los conocimientos empíricos (basados en la experiencia) desarrollaron una destacada y abundante tecnología, pero sin una racional y coherente idea científica. actualmente la tecnología es dependiente de la ciencia y sus diferencias son muy precisas (tabla 1) [ 142 ] tabla 1: diferencias entre ciencia y tecnología Ciencia Tecnología Orientada al conocimiento Orientada a las necesidades Parte de la búsqueda del conocimiento Parte de la utilidad Soluciona interrogantes Soluciona problemas prácticos Inquisidora Constructiva Nuevo conocimiento como producto del análisis Nuevo objeto tecnológico como producto de la síntesis es imprescindible conocer la promoción pública de nuevas investigaciones así como sus posibles aplicaciones y consecuencias con especial énfasis en que su aplicación tecnológica no está exenta de riesgos. Muchas técnicas de avanzada, como por ejemplo la ingeniera genética, han generado muy fácilmente ansiedad y temores, aunque remotos como son los hipotéticos riesgos que comprometerían la dignidad humana.57, 60 para los científicos es muy difícil corregir estos conceptos equivocados, porque siendo investigadores no pueden, con buena intención conciente, definir enunciados absolutos de seguridad (58) sin ser vistos como defensores de sus propios intereses (becas, subsidios, pre- mios, prestigio (59, 63) y resultar contrarios con el compromiso de bienestar de la sociedad. el método científico, con desarrollo constante debido a Francis Bacon desde el siglo XVii, no es estático y comprende desde la descripción pasiva (la historia natural) con los mecanismos subyacentes en un proceso, hasta la revolucionaria introducción del experimen- to al manipular condiciones de un fenómeno y observar los efectos resultantes, intencional ejercicio intelectual promovido por el genio de Galileo. cuando la experimentación varió el énfasis de la lógica inductiva a la deductiva (derivando las consecuencias de un principio teórico), se afirmó indudablemente la descripción hipotético-deductiva. en pasos sucesivos, las observaciones cargan con la imaginativa creación de una hipótesis explicativa. La lógica es destinada a deducir las consecuencias así como una mezcla de lógica e imaginación es apli- cada para diseñar experimentos y obtener resultados y consecuencias esperadas. el investiga- dor o bien usa métodos conocidos o desarrolla nuevos para llevar a cabo sus experimentos. a veces, las brillantes ideas dependen más de un salto imaginativo que de la intuición. por eso, modelo e interpretación son virtualmente sinónimos de hipótesis pero con menor énfasis en la naturaleza tentativa del concepto. teoría y más a menudo ley, son usadas para expresar algo desde el punto de la significación (la importancia). recordar también acerca de la naturaleza provisoria de las conclusiones que muchas veces pueden no distinguirse de las hipótesis y que las dejan claramente descartadas ante nuevas y probadas evidencias. La moderna ciencia es dominada por esta concepción hipotético-deductiva, donde la eta- pa descriptiva sigue siendo muy importante: el análisis equivocado de datos o su insuficiente recolección determinan errores que pueden originar riesgos y/o peligros para la sociedad. Las diferencias entre la técnica y la tecnología (tabla 2), productos finales de la investigación científica, definenel perfil de las investigaciones a desarrollar en el futuro. [ 143 ] Técnica Tecnología Objetivo compartido: actuar en la realidad satisfaciendo los intereses de los sujetos. Ambas poseen un carácter socialmente estructurado Es Procesal con técnicas en Es Procedimental e instrumental determinado marco sociocultural Es constitutiva del hombre Es contingente. Surge con la ciencia Es unidisciplinaria. Ej. Fabricación artesanal El multidisciplinaria integrada en procesos industriales vinculada al conocimiento científico Intereses individuales Intereses colectivos tabla 2: Diferencias entre técnica y tecnología al idear nuevos instrumentos y procedimientos nuestro análisis se incrementó sensible- mente y aseguró al científico un conocimiento de sus límites y la elección de aquello que era apropiado para su propósito. La ciencia no sólo tiene límites sino grandes poderes que pueden destinarse a resolver preguntas objetivamente enunciadas del mundo exterior y es limitada su capacidad en solucionar cuestiones que involucran valores morales o estéticos. el reclamo de soluciones científicas para los problemas sociales a veces son tentadores pero se acercan a posiciones políticas equivocadas más que lograr resultados exitosos esperados. el científico, en determinadas oportunidades, no aprecia las diferencias entre la ciencia y los problemas que incluyen valores, y con humildad debe aprender a no generar expectativas públicas frus- trantes a mediano y/o largo plazo. por consiguiente, hay que comprender las diferencias entre las ciencias naturales y las sociales para evitar y/o reducir las odiosas comparaciones: no puede la ciencia responder a controversias sociales, pero puede ayudar a reconocer que dichos problemas involucran no solo valores sino también otros factores (biológicos, toxicológicos, etc) que le permiten a la ciencia ejercer una crítica enérgica y útil. Uno de las desventajas del avance científico en determinadas áreas donde es exitosa es que muchos intelectuales desviaron la atención en advertir la temprana preocupación si la principal existencia es de los principios o por el contrario de los valores e intereses conflic- tivos contra los cuales se ha de enfrentar. Más allá de mellar muchas creencias de tradi- ciones religiosas, se ha originado un nuevo conflicto: la debilidad del consenso moral. La inevitable y comprensible reacción ha sido fuente de un antiguo antagonismo con la ciencia. La búsqueda de un fuerte consenso en valores y una gran cohesión social, beneficiará más desde la claridad de las relaciones entre la ciencia y los valores que desde cada una de las partes intervinientes. se asume que la ciencia está aquí para quedarse, pero a la sociedad en general este crecimiento inédito de la ciencia y la tecnología la hace temer entrar en una era sombría. [ 144 ] Fuera del limitado espectro del método científico, otra limitación es la imperfección en muchos casos en la búsqueda del apropiado acercamiento y se da muchas veces por casualidad con el método adecuado. cuando se prueba la experimentación a una cuestión aparentemente sencilla en un campo de estudio bien definido,61, 62 el sendero es a menudo tortuoso, con muchas falsas opciones. en el edificio de la ciencia, muchos ladrillos pueden reemplazarse por otros antes que el defecto pueda ser revelado, demostrando así que los más importantes avances en la ciencia son rápidamente aceptados,69 las incertidumbres en algunas áreas pueden originar extensas controversias:67 ocasionalmente se sugiere la existencia de fraude científico,84 cuando es imposible de verificar.85 Muchas veces la pasión puesta en la investigación en perseguir una línea de trabajo origina tensiones y pérdida de la objetividad: el científico quiere probar que no está equivocado y ve “más allá” de los verdaderos resultados obtenidos.86, 88 La responsabilidad de aceptar su correspondencia con la realidad,90 hace que las reacciones iniciales a la nueva propuesta sean influídas tanto por modas, prestigio de los investigadores, relaciones públicas-comerciales, rivalidades de grupos de investigación y la fuerza de las necesidades de aceptación de las novísimas ideas. por eso, es tan difícil la adhesión a nuevas líneas de investigación o de sus resultados.87, 91 características generales de la investigación científica se debe desarrollar la investigación bajo ciertas condiciones para describir hasta comparar e inferir la mejor decisión a seguir desde los resultados obtenidos. en los experimentos donde se tratan de probar diferencias entre variables, es necesario tener un grupo control para saber si los cambios presentados se deben al experimento en sí. en biología hay oposición no sola- mente por la complejidad de los sistemas analizados sino también por las variaciones acostum- bradas por la evolución: dentro de las especies frecuentemente no hay 2 miembros idénticos. estas fuentes de variaciones originan resultados conflictivos y son “culpables” de sorpresas. en tanto que los avances científicos siguen una aparente vía con nuevos hallazgos y técnicas que responden a nuevas cuestiones a solucionar, en muchos fructíferos descubrimientos se puede señalar que a menudo existió un encuentro accidental con algo inesperado llamado suerte o azar. sólo quien esté preparado para “advertir” esta casualidad, sabrá sacar provecho de estas situaciones. recordar que Fleming, cuando “descubrió” la penicilina, estaba rodeado de inves- tigadores tan famosos o más que él y solo quien fuera posterior premio Nobel se “dió cuenta” de la revelación. como diría pasteur “en el campo de la investigación la posibilidad favorece solo a mentes preparadas”. es muy común prepararse intelectualmente reteniendo el acceso a adecuados bloques de información actualizada que permitan la interesante asociación de ideas y resolver el paso del pensamiento abstracto al concreto o viceversa sin obstáculos (15). Hay que “tener olfato” para saber distinguir lo importante de lo trivial y pasajero en la información bibliográfica analizada (4), de similar entidad a un buen diseño de protocolo de experimenta- ción, prerrequisito para reconocer resultados inesperados. por otro lado, asumir que la evidencia objetiva puede eventualmente ser la culpable de la representación fidedigna de la realidad, en muchas ocasiones confronta con las hipótesis propuestas. esta es una de las intransigencias de la ciencia: el criterio de la evidencia objetiva como base de cualquier investigación. como decía Marañón “una bella hipótesis puede ser [ 145 ] destruída por una fea realidad”. por eso, los investigadores son particularmente impacientes cuando se presentan en la prensa no científica evidencias o grotescos argumentos creando falsas expectativas a la sociedad.5 modos de almacenamiento y acceso a la información: publicaciones y bases de datos Difusión de los conocimientos al admitir que un “byte”35, 36 permite almacenar una información determinada con ca- racterísticas similares al alfabeto, y que por lo tanto una publicación científica escrita en “bytes” en un medio electrónico es similar a una palabra, número o parte de un gráfico, se redefine entonces que un artículo científico escrito en “bytes” es semejante a la transmisión de información mediante papel: escribir un artículo científico y que los lectores lo lean me- diante un sistema de computación es de igual significación que leer una tradicional revista científica. internet es una de las más conocidas redes electrónicas de sistema abierto, que cuenta con aproximadamente algo más de 1000 millones de usuarios en todo el mundo3 y es una red de redes electrónicas. su uso, facilitado por su relativo bajo costo, facilidad de acceso, rapidez en la comunicación, tiene distintas herramientas informáticas para ofrecer (teLnet, Gopher servers, Ftp, World Wide Web servers). La mayoría de los centros académicos pueden penetrar en el ciberespacio, y esto transformó a la computadorau organizador personal (la popular pc) en una formidable herramienta multimedia que puede ser manejada razonablemente para muchos emprendimientos de investigación. el gran número de recursos técnicos, científicos y biomédi- cos existentes al “internarse” en esta red es de particular interés para el mundo de la medicina. Muchos centros médicos, grupos de investigación y hasta organizaciones gubernamentales (co- mo el National institutes of Health) o no gubernamentales (Organización Mundial de la salud, UNescO, etc) ofrecen sus servicios y facilitan la comunicación de sus informaciones. Una de las redes enlaza directamente a 450 instituciones de enseñanza superior y centros de investi- gación en los estados Unidos y se llama sistema BitNet.3 a su vez sirve de sostén al sistema BitNits de la National Library of Medicine, de Washington, principal biblioteca de medicina en el mundo y responsable del index Medicus y su versión en cD-rOM, el Medline. Otra de las redes es el MeDis que la asociación Médica americana usa para difundir el texto completo de los artículos publicados en sus diversas revistas científicas como el JaMa, archives of internal Medicine, archives of Dermatology, entre otras. al existir diversas maneras de transmisión de la información científica,103 algunas como los cD-rOM (discos compactos con memoria solamente para lectura. en inglés, compact Disks read-Only Memory), que se leen con las computadoras, o el correo electrónico (e- mail), medio de divulgación electrónica, tal vez el más popular a nivel nacional e internacio- nal que permite enviar un mensaje, una carta, una fotografía, una hoja de cálculos, una base de datos o un documento escrito mediante el sistema telefónico conectado con una computa- dora o cientos de ellas según sea su destino, se amplía la difusión de conocimientos (nuevos, o ya vistos pero sin publicación previa) al expandir e interconectar a los investigadores, sin importar en que lugar del planeta tierra se encuentren. [ 146 ] Una herramienta a considerar es la telaraña o www (“world wide web”) o simplemente “web”, interfase de la red de computadoras interconectadas que tiene un complejo y atractivo formato (las páginas web) donde se intercalan figuras con texto y que posee un localizador uni- forme de recursos, transmitido mediante un protocolo de transferencia de hipertexto (el famoso “http”); se escribe por medio de un lenguaje especial (“html, hypertext markeup language”). Los programas que usan la “web” están disponibles en muchos sistemas operativos de sistemas de computación: simplemente al teclear (y marcar) o resaltar un texto en la pantalla de computa- ción, el usuario puede navegar (o “surfear”) en la red de internet en busca de información. De esta manera, crear con buena calidad una página “web” no es tan dificultoso como lento de hacer, pero se deben seguir diversas guías que caracterizan la autoría de la telaraña (“web”). existen criterios de autoría protegidos por leyes (3), similares a todos los conocidos en la actualidad (especialmente en libros, revistas, videos, películas, etc), con reconocimiento expreso de la propiedad intelectual y un importante interés comercial no bien advertido en los países en desarrollo. en determinadas especialidades médicas como la radiología, el uso intenso de imágenes puede ser beneficioso para la educación de especialistas, al existir en diferentes lugares del mundo “depósitos” de información radiológica que estén siempre dis- ponibles al alcance de los usuarios de esta red de redes como es internet. Una de las desventajas, por más que se encuentre la información en las páginas “web”, es que esto no asegura su búsqueda y que tenga una aplicación práctica de consulta. No existe un acceso universal a internet por ahora, aunque se predice que en los próximos años todo el mun- do lo tendrá facilitado.3 también otra dificultad es comunicar resultados preliminares de estu- dios de investigación que puedan originar técnicas o terapéuticas dañinas para los pacientes. por eso se deben considerar los artículos que hayan sido aprobados por sistemas de revisión de revistas o comités de ética. ciertas revistas como el New england Journal of Medicine plantean la necesidad de seguir la regla de ingelfinger51 que establece no publicar aquello que no ha sido sometido a revisión por pares o si ya fue publicado con anterioridad. se considera a la presenta- ción de un artículo en correo electrónico como una publicación científica formal, aunque sólo sea un resumen o “abstract”. La revisión por pares (“peer review system”) es fundamental para mantener la calidad de la información provista por las revistas científicas, aunque estas sean electrónicas o sólo usen el correo electrónico como medio de difusión.3 se advierte que si se utiliza la red internet para solamente artículos preliminares, en muy poco tiempo las revistas científicas convencionales podrían publicar muy poco, por haber sido la información ya publicada mediante otra forma. Otra forma de divulgación de un artículo científico mediante internet es su disponibili- dad en un simple formato que almacena un documento. a esto se llama portable Data Format (pDF) que necesita un programa especial para su lectura (muchas veces se descarga gratis de internet, el programa Acrobat Adobe Reader, en varias versiones). también el artículo científico escrito para una revista electrónica, parece ser una vía actual en amplio proceso de expansión, como una nueva manera de comunicación propuesta que es la presentación en powerpoint de archivos que semejan artículos de una revista3 en virtud de ser una estructura capaz de capturar información tecnológica (it en inglés) con su procesamiento, almacenamiento, filtrado y distribución. así se reconocen condiciones para que el manejo del conocimiento entre pares (científicos, especialistas médicos, etc.) sea [ 147 ] completo en una flamante forma. Una desventaja es no poder evaluar cómo son presentados los manuscritos al sistema de revisión por pares: hay que actuar con la misma metodología porque actualmente es el tiempo de la evidencia basada en la comunicación científica, pasible también de una estricta evaluación para no trasmitir conocimientos de escasa o nula im- portancia. así se han visto diferencias entre la revista tradicional y aquella hecha en power- point,3 donde además hay un proceso de post-revisión por pares en el cual se evalúa la calidad al final de la presentación de powerpoint. La más novedosa idea, aún sin ejecución, fue presentada en recife, Brasil, durante un Workshop de editores científicos en septiembre de 2004. en una Mesa redonda denominada “experiencias positivas/innovadoras de algunas revistas científicas brasileñas”, se propuso la unión de un conjunto de editores científicos que cree un sitio WeB, y en él se colocarían electrónicamente los nuevos artículos que estarían protegidos por un certificado digital.100 Los editores estarían constantemente tomando conocimiento de las informaciones que se almacenan y aquellas que fueran de calidad e interés para las revistas tradicionales serían seleccionadas electrónicamente para una mayor difusión vía impresión en papel. por otro lado, la publicación en papel se ve paulatinamente limitada debido al progresivo aumento del costo de su materia prima (el papel), además de tornar complejo el continuo almacenamiento de publicaciones impresas porque el espacio es limitado y de alto valor eco- nómico. internet ofrece, entonces, soluciones a estos problemas al cambiar drásticamente la forma como los científicos comunican el resultado de sus investigaciones. Revisión Editorial todas las posibles formas de futuras publicaciones tienen como característica común dar una mayor agilidad al proceso de publicación del conocimiento científico. se pretende así ayudar principalmente a los nuevos graduados en el proceso de elaboración de manuscritos de conocimientos con creciente valor cualitativo y de interés,100y atender la elaboración de nuevas cuestiones, basados estos en problemas de la práctica asistencial. por lo tanto, es absolutamente necesario conocer las actividades de los cuerpos editoriales para, de esta forma, saber si se cuenta con interlocutores válidos ante la evaluación de un ma- nuscrito original:3 no se puede exigir evaluación imparcial y perfecta donde no haya un cuerpo u órgano editorial sin interpretar acabadamente sus funciones y responsabilidades,92, 106 que use pautas internacionales de edición y asimismo sea reconocido por entidades editoriales como el comité internacional, consejo de editores científicos, asociación Mundial de edi- tores, asociación europea de editores, etc, entes que cumplen funciones de investigación y docencia en esta particular área de la publicación científica. precisamente en 1988, el comité internacional de editores de revistas Médicas agregó normas para presentar por escrito los aspectos estadísticos de la investigación89 o intensificar en aspectos gramaticales del ma- nuscrito para facilitar su claridad y precisión.34 recordar que una buena redacción es como una pecera: si el vidrio está opaco impedirá ver a los peces pero si es transparente y claro se apreciará en toda su magnitud la belleza de su contenido.3 Lo mismo ocurre con un original bien redactado. este procedimiento de revisión por pares de todo manuscrito original10, 107 no es un ca- pricho de los editores sino que constituye la piedra fundamental de la idea de publicar úni- [ 148 ] camente aquello con valor y poseedor de una metodología científica eficaz, luego de una evaluación exhaustiva de su contenido y forma. De este modo, se evitarán hipótesis confusas o no probadas, triviales o hasta peligrosas.26, 102, 104 se solicitará el consentimiento informado de los pacientes involucrados en el escrito,19 distinguir si se publica para un evento científico o una revista biomédica,3 o si es la divulgación de conocimientos a la comunidad no científica20, 78 o un original método de enseñanza a estudiantes y jóvenes graduados. para ello es ventajoso comprender si efectivamente el autor es quien realizó la investigación,3 si se realizó una previa y profunda evaluación de la literatura pertinente,3 con adecuada selección de revistas con- sultadas73 y recuperación de citas atinentes95 que permiten la formulación de preguntas apro- piadas a la idea de investigación, sin dejar de lado ni las evidencias31, 53, 96 ni todas aquellas explicaciones científicas necesarias.3, 29 recordar que la ausencia de evidencia no es evidencia de ausencia de importancia de los resultados obtenidos,1 se detectará y excluirá toda conduc- ta catalogada como incorrecta desde el punto de vista ético76, 101 como formal28 ni publicar probadamente resultados intrascendentes o muy preliminares.40 por estas razones, que no son todas las involucradas en un artículo científico que es el co- rolario final de toda investigación científica (experimental u observacional), cada autor/inves- tigador debe estar dispuesto a ampliar sus lecturas de trabajos y/o áreas de investigación,44, 45, 66 para asegurar la calidad del material escogido y ser la base para la elaboración de un marco teórico3 y definir así qué clase de artículo científico es el mejor para enumerar sus resultados. asimismo, tendrá en consideración su forma de presentación,56, 65 el detalle de complejos diseños de investigación70 o si la revista a enviar el manuscrito original es la más apropiada para sus observaciones;3 igualmente si es preferible su difusión por vía electrónica36, 51 o la tradicional en papel. La decisión final de aceptación o rechazo del manuscrito, luego de su revisión editorial, no es más que la búsqueda de la excelencia en las publicaciones39 para no proponer insignificante o irrelevante información, con errores graves en su intentada origi- nalidad o sin destacar la precedencia de otros autores en la idea investigada, uso excesivo de auto-citas bibliográficas (como si uno fuera el único que estudió ese tema) o con defectos de forma. por eso, antes de la entrega del manuscrito a la editorial correspondiente para su evaluación, averiguar con “un par de ojos nuevos y frescos”, como si se lo leyera por primera vez, si está a prueba “de balas”3 desde todos los aspectos posibles a considerar en una revisión para que no sea rechazado.80 No olvidar que la salud pública debe ser preservada y por lo tanto, sólo investigaciones cuyos resultados fueron evaluados por árbitros y/o especialistas certificados mediante el pro- ceso de revisión editorial, como también el prestigio y la reputación de los autores y la revista implicada, exigen un cuidado especial en el manejo del manuscrito, excluyéndolo si la informa- ción contenida es dada a conocer por otra vía no evaluada científicamente:42 recordar el caso de robert Gallo que primero se preocupó en dar a publicidad por periódicos no científicos el “supuesto descubrimiento del virus del siDa-HiV” y luego se probó que todo era falso.78 La responsabilidad de la publicación de investigaciones inexistentes no debe recaer ex- clusivamente en los editores que las permiten16 sino también en los lectores que están siempre comprometidos con el contenido al admitir aquellos notoriamente engañosos, confusos al entregarse en formato electrónico49 o provenir del mundo en desarrollo68, 105 donde se aduce que los sistemas de revisión no existen o son muy inverosímiles.79, 105 en más de la mitad de [ 149 ] los casos no hubo respuestas por parte de los autores ante reclamos y/o preguntas de los lectores,48 con lo cual invalidaban y distorsionaban peligrosamente el nuevo conocimiento clínico presentado. Los autores creen poseer grandes ideas y saber escribir maravillosos artículos,71 pero no conocen en realidad cómo se hace el trabajo; por esta simple razón es que los editores esperan de los investigadores/autores que comprendan y acepten las decisiones editoriales y que dicho procedimiento debe permanecer en el anonimato con una demanda de bastante tiempo de revisión;77 el resultado final es la mejoría del trabajo expuesto inicialmente. si los equívocos de los autores son responsabilidad del cuerpo editorial por no ser evidente lo que se pide al evaluar y reaccionar como si se exigiera algo utópico o irreal,93 es innegable que los trabajos no se reformarán y el complejo tramado de edición de una revista3 se transformará en un in- trincado galimatías de muy difícil resolución. se comprometerá a mejorar la calidad como si fueran informes sucintos que delimiten el problema y sus posibles soluciones probadas.94 también deberán recordar los autores que los consensos han sido ampliamente usados desde hace mucho tiempo como forma de ayuda para la distribución de recursos o en la to- ma de decisiones: se disminuirán los sesgos durante la investigación y se evitaran decisiones unilaterales del investigador, supuestamente más famoso, para interpretar equívocamente la realidad de los resultados logrados. Métodos de consenso universalmente aceptados son el Delphi y la técnica del Grupo Nominal;6 en estos métodos existe una combinación, casi perfecta, de la síntesis de evidencia científica y la interacción intelectual y experimentada de los expertos. Las recomendaciones y Guías que se obtienen para la práctica clínica, fin último de la mayoría de las investigaciones, se basan en la lectura crítica de literatura cien- tífica previa, y por lo tanto, es necesario conocer toda la información relacionada con un tema específico de investigación, con selección y resumen en función de su aportada calidad. con el fin de analizar la calidad de la información en cuanto a las Guías de práctica clínica, una iniciativa europea (aGree) produjo un listado de criterios útiles para su lectura crítica (www.agreecollaboration.org).6 Reflexión final No hay fin del progreso científico-tecnológico ni final de la difusión de las revistas cien- tíficas porque involucraría la falta deinvestigaciones; por eso empezar ahora mismo una in- vestigación, ya sea para escribir la tesis nunca realizada, una revisión actualizada de un tema que interesa especialmente y de utilidad práctica asistencial o un caso clínico observado que demandó un tiempo mayor de preocupación intelectual. el tiempo es hoy y ya están presentes las formas imaginables del artículo científico del siglo XXi a disposición de todos, según el tipo de investigación a desarrollar y las consecuencias de ésta (Mapa conceptual 1): [ 150 ] mapa conceptual 1: Los avances científicos dependen tanto de poner “las manos en la masa” (la práctica de la observación, clínica o experimental) como de tener ideas y nuevos conceptos (formar la teo- ría) para recíprocamente disponer tanto de la inteligencia como de la habilidad de manipular herramientas o instrumentos que permitan el progreso de la evolución humana, con orgullo y sin prejuicios de ningún tipo.64 así como se enseñó a ser investigador profesional,21, 29 también se debe aprender a ser autor. parafraseando a Marañón, investigadores/autores, a las cosas!!!! Referencias altman DG, Bland M. 1. Absence of evidence is not evidence of absence. BMJ 1995;311:485. andrews LB. 2. Genes and patent policy: rethinking intellectual properties rights. Nature 2002;3:803-7. arribalzaga eB, Borracci ra, Giuliano rJ y Jacovella pF. 3. El artículo científico. Del papiro al for- mato electrónico. editorial Magíster eos, Buenos aires, 2005. arribalzaga eB y Mihura Me. 4. Cirugía basada en la evidencia: moda, mito o metodología mo- derna? rev argent cirug, 2001;81(1-2):18-29. iNVestiGacióN cieNtíFica causas de enfermedad a través de que identifica y resolver problemas actuales recUrsO que implican para velar por analizado con Dilemas Éticos principios y reglas interés del paciente investigación Básica inventigación clínica Decisiones [ 151 ] arribalzaga eB. 5. Dilemas de investigación científica. anal Fac Medicina Univ May san Marcos 1997;58(2):149-152. asua J. 6. Conferencias de consenso basadas en la evidencia. Gac Med Bilbao 2006;103:3-6. Bachelard G. 7. La formación del espíritu científico. editorial argos, Buenos aires, 1999, 22ª. edi- ción. Bachrach sM. 8. Scientific journals of the future. american academy of arts and sciences, 2005. Barcat Ja. 9. Original e interesante. rev Méd rosario, 1992;60(1):42-43. Baue ae. 10. Peer and/or peerless review. arch surg, 1985;120:885-6. Beecher HK. 11. Ethics and clinical research. N engl J Med 1966;274(24):1354-1360. Berkwits M. 12. From practice to research: the case for criticism in an age of evidence. soc sci Med 1998;47(10):1539-1545. Bhandari M, Busse J et al. 13. Association between industry funding and statistically significant pro- industry findings in medical and surgical randomized trials. cMaJ 2004;170(4):477-80. Bhutta Za. 14. Ethics in international health research: a perspective from the developing world. Bull WHO 2002;80(2):114-120. Borracci r, arribalzaga eB y chiappetta porras Lt. 15. El pensamiento abstracto en el nivel universi- tario. rev argent cirug, 1997;72:123-30. Brice J, Bligh J. 16. Author misconduct: not just the editor’s responsibility.Med educ 2005;39(1):83-9. Bunge M. 17. La investigación científica. siglo XXi editores, Barcelona, 2000. caminiti c, scoditti U, Diodati F and passalacqua r. 18. How to promote, improbé and test adheren- ce to scientific evidence in clinical practice? BMc Health services research 2005;5:62 Disponible en http://www.biomedcentral.com/1472-6963/5/62. clever LH. 19. Obtain informed consent before publishing information about patients. JaMa, 1997;278(8):628-9. cooper c. 20. Writing for the popular press: to inform and entertain.Hosp Medicine, 2001;62(6):364-5. cruess sr, cruess rL. 21. Professionalism must be taught. BMJ, 1997;315:1674-7. D’Negri ce, De Vito eL. 22. Introducción al razonamiento aproximado; lógica difusa. rev arg Med resp, 2006;4:126-136. Davis BD. 23. The scientist’s world. Microbiol Mol Biol. rev, 2000;64(1):1-12. Decullier e, Lheritier V, chapuis F. 24. Fate of biomedical research protocols and publication bias in France: retrospective cohort study. BMJ 2005;331:19-25. del pino J. 25. EEUU probó en Africa un fármaco antiSida sin develar sus riesgos. el país 10/01/2005. Dietrich H. 26. Nueva guía para la investigación científica. editorial 21, Buenos aires, 1999. di trocchio F. 27. Las mentiras de la ciencia. alianza editorial, Madrid, 1998. Downes s. 28. How to publish a scientific paper. australian National University, 2005. Duran p. 29. ¿Qué investigamos cuando investigamos? arch argent pediatr 2006;104(4):292-294. Durand se, Mombrú a (compiladores). 30. Encrucijadas del pensamiento. Análisis críticos del que- hacer científico. Gran aldea editores, Buenos aires, 2003. editorial. 31. The need and means for evidence-based medicine in developing countries. acp Journal 2000; July/august: a-11. [ 152 ] elliot Gc. 32. A brief guide to understanding patentability and the meaning of patents. acad Med 2002;77(12pt2):1309-14. evett iW, Jackson G, Lambert Ja. 33. More on the hierarchy of propositions: exploring the distinction between explanations and propositions. sci Justice, 2000;40(1):3-10. eyssautier de la Mora M. 34. Metodología de la investigación. Desarrollo de la inteligencia. interna- tional thomson editores, México, 2002. Flanagin a, Glass rM, Lundberg GD. 35. Electronic journals and duplicate publication. Is a byte a word? JaMa,1992;267(17):2374. Fontoura costa L. 36. Bioinformatics: perspectives for the future. Get Mol res, 2004;3(4):564-574. Frisse Me, tova JN. 37. The commerce of ideas: copyright in the digital era. acad Med, 1996;71(1):45- 53. García Marcos F. 38. Investigación con seres humanos. rev Fund Fac Med 1998;Vii(27): 6-11. Goldwyn r. 39. Manuscript acceptance: excellence not favoritism. plast reconstr surg, 2004;114 suppl:22-23. Goldwyn r. 40. Preliminaryresults: facts or excuses? plas reconstr surg, 2004;114 suppl:32-33. Gonzalez de Dios J. 41. De la medicina basada en la evidencia a la evidencia basada en la medicina. anal esp pediatria 2001;55(5):429-439. 42. Hamad s. 42. Ingelfinger over-ruled. Lancet 2000;356:s16. Harvard Business review. 43. La gestión en la incertidumbre. ediciones Deusto sa, Bilbao, 1999. Haynes rB, McKibbon K a et al. 44. Deciding which journals to read regularly. an intern Med, 1986;105(2):309-12. Haynes rB, McKibbon Ka et al. 45. Expanding the number of journals you read regularly. an intern Med, 1986;105(3):474-8. Heler M. 46. Ética y ciencia: la responsabilidad del martillo. editorial Biblos, Buenos aires, 1996. Hofmann B. 47. The technological invention of disease. J Med ethics:Medical Humanities 2001;27:10- 19. 2002;287(21):2843-2847. Huth eJ. 48. Is the medical world ready for electronic journals? Online J curr clin trials, 1992 Jul 1;Doc No 7. ingelfinger FJ. Purpose of the general medical journal. N engl J Med, 1972;287(20)1043-4. international committee of Medical Journals editors. 49. Statements on electronic publication and on peer reviewed journals. ann intern Med, 1992;116(12):1030. isaacs D, Fitzgerald D. Seven alternatives to evidence based medicine. BMJ, 1999:319:1618. Jenkins D. 50. Investigations: how to get from guidelines to protocols. BMJ 1991; 303:323-4. Kates rW, Kasperson JX. 51. Comparative risk análisis of technological hazards. proc Nat acad sci Usa 1983;80:7027-7038. Kaufman JL. 52. Protection of research sujects (Correspondence). N engl J Med 2003;349(2): 188- 192. Kauffmann r, reyes H, Goic a. 53. Various suggestions for the presentation of manuscripts in biome- dical journals. rev Med chil 1991;119(8):933-7. Kelch rp. 54. Maintaining the public trust in clinical research. N engl J Med 2002;346(4):285-287. King DB, Dickinson Ja, Boulton Mr, toumpas c. 55. EBM Notebook: Clinical Skills Textbooks Fail Evidence-based Examination.eMB (ed esp) 2005;4:241-242. Knietowicz Z. 56. Medical journals are corruptedby dependence on drug companies. BMJ 2005;330:1169. [ 153 ] Lede r, abriata G, copertari p. 57. La medicina basada en las evidencias. Un movimiento cultural a favor de una mejor asistencia médica. Obstet y Ginec Lat amer 1998;56 (5-6):305-311. Lee Js, Urschel DM, Urschel JD. 58. Is general thoracic surgical practice evidence based? antorcha surg 2000;70:429-31. Lee Kp, schotland M, Bacchetti p, Bero La. 59. Association of journal quality indicators with me- thodological quality of clinical research articles. JaMa 2002;287(21):2805-2808. Lemmens t. 60. Confronting the conflict of interest crisis in medical research. Monash Bioeth rev 2004;23(4):19-40. Lock s. 61. Pride and prejudice. BMJ 1989;298:1197. Logan pM. 62. Preparing and presenting a scientific paper. carJ 2001;52(6):361-5. Loke yK, Derry s.63. Does anybody read “evidence-based” article? BMc Med research Methodol 2003;3:14-20. Los padres de la oveja “Dolly” crean gallinas con genes humanos. el país, 14/01/2007. Disponible 64. en: http://www.elpais.com.aertículo/sociedad/padres/oveja/Dolly. Lown B, Bukachi F, Xavier r. 65. Health information in the developing world. Lancet, 1998;352:34- 38. Manterola c, pineda V, Vial M, Losada H and MiNcir Group. 66. What is the methodologic quality of human therapy studies in ISI publications? ann surg 2006;244(5):827-832. Mcsherry DMG. 67. Intelligent dialogue based on statistical models of clinical decisión-making. statist Medicine, 1986;5:497-502. Mee c. 68. 10 lessons on writing for publication. J infusion Nurs 2003;26(2):110-113. Moses H, Martín JB. 69. Academic relationships with industry. JaMa 2001;285(7):933-935. National Library of Medicine. 70. Journal selection for INDEX MEDICUS/MEDLINE, fact sheet sent by elsevier science inc, July 1991. Norelle Lickiss J. 71. Late lessons from Auschwitz- is there anything more to learn for the 21st cen- tury?. J Med ethics 2001;27-137. Nuffield council on Bioethics. 72. Etica de la investigación relativa a la atención sanitaria en los paí- ses en desarrollo. stephemn austin & sons Ltd, London 2002. Office of research integrity (Ori). 73. Managing allegations of scientific misconduct: a guidance document for editors. January 2000, http://ori.dhhs.gov Organ cH jr. 74. What an editor wants or expects from authors. BJs 2000;87:1123-1124. 78. papponetti M. 75. Los siete pecados capitales de la prensa. http://intramed.net.actualidad/art1. asp. pellegrini Filho a, Goldbaum M, silvi J. 76. Production of scientific articles on health in six Latin- America countries, 1973-1992.rev panam salud publica 1997;2(2):121-132. 80. pierson DJ. 77. The top 10 reasons why manuscripts are not accepted for publication. respir care 2004;49(10):1246-52. popper Kr. 78. La lógica de la investigación científica. ed. tecnos srL, Buenos aires, 1985. poynard t, Munteanu M et al. 79. Truth survival in clinical research: an evidence-based réquiem?. ann inter.n Med 2002;136:888-895. raths Le. 80. Cómo enseñar a pensar. Teoría y aplicación. editorial paidos, Buenos aires, 1999. relman as. 81. The Ingelfinger rule. N engl J Med 1981;305(14):824-826. rhodes r, strain JJ: 82. Whistleblowing in academic medicine. J Med ethics 2004;30:35-39. [ 154 ] russell B. 83. La perspectiva científica. editorial ariel, Barcelona, 1982. sabino ca. 84. El proceso de investigación. editorial Humanitas, Buenos aires, 1989. saville DJ. 85. Basic statistics and the inconsistency of multiple comparison procedures. cJexperpsy- chol 2003;57(3):167-175. salk J. 86. Supervivencia de los que saben más. emecé editores srL, Buenos aires, 1975. schachman HK. 87. On scientific freedom and responsibility. Biophysical chemistry 2003;100:615- 625. schulkin J. 88. Decision sciences and evidence-based medicine-two intellectual movements to su- pport clinical decisión making. acad Med 2000;75(8):816-818. shashok K. 89. Los autores y las buenas prácticas de publicación: quien decide los criterios? rev pa- nam salud publica 2004;15(1):4-8. shumak sL, redelmeier Da. 90. How to react when your colleagues haven’t read a thing. cMaJ 2000;163(12):1570-1572. smith r. 91. Quality improvement reports: a new kind of article. BMJ 2000;321:1428. sood a, erwin pJ, ebbert JO. 92. Using advanced search tools on PubMed for citation retrieval. Mayo clin proc 2004;79(10):1295-9. 96. soto M, rada G. 93. Formulación de preguntas en Medicina basada en evidencia. rev Méd chile 2003;131:1202-1207. spar D. 94. The business of stem cells. N engl J Med 2004;351(3):211-213. swets Ja, Dawes rM, Monahan J. 95. Better decisions through science. scientific american 2000;october:70-75. 99. teixeira Brandt c. 96. Editoracao cientifica: as duas faces-analógica e digital. acta cir Bras 2004;19(6):587-589. 100. thorsteinsdottir H, Quach U, Daar as, singer p. 97. Conclusions: promoting biotechnology innovation in developing countries. Nature Biotech 2004;(22s):Dc48-Dc52. tomas y Garrido GM. 98. Sabiduría ética e informacián científica. persona y Bioética 2003;(19):39- 46. Veloso de Franca G. 99. Los riesgos de la medicina basada en evidencias. conferencia, i congreso internacional y segundas Jornadas de gestión de riesgos en atención de salud, santiago de chile, 11-12/abril/2003. Vos r, Willems D, Houtepen r. 100. Coordinating the norms and values of medical research, medical practice and patient worlds-the ethics of evidence based medicine in orphaned fields of medicine. J Med ethics 2004;30:166-170. Wainerman c, sautu r (compiladoras). 101. La trastienda de la investigación. Lumiere, Buenos aires, 2001, 3ra. edición ampliada. Weisinger Jr, Bellorin-Font e. 102. Access to medical information in Latin America. Lancet 2000;356:s15. Whitcomb Me, Walter DL. 103. Research training in six selected internal medicine fellowship pro- grams. ann intern Med, 2000:133:800-807. young sN. 104. Peer review of manuscripts:theory and practice. J psychiatry Neurosci 2003;28(5):327- 330. [ 155 ] Capítulo 12 Comité de Ética e Investigación Clínica Luis María Ziehr Rubén F. Iannantuono José Luis Cacharrón Hoy como nunca en la historia de la terapéutica se cuenta con fármacos considerados seguros y eficaces. este desarrollo en la terapéutica moderna se ha conseguido gracias a las investigaciones clínicas. en sus comienzos, las investigaciones clínicas utilizaron el método ensayo y error sin que se tomase debidamente en cuenta los derechos de las personas expuestas a riesgo. así, con esta metodología, se obtuvieron grandes avances junto a errores importantes (teratogenia por talidomida) y violaciones a los derechos de las personas (estudio de sífilis en tuskegee, investigación con radiaciones en mujeres embarazadas pobres en tennesse e investigación con anticonceptivos en mujeres mejicanas en san antonio, entre otros). actualmente, las investigaciones clínicas se realizan siguiendo el método científico y nor- mas de buena práctica clínica, para asegurar la calidad científica y el respeto de los derechos de las personas. Los avances de la ciencia y la tecnología biomédicas y su aplicación en la práctica de la medicina están provocando cierto grado de inquietud pública, al enfrentar a la sociedad con nuevos dilemas éticos. esta expresa su preocupación respecto a posibles abusos originados en la investigación científica y en la tecnología biomédica. ello resulta comprensible en vista de la metodología de la investigación experimental biomédica. pero, en los últimos años, mu- chas personas, tanto en los países desarrollados como en desarrollo, han comenzado a ver no sólo los riesgos sino también los aspectos beneficiosos de la investigación en seres humanos; de hecho, hay beneficiarios potenciales que procuran ahora activamente participar en ese tipo de investigación, en especial las relacionadas con ensayos de nuevas terapias. investigación clínica versus terapéutica Mientras que la investigación clínica es una actividad diseñada a partir de una hipótesis experimental previa,