i i UNIVERSIDAD DON BOSCO PROTOTIPO DE SISTEMA DE ADQUISICIÓN DE SIGNOS VITALES VÍA BLUETOOTH. TRABAJO DE GRADUCIÓN PREPARADO PARA LA FACULTAD DE INGENIERÍA PARA OPTAR AL GRADO DE INGENIERO EN ELECTRÓNICA POR ROMMEL ULISES MOLINA BLANCO JENNY VILLATORO CARBALLO ASESOR: ING. CARLOS PUENTE JULIO DE 2008. SOYAPANGO – EL SALVADOR – AMÉRICA CENTRAL ii ii UNIVERSIDAD DON BOSCO RECTOR ING. FEDERICO MIGUEL HUGUET RIVERA SECRETARIO GENERAL LIC. MARIO RAFAEL OLMOS VICE-RECTOR PBO.VICTOR BERMUDEZ YANEZ DECANO DE INGENIERÍA ING. ERNESTO GODOFREDO GIRÓN ASESOR DEL TRABAJO DE GRADUACIÓN ING. CARLOS PUENTE iii iii UNIVERSIDAD DON BOSCO FACULTAD DE INGENIERÍA ESCUELA DE INGENIERÍA ELECTRÓNICA LECTOR EVALUADOR DEL TRABAJO DE GRADUACIÓN ING. CARLOS PUENTE ING. CALIXTO RODRIGUEZ ASESOR LECTOR iv iv AGRADECIMIENTOS Jenny Villatoro de Hernández Ante todo quiero agradecerle a Dios por su generosidad al permitirme terminar satisfactoriamente este trabajo, además de todas las grandes bendiciones que he recibido de él a lo largo de toda mi vida. Agradezco con todo mi amor a mi esposo Edgar David Hernández que siempre me apoyo y ha estado a mi lado en las buenas y malas, que nunca en la vida llegaría a pagarle y mostrarle todo lo que él ha sido para mí: el mejor guía, amigo y esposo que nunca pensé tener en la vida. Gracias mi amor. Agradezco a mis padres por su infinito amor, apoyo y paciencia… a mi madre Orbelina Carballo de Villatoro por enseñarme siempre a luchar, seguir adelante con todas mis fuerzas para llegar a lo más alto posible… a mi padre Daniel Villatoro por enseñarme a soñar y tener paciencia para alcanzar los objetivos que me trace en la vida. También le agradezco a mis familiares y amigos, quienes siempre estuvieron al pendiente, para apoyarme cuando más lo necesité… muchas gracias. Les agradezco también al tutor Ing. Néstor Lozano y al asesor Ing. Carlos Puente, por su apoyo y ayuda a lo largo de este proceso. Finalmente le dedicó esta tesis a mi amada hija Jessica Michelle Hernández, por quien le doy inmensas gracias a Dios, y que me dio el título más grande y el mejor de todos los que pueda llegar a tener… el de madre… A todos inmensas Gracias! v v ÍNDICE GENERAL RESUMEN EJECUTIVO ……………………………………………………………………………….iv ORGANIZACIÓN DE DOCUMENTO………………………………………………………………….v OBJETIVOS……………………………………………………………………………………………..vii ALCANCES Y LIMITACIONES……………………………………………………………………...viii 1. INTRODUCCIÓN ..........................................................................................................................13 1.1. DEFINICIONES .....................................................................................................................13 1.1.1. SIGNOS VITALES ............................................................................................................13 1.1.2. MONITOR .........................................................................................................................13 1.1.3. BLUETOOTH ....................................................................................................................14 1.1.4. TELEMEDICINA ..............................................................................................................14 2. ANTECEDENTES HISTÓRICOS................................................................................................16 2.1. ANTECEDENTES HISTÓRICOS DE LOS SIGNOS VITALES...........................................16 2.1.1. HISTORIA DE LA MEDIDA DE LA SEÑAL ECG (FRECUENCIA CARDIACA) ......16 2.1.2. HISTORIA DE LA MEDICIÓN DE SATURACIÓN PARCIAL DE OXIGENO...........17 2.1.3. HISTORIA DE LA MEDIDA DE LA PRESIÓN SANGUÍNEA......................................18 2.2. ANTECEDENTES HISTÓRICOS DE LA TELEMEDICINA ...............................................19 2.2.1. FECHAS IMPORTANTES EN LA EVOLUCIÓN DE LA TELEMEDICINA. ...............20 2.3. HISTORIA DE LAS COMUNICACIONES INALÁMBRICAS ............................................21 2.3.1. ISM BANDS (INDUSTRIAL, SCIENTIFIC AND MEDICAL BANDS).........................23 2.4. ANTECEDENTES DE BLUETOOTH ...................................................................................25 2.4.1. RADIOFRECUENCIA ......................................................................................................25 2.4.2. STANDARD IEEE 802.11................................................................................................25 2.4.3. WIFI ...................................................................................................................................28 2.4.4. COMUNICACIÓN INFRARROJA ...................................................................................29 3. MARCO TEÓRICO .......................................................................................................................31 3.1. FRECUENCIA CARDIACA ..................................................................................................31 3.1.1. EL ELECTROCARDIOGRAMA (ECG)...........................................................................32 3.1.2. ELECTRODOS PARA MEDIR SEÑAL ECG ..................................................................41 3.2. SATURACIÓN DE ÓXIGENO ..............................................................................................42 3.2.1. OXÍMETRIA......................................................................................................................43 3.2.2. OXÍMETRIA DE PULSO..................................................................................................44 3.2.3. ESPECTROFOTOMETRÍA...............................................................................................46 3.3. PRESIÓN SANGUÍNEA ........................................................................................................50 3.3.1. UNIDADES DE PRESIÓN................................................................................................50 3.3.2. METODOS DE MEDICIÓN DE LA PRESIÓN SANGUÍNEA .......................................51 3.3.2.1. MÉTODO OSCILOMÉTRICO .............................................................................................. 52 3.3.2.2. MÉTODO OSCILOMÉTRICO DERIVATIVO ..................................................................... 53 3.3.3. MEDICIÓN DE LA PRESIÓN SANGUÍNEA..................................................................54 3.4. BLUETOOTH.........................................................................................................................55 3.4.1. COMPONENTES DEL SISTEMA....................................................................................56 4. HARDWARE DE ADQUISICIÓN ...............................................................................................58 4.1. ADQUISICIÓN DE LA SEÑAL ECG ....................................................................................59 4.1.1. DIAGRAMA DEL CIRCUITO..........................................................................................60 4.1.2. CIRCUITO PARA LA OBTENCIÓN DE LA SEÑAL ECG ...........................................61 4.1.2.1. ETAPA DE PRE-AMPLIFICACIÓN..................................................................................... 61 4.1.2.2. ETAPA DE AMPLIFICACIÓN ............................................................................................. 63 4.1.2.3. ETAPA DE ADECUACIÓN .................................................................................................. 63 4.2. ADQUISICIÓN DE LA SEÑAL DE SATURACIÓN DE OXIGENO....................................64 4.2.1. DIAGRAMA DE BLOQUE DEL OXÍMETRO ................................................................65 4.2.2. CIRCUITO DE ADQUISICIÓN DE LA SEÑAL DEL OXÍMETRO...............................65 4.2.2.1. LEDS Y FOTOTRANSISTOR ............................................................................................... 66 4.2.2.2. CONVERTIDOR DE CORRIENTE A VOLTAJE................................................................. 67 4.2.2.3. CIRCUITO DE AMPLIFICACIÓN....................................................................................... 68 4.2.2.4. ETAPA DE ADECUACIÓN .................................................................................................. 69 vi vi 4.3. ADQUISICIÓN DE LA PRESIÓN SANGUÍNEA .................................................................70 4.3.1. DIAGRAMA DE BLOQUES PARA LA PRESIÓN SANGUÍNEA.................................70 4.3.2. CIRCUITO DE ADQUISICIÓN DE LA PRESIÓN SANGUINEA..................................71 4.3.2.1. SENSOR DE PRESIÓN MPX2050DP. .................................................................................. 71 4.3.2.2. ETAPA DE AMPLIFICACIÓN ............................................................................................. 72 4.3.2.3. ETAPA DE FILTRADO......................................................................................................... 73 4.3.2.4. ETAPA DE ADECUACIÓN .................................................................................................. 74 4.4. MICROCONTROLADOR PIC16F877...................................................................................75 4.4.1. CONVERTIDOR ANALÓGICO DIGITAL DEL PIC16F877..........................................77 4.5. SOFTWARE DE ADQUISICIÓN ..........................................................................................80 4.5.1. PROGRAMA DIGITALIZADOR DE LA SEÑAL DEL ECG .........................................80 4.5.2. PROGRAMA DE ADQUISICIÓN DE LA SEÑAL DEL OXÍMETRO ...........................81 4.5.3. PROGRAMA DE ADQUISICIÓN DE LA PRESIÓN SANGUÍNEA NO INVASIVA. 83 5. HARDWARE DE TRANSMISIÓN ..............................................................................................86 5.1. ESTANDAR DE COMUNICACIONES RS232 .....................................................................87 5.2. MÓDULO BLUETOOTH WT11............................................................................................89 5.3. COMUNICACIÓN ENTRE PIC16F877 Y EL WT11 ............................................................93 5.3.1. CONFIGURACIÓN DE LA TRANSMISIÓN ..................................................................93 5.3.1.1. PASOS PARA CONFIGURAR LA USART Ó SCI.............................................................. 95 5.3.1.2. COMUNICACIÓN SERIE ..................................................................................................... 96 5.4. SOFTWARE DE TRANSMISIÓN .........................................................................................98 6. SOFTWARE DEL SISTEMA........................................................................................................99 6.1. PROTOCOLO DE RED TCP/IP .............................................................................................99 6.2. FLUJOGRAMA DEL SOFTWARE DEL SISTEMA ...........................................................101 7. RESULTADOS DEL PROTOTIPO ...........................................................................................105 7.1. VISUALIZACIÓN DE DATOS ADQUIRIDOS .................................................................105 8. RECOMENDACIONES PARA REALIZAR LAS MEDICIONES.........................................113 8.1. RECOMENDACIÓNES GENERALES. ..............................................................................113 8.2. RECOMENDACIONES PARA MEDIR SPO2: ...................................................................114 8.3. RECOMENDACIONES PARA MEDIR LA PRESIÓN SANGUÍNEA...............................115 9. CONCLUSIONES ........................................................................................................................117 10. PRESUPUESTO.......................................................................................................................118 10.1. COMPONENTES ELECTRÓNICOS...................................................................................118 10.2. MATERIAL DE PRUEBA....................................................................................................118 10.3. MATERIAL SOFTWARE ....................................................................................................118 10.4. TOTAL GLOBAL.................................................................................................................118 11. ANEXOS...................................................................................................................................119 11.1. CODIGOS DE PROGRAMA DEL PIC ................................................................................119 11.1.1. SEÑAL ECG ...............................................................................................................119 11.1.2. SEÑAL OXÍMETRO ..................................................................................................121 11.1.3. VALOR PRESIÓN SANGUÍNEA..............................................................................124 11.2. CÓDIGO DE SOFTWARE EN VISUAL BASIC 6.0 ...........................................................126 11.3. HOJAS DE ESPECIFICACIONES.......................................................................................132 11.3.1. HOJA DE ESPECIFICACIONES DEL PIC 16F877 ..................................................132 11.3.2. HOJA DE ESPECIFICACIONES DEL WT11 ...........................................................135 11.3.3. HOJA DE ESPECIFICACIONES TECNICAS DEL MPX2050DP ...........................136 11.3.4. HOJA DE ESPECIFICACIONES TECNICAS DEL AD620 .....................................138 11.3.5. HOJA DE ESPECIFICACIONES TÉCNICAS DEL LT1112 ....................................140 11.3.6. HOJA DE ESPECIFICACIONES DEL MAX232 ......................................................142 11.3.7. HOJA DE ESPECIFICACIONES TÉCNICAS DEL HA17741 ................................144 11.3.8. HOJA DE ESPECIFICACIONES TECNICAS DEL TL072 ......................................146 12. BIBLIOGRAFÍA......................................................................................................................148 vii vii Resumen Ejecutivo El presente documento describe los fundamentos del Prototipo de Sistema de Adquisición de Signos Vitales vía Bluetooth. Se comienza por un resumen de los antecedentes históricos existentes sobre la medición de signos vitales, Telemedicina y Bluetooth. Además la descripción del hardware y software para la captura, transmisión, recepción y presentación de las señales fisiológicas. El Prototipo esta dividido en 4 etapas que son: Adquisición de señales: En esta etapa, los datos serán adquiridos por cada uno de los circuitos diseñados para la captura de cada señal; cuyo manejo y control de adquisición es manejado por el PIC. Microcontrolador PIC: En esta etapa los datos son adquiridos por el convertidor analógico digital del PIC, el cual esta multiplexado y convierte una señal a la ves. Una vez digitalizada la señal será transmitida vía serie a la siguiente etapa. Transmisor Bluetooth. La función de este módulo es la de transmitir mediante el estándar Bluetooth la señal digitalizada. El módulo aparece como un esclavo Bluetooth, en nuestro caso particular como un puerto serie convencional. La PC: (Personal Computer) va a ser la encargada de realizar el análisis y clasificación de las señales de ECG, Oxímetro y Presión sanguínea no invasiva proveniente del paciente, así como de generar alarmas. Además la red existente puede acceder al historial del paciente vía TCP/IP. viii viii ORGANIZACIÓN DE DOCUMENTO Capitulo 1. Introducción En este capitulo se presenta una introducción a los conceptos básicos de los signos vítales, monitor, Bluetooth y Telemedicina que son los principales elementos que maneja el prototipo. Capitulo 2. Antecedentes Históricos Se presentan los Antecedentes históricos, estudios previos que han tratado el problema de la adquisición de los signos vitales y el avance tecnológico que han experimentado hasta nuestra época. Capitulo 3. Marco Teórico Se presentan los conocimientos fundamentales involucrados en la adquisición y tratamiento de los signos vitales, profundizando sobre el método de transmisión (Bluetooth) y se ofrece una introducción, de los métodos de adquisición de signos vitales. Capitulo 4. Hardware de Adquisición Se demuestra la implementación de los circuitos de adquisición para cada una de las señales fisiológicas a medir. Cada señal es digitalizada por el convertidor análogo- digital del PIC16F8771 y transmitidas al módulo Bluetooth. Capitulo 5. Hardware de Transmisión Se demuestra la implementación del circuito de transmisión, el cual enviara vía Bluetooth los datos a la PC. Para ello utilizamos el microcontrolador PIC como intermediario entre el hardware de adquisición y el módulo Bluetooth WT112. 1 Ver en Anexos información técnica del PIC16F877 2 Ver en Anexos información técnica del módulo WT11 ix ix Capitulo 6. Software del Sistema Se describe el funcionamiento de cada uno de los módulos que componen el sistema que son: Recepción. Procesamiento (Presentación, Base de Datos, Recepción de alarmas) Comunicación entre el servidor y una estación remota Capitulo 7. Resultados del Prototipo Se presentan los resultados obtenidos en la medición, transmisión de los datos en el sistema del Prototipo. Capitulo 8. Recomendaciones para medir los signos vitales Aquí presentamos los pasos a seguir para el uso del prototipo, y la colocación de los sensores de medición en el paciente. Capitulo 9. Conclusiones Se brindan las conclusiones de este trabajo de final de carrera Capitulo 10. Presupuesto Se presentan los costos de los elementos que componen el prototipo. Capitulo 11. Anexos Se presenta toda la información técnica, de cada uno de los dispositivos de medición usados, como sensores, microcontrolador, módulo, amplificadores, etc. Además los códigos de programa para la adquisición, transmisión, recepción y comunicación entre el servidor y una estación remota, realizados en Visual Basic 6.0, MySQL y lenguaje Ensamblador. Capitulo 12. Bibliografía Se presentan todas las fuentes de información consultadas y tomadas como referencia, para el desarrollo del Sistema. x x OBJETIVOS OBJETIVO GENERAL • Diseñar e implementar un prototipo de sistema de monitorización de la señal cardiaca, frecuencia cardiaca, saturación de oxigeno y Presión Sanguínea no invasiva; que sea capaz de transmitirlas a una PC portátil utilizando tecnología de comunicación inalámbrica. OBJETIVOS ESPECÍFICOS • Implementar un prototipo de hardware para la adquisición y transmisión vía Bluetooth, de la señal cardiaca, el dato de frecuencia cardiaca, saturación de oxígeno (SPO2) y presión sanguínea no invasiva hacia una PC portátil, basándose en un microcontrolador. • Implementar un software para la recepción y manejo de los datos adquiridos. • Mostrar en la pantalla del PC portátil los datos adquiridos, además de presentar la visualización de la señal cardiaca y de saturación parcial de oxigeno. xi xi ALCANCES Y LIMITACIONES ALCANCES Se diseñará e implementará un prototipo de medición de los signos vitales con las siguientes características: Obtención de la señal electrocardiográfica midiendo una de las derivaciones bipolares, para calcular la frecuencia cardiaca. Captura de la señal de saturación parcial de oxigeno, midiendo con un sensor dedal, para calcular el nivel de saturación parcial de oxigeno. Obtención de la presión arterial no invasiva, utilizando un brazalete con sensor. Captura instantánea de la señal cardiaca del paciente, mediante un sistema de 3 electrodos externos, y la saturación de oxigeno de la sangre por medio de un sensor digital clip. Aportar la flexibilidad y portabilidad del sistema de medición. Adquirir la información y digitalizarla usando un microcontrolador PIC y transmitirla vía Bluetooth. Ofrecerá la posibilidad de visualizar la señal cardiaca y de saturación parcial de oxígeno, los valores de la frecuencia cardiaca, la saturación de oxigenación en la sangre y la presión sanguínea no invasiva en un PC Portátil. El sistema utilizara baterías para una mejor portabilidad. El sistema contará con alarmas que indiquen cuando alguno de los valores monitorizados estén fuera del rango previamente programado como seguro o normal para el paciente. También alertará cuando se pierda el enlace entre el prototipo y la PC. xii xii Será posible acceder remotamente a los datos del paciente a través de una conexión TCP/IP3 con el ordenador receptor. La información estará disponible a través de una red LAN4. LIMITACIONES El equipo receptor mantendrá un historial de los datos fisiológicos del paciente que este siendo monitorizado. Se manejaran periodos de tiempo de 5 o 10 minutos, los cuales podrán programados por medio del software. Las únicas señales que se mostraran en la PC portátil serán la señal electrocardiográfica y la de saturación parcial de oxigeno. El prototipo solo manejará el historial del paciente que este siendo monitorizado. Para el acceso remoto a la información del paciente monitorizado será necesaria una conexión TCP/IP con el PC receptor. La monitorización será posible solo dentro del rango de cobertura de la tecnología de comunicación inalámbrica utilizada. En este caso Bluetooth. 3 TCP/IP: Internet Protocol Suite 4 LAN: Red de área local 13 13 CAPITULO 1 1. INTRODUCCIÓN 1.1. DEFINICIONES 1.1.1. SIGNOS VITALES Se denominan signos vitales, a las señales o reacciones que presenta un ser humano con vida que revelan las funciones básicas del organismo. En el presente prototipo se medirán 3 de los principales signos vitales que son: Frecuencia cardiaca, es el número de veces que el corazón late por minuto. Cuando el corazón impulsa la sangre a través de las arterias, las arterias se expanden y se contraen con el flujo de la sangre. La frecuencia cardiaca normal de los adultos sanos oscila entre 60 y 100 latidos por minuto. Saturación parcial de oxigeno, es la presión parcial del oxígeno. 98,5% del oxígeno es combinado con la hemoglobina. Solo el 1,5% es físicamente disuelto. La molécula de hemoglobina es la encargada del transporte de oxígeno en los mamíferos y otras especies. Bajo condiciones normales, en humanos, la hemoglobina en la sangre que abandona los pulmones está alrededor del 96-97% saturada con oxígeno; la sangre "desoxigenada" que retorna a los pulmones está saturada con oxígeno en un 75%. Presión sanguínea no Invasiva, es la presión (fuerza por unidad de superficie) que existe dentro de los vasos sanguíneos. Los rangos normales de la presión arterial en humanos adultos son: Sistólica entre 90 y 140 mmHg5 (12 a 18 kPa6) y Diastólica entre 50 y 90 mmHg (7 a 12 kPa). 1.1.2. MONITOR Un monitor es un instrumento que se encarga de la adquisición, amplificación, procesamiento, visualización y registro de las señales fisiológica. Entre las cuales figuran típicamente ECG, pulso periférico, presión y temperatura sanguínea, respiración 5 mmHg: milímetros de mercurio 6 kPa : kilo pascales 14 14 y apnea7 , SPO2 y SPCO28, con alarmas. Un monitor dispone de una serie de sensores que conectados al paciente recogen la información del mismo y mediante un sistema de adquisición de datos, dicha información es digitalizada, ofreciendo la posibilidad en la propia pantalla del monitor y de transmitirla a otros sistemas externos. 1.1.3. BLUETOOTH Nacido en 1994 y formalizado en 1998, es una tecnología inalámbrica de bajo costo, que opera en la banda no licenciada de 2.4GHz de frecuencia (la misma que utiliza la tecnología 802.11). Uno de los hechos que hace que esta tecnología sea de bajo costo, es la reducida potencia que requiere para funcionar: tan sólo 0,1 Watts. Sin embargo, en la frecuencia que opera (en la banda no licenciada) debió enfrentarse al temor elemental de cualquier comunicación inalámbrica, la interferencia, y a fin de superarla se implementaron las siguientes características: Frequency Hoping: Patrón de saltos predefinido. Saltos de 1MHz sobre 79 frecuencias diferentes entre 2.402 GHz y 2.480 GHz. Saltos entre frecuencias más rápidos que en otras tecnologías inalámbricas (1600 Saltos por segundo). 1.1.4. TELEMEDICINA Es la prestación de servicios de medicina a distancia. Para su implementación se emplean usualmente tecnologías de la información y las comunicaciones. La palabra procede del Griego τελε (tele) que significa 'distancia' y medicina. La telemedicina puede ser tan simple como dos profesionales de la salud discutiendo un caso por teléfono hasta la utilización de avanzada. 7 viene definida por el cese completo de la señal respiratoria (medida por termistor, cánula nasal o neumotacógrafo) de al menos 10 s de duración. 8 Saturación de bióxido de carbono en la sangre 15 15 La telemedicina comenzó a desarrollarse, tal y como la conocemos hoy en día, a partir de los años 70. Durante los años 80 recibió un fuerte desarrollo con la evolución de la electrónica y la aparición de los primeros ordenadores personales. Sin embargo, fue a partir de los 90, con el crecimiento de las nuevas redes de telecomunicaciones y la aparición de Internet, junto con la aparición de nuevos sistemas más compactos, robustos y de menor consumo, cuando se materializó el verdadero crecimiento y desarrollo de la telemedicina, surgiendo aplicaciones concretas de telepatología, teleradiología, teledemartología, telecardiología, etcétera. La telediagnósis, la cual consiste en la realización de un diagnóstico a distancia (diagnóstico remoto), es la técnica que mayor impacto causa, dadas las múltiples ventajas con se presenta y el amplio aprovechamiento de la tecnología. Consiste en evaluar o asistir en la evaluación médica de un paciente desde un centro hospitalario que se encuentre distante, haciendo uso de las telecomunicaciones para llevar a cabo esta acción. 16 16 CAPITULO 2 2. ANTECEDENTES HISTÓRICOS 2.1. ANTECEDENTES HISTÓRICOS DE LOS SIGNOS VITALES 2.1.1. HISTORIA DE LA MEDIDA DE LA SEÑAL ECG (FRECUENCIA CARDIACA) En 1842 Carlo Matteucci, profesor de física en la universidad de Pisa, demuestra que una corriente eléctrica acompaña cada latido del corazón. Utilizó una preparación conocida como “la rana reoscopica9” en el que el nervio extraído de una rana se utilizaba como sensor eléctrico y la contracción del músculo del anca era utilizada como signo visual de la actividad eléctrica. En 1872 El físico francés Gabriel Lippmann inventa un medidor de voltaje por capilaridad. Es un tubo delgado de vidrio con una columna de mercurio bajo ácido sulfúrico. El menisco del mercurio se mueve al variar el potencial eléctrico y se observa por un microscopio En 1856 Kolliker y Mueller, descubrieron la actividad bioeléctrica correspondiente al latido cardiaco y esto dio paso, aproximarse sistemáticamente a este órgano bajo el punto de vista eléctrico. En 1911 Willem Einthoven, que trabajaba en Leiden (Países Bajos), descubrió el “galvanómetro de cuerda”, mucho más exacto que el “galvanómetro capilar”. Einthoven asignó las letras P, Q, R, S y T a las diferentes deflexiones y describió las características electrocardiográficas de gran número de enfermedades cardiovasculares. En 1906 Cremer registra el primer electrocardiograma transesofágico que el logro con la ayuda de un tragasables10 profesional. La electrocardiografía esofágica seria desarrollada en los años setenta para ayudar a diferenciar arritmias auriculares. El 9 Reoscopica: es el grado mas avanzado de visión binocular 10 Tragasables: Artista circense cuyo número consiste en hacer ver que es capaz de tragar objetos punzantes 17 17 registra también el primer electrocardiograma fetal de la superficie abdominal de una mujer embarazada. 2.1.2. HISTORIA DE LA MEDICIÓN DE SATURACIÓN PARCIAL DE OXIGENO En 1860 Robert Wilhelm Eberhard Bunsen, invento el “Espectroscopio”, que permitió por primera vez analizar la composición de la luz en longitudes de onda, pero no fue hasta el año 1930, en que la foto-célula de selenio pudo utilizarse en la práctica, que el espectro fue usado para el análisis cuantitativo de la saturación de oxígeno. En 1937 se aplico la fotopletismografia (medición de absorción de la luz) en la práctica médica y quirúrgica, para contar la frecuencia cardiaca, evaluar la presión arterial periférica, la saturación parcial de oxigeno. En 1935, Matthes construyó el primer aparato capaz de medir en forma continua la saturación de oxígeno en sangre humana. El utilizó dos longitudes de onda: una que era sensible a los cambios de oxigenación y otra que no lo era. La segunda longitud de onda, en el rango del infra-rojo, fue usada para compensar los cambios en los tejidos más espesos, en el contenido de hemoglobina y en la intensidad de la luz. A comienzo de los años 40, Glen Millikan acuñó el término "oxímetro" para designar su invento destinado a medir la saturación de la hemoglobina en pilotos volando a gran altura. En el curso de los años 70, Hewlett-Packard comercializó el primer oxímetro auricular que se autocalibraba. Este instrumento usaba ocho longitudes de onda luminosa para determinar la saturación de la hemoglobina y utilizaba el método de calentar el pabellón de la oreja para arterializar" los capilares sanguíneos. Este oxímetro se convirtió rápidamente en un standard clínico y en una herramienta de laboratorio en medicina pulmonar. La utilidad clínica del oxímetro no invasivo en la sala de operaciones fue redescubierta en los años 80 por William New, un anestesiólogo de la Universidad de Stanford. Comprendiendo que la monitorización continua, no invasiva de la oxigenación tenía que ser útil a los anestesiólogos, New desarrolló y comercializó un oxímetro de pulso, el modelo Nellcor N100, que llegó a ser en 1985, sinónimo del término "oxímetro de pulso". 18 18 Con el desarrollo Tecnológico que se fue dando en el siglo XX, se fueron modernizaron los equipos destinados a medir signos vitales, es por eso que se invento el monitor. 2.1.3. HISTORIA DE LA MEDIDA DE LA PRESIÓN SANGUÍNEA En los años 1677-1761 el reverendo inglés Stephes Halen realizo las primeras mediciones de la presión arterial en animales, utilizando un manómetro de mercurio muy largo y eso condujo al desarrollo de los tensiómetros. Fue necesario que pasaran doscientos años para que fueran ampliamente adoptados por los médicos y fisiólogos. En 1828 el fisiólogo francés Jean Poiseuille invento “Hemodinamometro” demostró las variaciones tensionales durante las fases de respiración (inspiración y expiración) en los animales y durante los siguientes 100 años fue muy usado en Europa y América. El famoso fisiólogo alemán Carl Friedrich Wilhelm Ludwing en 1847 creo el aparato llamado "Kimgraphion" (de Kimos: onda y Grafos: yo escribo). El inauguro el empleo en la fisiología del método Grafico tan seguro y tan simple que da a las experiencias de los fisiólogos el rigor y la calidad de los físicos. En 1856 Julios Herrison efectuó la primera medida de presión arterial humana; el primer signo vital medido en una persona; usando una maquina llamada “Esfigmómetro” ocasiono mucho entusiasmo y muchas criticas en su época, pero marco el hito en el registro del pulso y fue el primero utilizado para la medida no cruenta (sangrienta) de la presión arterial humana y por eso figura en la historia de la medicina, el introducir en la clínica este método de exploración. En 1881 Samuel Ritter von Bash marco un notable avance en la medida de la presión arterial en el hombre, que fue la invención de un Esfigmomanómetro (Fig.2-1,1) .El aparato consistencia de una pequeña pelota de goma llena de agua con la que comprimía la arteria hasta hacer desaparecer el pulso y la presión requerida. En 1883 creo un segundo Esfigmomanómetro que era de fácil manejo y bastante exacto para medir la presión sistólica. 19 19 1 2 3 Fig.2-1. Los diferentes Esfigmomanómetros inventados. Otro aparato que tuvo corta vida fuel el tonómetro de Gustav Gatner (Fig.2-1,2) (1855- 1937) un medico austriaco que aplicaba sobre la segunda falange de un dedo de la mano un anillo compreso. Produciendo luego la isquemia de la tercera falange y presión necesaria para esquimearla11, indicaba la presión arterial sistólica. El aparato que se uso ampliamente fue el asilometro introducido en 1909 por el medico y fisiólogo francés Michel Víctor Panchon (1867 1938), quien demostró que las paredes arteriales sufre oscilaciones de diferentes amplitudes, según la presión sanguínea y al someterlas a distintas contra presiones extremas, esas oscilaciones se modifican permitiendo evaluar la presión interior es el método oscilatorio u oscilométrico para medir la presión arterial. El aparato que se divulgo no utilizo el pequeño brazal de Gallavardin (Fig.2-1,3) (1923) rodeando el brazo y compuesto de dos bolsas: una superior y otra inferior. 2.2. ANTECEDENTES HISTÓRICOS DE LA TELEMEDICINA Las primeras experiencias con telemedicina surgieron con la aparición de la telegrafía, el teléfono y la radio a finales del siglo XIX. Mediante la radio, inicialmente mediante código Morse y más tarde con voz, se produjeron algunas de las primeras experiencias, principalmente proporcionando ayuda médica a embarcaciones en alta mar. En la Primera Guerra Mundial las comunicaciones de radio se utilizaron ampliamente para asistencia médica de heridos. Más tarde, a mediados del siglo XX, con el auge del transporte aéreo a larga distancia, surgió la necesidad de brindar apoyo médico a los tripulantes de estos vuelos, apoyo que se realizaba a través de un enlace de radio. 11 Esquimear: bloquear el paso de sangre 20 20 El teléfono también fue usado prácticamente desde sus inicios para ofrecer ayuda médica remota. Además de mediante voz, el teléfono pronto empezó a usarse como medio para comunicar señales médicas, como el tele-estetoscopio propuesto en 1910 por S.G. Brown, aparato que servía para enviar por la línea telefónica las señales amplificadas procedentes de un estetoscopio. Hoy en día, utilizando la red telefónica y un módem es posible enviar cualquier tipo de información biomédica, incluso con la aparición de tecnologías como la RDSI y la ADSL voz y vídeo en tiempo real (videoconferencia). También la televisión ha sido utilizada como medio para realizar medicina a distancia. En sus comienzos, principalmente utilizándola en circuitos cerrados de televisión en centros médicos. Por último, la aparición de las nuevas redes de telecomunicación sin cable, cuyo mayor exponente lo constituye sin duda la telefonía móvil, permiten expandir el uso de la telemedicina a sitios donde esto antes era prácticamente imposible, como ambulancias o centros médicos móviles, a lugares remo- tos donde un enlace físico es imposible, o países con problemas económicos donde no existe una red de comunicaciones por cable y es muy caro implantarla, resultando una opción mucho más económica el uso de estas redes inalámbricas. 2.2.1. FECHAS IMPORTANTES EN LA EVOLUCIÓN DE LA TELEMEDICINA. 1900. Con la introducción del teléfono que, como hemos visto, se comenzó a utilizar con fines de asistencia médica prácticamente desde su aparición. 1951. Primera demostración de telemedicina en la Feria Mundial de Nueva York. 1957. Albert Jutras comienza la práctica de la teleradiología en Montreal. 1959. Cecill Wittson empieza un programa de teleeducación y telepsiquiatría en el Instituto Psiquiátrico de Nebraska. A partir de 1960. La Administración Nacional del Espacio y la Aeronáutica (NASA) y el Servicio de Salud Pública de Estados Unidos comen-aron a proporcionar cuidados médicos en zonas remotas en la reserva india de Papago en Arizona mediante personal paramédico y el uso de habitáculos móviles con rayos-X y ECG conectados por satélite. 21 21 La NASA ha estado siempre muy interesada en la telemedicina desde las primeras misiones tripuladas al espacio, y la impulsó notablemente con el desarrollo de técnicas como la supervisión remota de señales, fisiología humana y su adaptación a entornos de baja gravedad, sistemas de soporte vital, etc. 1967. Se establece una conexión por microondas entre el Aeropuerto de 24 Boston y el Hospital General de Massachusetts para atender urgencias en el aeropuerto. 1986. La Clínica Mayo comienza un programa transmitido por satélite bidireccional entre los campus de la Mayo en Ronchester, Minnesota, Scottsdale, Arizona y el de Jacksonville, Florida, para ayudar a médicos situados en clínicas remotas. 1989. La Universidad Técnica de Ciencias en la Salud en Texas, a través del proyecto MedNet, proporciona ayuda médica a 37 comunidades rurales. A partir de 1990. Con el advenimiento de las redes de telecomunicaciones de alta velocidad comienzan a integrarse los centros de investigación, las universidades y los grandes hospitales para propulsar el avance de la Telemedicina. Siglo XXI. la Telemedicina comienza a ser parte de un buen número de proyectos de investigación, fundamentalmente en países avanzados. La práctica médica habitual incorpora las aplicaciones de Telemedicina de forma paulatina, teniendo en cuenta los tiempos de adaptación y capacitación que profesionales y pacientes deben emplear para adecuarse al nuevo escenario. Las interconsultas aparecen como la aplicación más utilizada. Las aplicaciones de telemetría y telediagnóstico se vuelven cada vez más frecuentes. La evolución de la Telemedicina crece al ritmo del avance vertiginoso de la tecnología. 2.3. HISTORIA DE LAS COMUNICACIONES INALÁMBRICAS El término “inalámbrico” fue utilizado por primera vez en los inicios de la telegrafía sin cables, y hacia referencia a los sistemas de recepción y transmisión de radio señales, identificándolos como dispositivos inalámbricos. Hoy en día el término es usado para describir las conexiones sin cables modernas como las redes celulares y el Internet inalámbrico. También es usado en una forma general para referirse a cualquiera tipo de 22 22 sistemas que opera sin la necesidad de cables, como por ejemplo un “control remoto inalámbrico”. En 1879, David E. Hughes demostró que era posible la recepción de señales de radio procedentes de un emisor alejado un centenar de metros. Utilizó ondas de radio para generar corriente en las limaduras de cinc y plata contenidas en una válvula voltaica (estas partículas se movían al ser excitadas por las ondas). A finales de los 1880s, Edison comenzó a trabajar en la transmisión por inducción basándose en un vibrador magnético y la técnica descrita por Hughes. Unos años más tarde, en 1885 Edison logro instalar un sistema de señalización sin hilos para un ferrocarril y de esta manera obtuvo la patente para este método de transmisión mediante inductancia (U.S. Patent 465,971). Uno de los acontecimientos más importantes de la historia de la tecnología sin hilos fue la demostración de la existencia de las ondas electromagnéticas por Heinrich Hertz en 1888. Hertz demostró que las ondas electromagnéticas se podían generar y hacer viajar en líneas rectas a través del espacio y finalmente ser recibidas por un receptor experimental. Hertz no continuo con los experimento por considerar el descubrimiento como algo sin relevancia hasta que Nikola Tesla demostró la utilidad y practicidad de estas teorías implementando un sistema de transmisión de energía inalámbrico en 1893. Con este experimento demostró por primera vez la transmisión de energía eléctrica sin cables, y por consiguiente, la posibilidad de la comunicación inalámbrica. En 1892 William Crookes publicó un trabajo en la revista inglesa Fortnightly Review, en el que proponía las bases para utilizar ondas electromagnéticas como medio para transmitir señales telegráficas a través del espacio, es decir, telegrafía sin hilos o inalámbrica. Fue en 1894 cuando el físico inglés Oliver Lodge, basándose en el trabajo de Crookes, desarrolló el primer sistema de comunicación inalámbrica. Con los aparatos que construyó demostró la recepción de una señal a través de una distancia aproximada de 100 m, para lo cual usó un circuito sintonizador. Avances posteriores le permitieron ampliar la distancia a un kilómetro. En 1894 el ingeniero italiano Guglielmo Marconi (1874-1937) leyó la biografía de Hertz e inmediatamente empezó a trabajar en la idea de usar las ondas 23 23 electromagnéticas para transmitir señales. Construyó los aparatos descritos por Hertz, a los cuales les añadió un cohesor, que es un tubo de vidrio que contiene limaduras de hierro, y conectó tanto el transmisor como el receptor a una antena. Una señal eléctrica que pase por el cohesor hace que las limaduras se unan durante el intervalo que dura la señal; de esta manera este dispositivo detecta ondas electromagnéticas. En 1895 Marconi probó sus aparatos, con los cuales logró enviar señales hasta distancias de un par de kilómetros. A partir de 1921 surge lo que se denominó era precelular, donde se comienzan a utilizar los radios móviles y ya para 1948 se comienzan a comercializar teléfonos móviles en Estados Unidos y continúa el desarrollo de los teléfonos y los enlaces microondas. A partir de los 80’s se comienzan a distribuir los celulares analógicos por todo el mundo y en los 90’s surge la versión digital de estos. Para la última década, los avances en tecnologías de comunicación inalámbrica han sido sorprendentes hasta llegar a evolucionar a sistemas modernos de comunicación inalámbrica de banda ancha. 2.3.1. ISM BANDS (INDUSTRIAL, SCIENTIFIC AND MEDICAL BANDS) Fig. 2-2: Bandas para sistemas de comunicaciones 24 24 Las bandas ISM para sistemas de comunicaciones digitales inalámbricas empleando la radiofrecuencia, son las que no necesitan licencia (siempre que no se pasen los límites de potencia) y que además son gratuitas (ver detalle en Fig. 2-2). Las frecuencias de trabajo estandarizadas son: 314 MHz en USA (potencia máxima +30 dBm), 434 MHz (+10 dBm) y 868 MHz (+14 dBm) en Europa en AM o FM. En la figura 2-2 se muestra el uso de las bandas de comunicación entres los 868-870 MHz, donde se muestran las potencias de trabajo para cada banda y su respectivo ancho de banda . Fig. 2- 3: Grafico de potencias de trabajo para frecuencias de 869-870 MHZ. 25 25 2.4. ANTECEDENTES DE BLUETOOTH 2.4.1. RADIOFRECUENCIA Las transmisiones de datos entre equipos electrónicos sin cables se están aplicando cada vez más debido a los medios tecnológicos actuales, que son los circuitos integrados que permiten hacer un diseño sin tener demasiados conocimientos de RF, ni disponer de cara instrumentación para RF, ya que estos dispositivos requieren pocos componentes externos y ningún tipo de ajuste en RF. Primero se usaron módulos de RF con componentes discretos unidireccionales y precisamente para no tener que depender del diseño de una circuitería en RF. Posteriormente con la aparición de circuitos transmisores completamente integrados con las funciones de emisor y receptor, en diferentes bandas de frecuencia que se fueron estandarizando en las diferentes zonas (Europa y USA), han permitido poderlos utilizar en los diferentes campos de aplicación industrial, comercial, y medico como: control remoto, transmisión de datos en sensores o sistemas de adquisición de datos, en monitorización médica o de la salud, etc. Las comunicaciones inalámbricas por RF se pueden dividir en las que no cumplen ningún protocolo estándar y las que cumplen un protocolo estándar, y en las normativas sobre sus distintas frecuencias de trabajo, que a la vez definen velocidad de transmisión o ancho de banda y campo de aplicación. 2.4.2. STANDARD IEEE 802.11 Se trata de un protocolo de comunicación de área local cuyo nombre técnico es 802.11. Existen una serie de variantes de este estándar, las cuales ya están definidas o en proceso de definición que es necesario conocer para una correcta interpretación de las redes inalámbricas: a) 802.11a Estándar de comunicación en la banda de los 5Ghz 26 26 b) 802.11b Estándar de comunicación en la banda de los 2.4Ghz. c) 802.11c Estándar que define las características que necesitan los APs (Access Points, puntos de acceso) para actuar como puentes (Bridges). d) 802.11d Estándar que permite el uso de la comunicación mediante el protocolo 802.11 en países que tienen restricciones sobre el uso de frecuencias que éste es capaz de utilizar. De esta forma se puede usar en cualquier parte del mundo. e) 802.11e Estándar sobre la introducción de los servicios de calidad (Quality of service - QoS) en la comunicación entre los puntos de acceso (Acces Points - APs) y tarjetas de red. Actúa como árbitro de la comunicación. Esto permitirá el envío de video y de voz sobre IP. f) 802.11f Estándar que define una práctica recomendada de uso sobre el intercambio de información entre el punto de acceso y el TR en el momento del registro a la red y la información que intercambian los APs para permitir la interportabilidad. La adopción de esta práctica permitirá el roamming* entre diferentes redes. g) 802.11g Estándar de comunicación en la banda de los 2.4Ghz. h) 802.11h Estándar que sobrepasa al 802.11a al permitir la asignación dinámica de canales para permitir la coexistencia de éste con el HyperLAN. Además define el TPC (Control de Potencia de Transmisión) según el cual la potencia de transmisión se adecua a la distancia a la que se encuentra el destinatario de la comunicación. i) 802.11i Estándar que define la encriptación y la autentificación para complementar, completar y mejorar el WEP. Es un estándar que mejorará la seguridad de las comunicaciones mediante el uso del TKIP (Temporal Key Integrity Protocol). j) 802.11j Estándar que permitirá la armonización entre IEEE, el ETSI HyperLAN2, ARIB e HISWANa. k) 802.11m Estándar propuesto para el mantenimiento de las redes inalámbricas. El gran éxito del estándar 802.11 es que utiliza frecuencias de uso libre, es decir no es necesario pedir autorización o algún permiso para utilizarlas. Aunque hay que tener en mente, que la normatividad acerca de la administración del espectro varía de país a país. 27 27 La desventaja de utilizar este tipo de bandas de frecuencias es que las comunicaciones son propensas a interferencias y errores de transmisión. Estos errores ocasionan que sean reenviados una y otra vez los paquetes de información. Una razón de error del 50% ocasiona que se reduzca el caudal eficaz real (throughput) dos terceras partes aproximadamente. Por eso la velocidad máxima especificada teóricamente no es tal en la realidad. Si la especificación IEEE 802.11b nos dice que la velocidad máxima es 11 Mbps, entonces el máximo caudal eficaz será aproximadamente 6 Mbps y menos. Para reducir errores, el 802.11a y el 802.11b automáticamente reducen la velocidad de información de la capa física. Así por ejemplo, el 802.11b tiene tres velocidades de información (5.5, 2 y 1 Mbps) y el 802.11a tiene 7 (48, 36, 24, 18, 12, 9 y 6 Mbps). La velocidad máxima permisible (ver Fig. 2-4) sólo es disponible en un ambiente libre de interferencia y a muy corta distancia. Fig. 2-4: Principales estándares 802.11 La transmisión a mayor velocidad del 802.11a no es la única ventaja con respecto al 802.11b. También utiliza un intervalo de frecuencia más alto de 5 GHz. Esta banda es más ancha y menos atestada que la banda de 2.4 GHz que el 802.11b comparte con teléfonos inalámbricos, hornos de microondas, dispositivos Bluetooth, etc. Una banda más ancha significa que más canales de radio pueden coexistir sin interferencia. Si bien, la banda de 5 GHz tiene muchas ventajas, también tiene sus problemas. Las diferentes frecuencias que utilizan ambos sistemas, significa que los productos basados en 802.11a son no interoperables con los 802.11b. Esto significa que aunque no se interfieran entre sí, por estar en diferentes bandas de frecuencias, los dispositivos no pueden comunicarse entre ellos. Para evitar esto, la IEEE desarrolló un nuevo estándar conocido como 802.11g, el cual extenderá la velocidad y el intervalo de frecuencias del 28 28 802.11b para así hacerlo totalmente compatible con los sistemas anteriores. Este estándar fue ratificado el 20 de junio del 2003. Es importante destacar que los equipos que trabajan para el estándar 802.11g llegaron al mercado muy rápidamente, incluso antes de su ratificación, esto se debió en parte a que para construir equipos bajo este nuevo estándar se podían adaptar los ya diseñados para el estándar b. Actualmente se venden equipos con esta especificación, con potencias de hasta medio vatio, que permite hacer comunicaciones de hasta 50 km con antenas parabólicas apropiadas. Además, esta tecnología es muy utilizada en el montaje de pequeñas redes inalámbricas por su facilidad de instalación y configuración (sólo se requiere de una tarjeta de red inalámbrica sin necesidad de puntos de acceso). Esta ventaja provoca una serie de inconvenientes sobre todo en el campo de la seguridad. 2.4.3. WIFI Wi-Fi (o Wi-fi, WiFi, Wifi, wifi) es un conjunto de estándares para redes inalámbricas basados en las especificaciones IEEE 802.11. Creado para ser utilizado en redes locales inalámbricas, es frecuente que en la actualidad también se utilice para acceder a Internet. Wi-Fi es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11. Hay tres tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11 aprobado (a, b y g). Además, se aprobó en enero del 2007 el borrador de un cuarto estándar, el 802.11n, siendo el nuevo y revolucionario estándar de las redes Wireless. Los estándares IEEE 802.11b e IEEE 802.11g disfrutan de una aceptación internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con una velocidad de hasta 11 Mbps y 54 Mbps, respectivamente. El borrador del estándar 802.11n trabaja a 2.4 GHz a una velocidad de 108 Mbps. Aunque estas velocidades de 108 Mbps son capaces de alcanzarse ya con el estándar 802.11g gracias a técnicas de aceleramiento que consiguen duplicar la transferencia teórica. Actualmente existen 29 29 ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N, sin embargo, no se sabe si serán compatibles ya que el estándar no está completamente revisado y aprobado. En la actualidad ya se maneja también el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, además no existen otras tecnologías (Bluetooth, microondas, etc.) que la estén utilizando, por lo tanto hay muy pocas interferencias [25]. 2.4.4. COMUNICACIÓN INFRARROJA La comunicación infrarroja se da a través de la emisión de energía en forma de ondas electromagnéticas en la zona del espectro situada inmediatamente después de la zona roja de la radiación visible. Las ondas infrarrojas son muy usadas para la comunicación de corto alcance entre dispositivos como computadoras personales, teléfonos móviles y asistentes personales. Es una tecnología de comunicación direccional, la cual envía comandos en un único sentido con ráfagas a baja velocidad y a distancias de hasta 9 metros. Utilizan radiación directa por medio de leds y no es capaz de atravesar objetos sólidos. El infrarrojo fue descubierto en el año 1800 por el astrónomo alemán William Herschel haciendo pasar la luz solar por un prisma y midiendo la temperatura registrada por un termómetro más allá de la región rojiza del espectro visible. El termómetro demostró la existencia de una forma de luz invisible más allá del color rojo la cual era percibida en forma de calor. El conjunto de especificaciones que actualmente constituyen el estándar internacional para el desarrollo de sistemas de comunicaciones a través de rayos infrarrojos adopta el mismo nombre de la asociación que los produce: IrDA, del ingles "Infrared Data Association, IrDA", la cuál define un estándar físico en la forma de transmisión y recepción de datos por rayos infrarrojo. 30 30 El estándar IrDA soporta una amplia gama de dispositivos eléctricos, informáticos y de comunicaciones, permite la comunicación bidireccional entre dos extremos a velocidades que oscilan entre los 9.600 bps y los 16 Mbps, como lo define el estándar (actualmente la velocidad máxima es de 4 Mbps). Esta tecnología se encuentra en muchos ordenadores portátiles, y en un creciente número de teléfonos celulares. Las características de comunicaciones ofrecidas por IrDA son limitadas por efectos del requerimiento de la línea de vista y su corta distancia lo que representa un campo donde esta tecnología debe seguir avanzando para garantizar competencia con otras tecnologías. Los aspectos que deben tenerse en cuenta al momento de implementar este tipo de tecnologías son: visión directa distancias relativamente cortas velocidades entre 9600 bps y 4 Mbps, comunicación inalámbrica entre dispositivos que pueden requerir de un software (protocolo de comunicación) que garantice su sincronización. 31 31 CAPITULO 3 3. MARCO TEÓRICO Los signos vitales a monitorizar en el presente prototipo serán los siguientes: Frecuencia cardiaca (señal ECG) Saturación de oxigeno en la sangre (oximetría) Presión sanguínea (Osciloscopía) A continuación se detallará cada uno de ellos: 3.1. FRECUENCIA CARDIACA Por comodidad se expresa siempre en contracciones por minuto, ya que cuando tomamos el pulso lo que notamos es la contracción del corazón (sístole). Fig.3-1 Potenciales de acción típicos del corazón y la actividad eléctrica registrada 32 32 El numero de contracciones por minuto esta en función de muchos aspectos y por esto y por la rapidez y sencillez del control de la frecuencia hace que sea de una gran utilidad, tanto para médicos, como para entrenadores y como no, para aficionados al deporte o deportistas profesionales. Normalmente, el corazón late entre 60 y 100 veces por minuto. En las personas que hacen ejercicio habitualmente o que toman medicamentos para reducir el ritmo cardíaco, la frecuencia puede caer por debajo de 55 latidos por minuto. Si la frecuencia cardiaca es muy rápida (más de 100 latidos por minuto), se denomina taquicardia, mientras que una frecuencia cardiaca inusualmente lenta se denomina bradicardia. La frecuencia cardiaca en el electrocardiograma se mide utilizando la duración de los intervalos RR. En el registro electrocardiográfico el punto R (dentro del complejo QRS) se refiere al punto positivo de la despolarización ventricular. Las variaciones latido a latido en la duración de los intervalos RR reflejan cambios en la actividad del sistema nervioso autónomo . El análisis en el dominio de las frecuencias o análisis espectral permite descomponer las variaciones de la frecuencia cardiaca en componentes oscilatorios y definir la amplitud y frecuencia de estos componentes (ver figura 3-1). Con el registro electrocardiográfico se puede analizar el tiempo entre los intervalos RR y construir un tacograma de la frecuencia cardiaca. A partir del tacograma y mediante algoritmos matemáticos se pueden determinar el número de frecuencias y la amplitud de los componentes oscilatorios. Los algoritmos más utilizados son la transformada de Fourier y el análisis autorregresivo. 3.1.1. EL ELECTROCARDIOGRAMA (ECG) Él electrocardiograma (ECG) en la actualidad constituye uno de los métodos no invasivos más utilizados para realizar diagnósticos del estado de salud de una persona. El electrocardiógrafo detecta las señales eléctricas (de aproximadamente 1 mV) asociadas con la actividad cardiaca y produce un registro gráfico del voltaje con respecto al tiempo. Fue inventado en 1,903 por el fisiólogo holandés Wilhelm 33 33 Einthoven, por lo que se hizo acreedor del Premio Nóbel en 1,924. Einthoven, además, señaló los principios de la interpretación del trazado obtenido con este instrumento. Para adquirir la señal de ECG necesitamos básicamente tres elementos: los electrodos, que son los sensores que se ponen en contacto con la piel del sujeto y se encargan de captar sus impulsos eléctricos; un bioamplificador, cuya función es amplificar la señal de los electrodos de micro-voltios a mili-voltios para que la señal pueda ser registrada; y por último, un sistema que se encargue de mostrar y/o almacenar la señal adquirida. El electrocardiograma es la base de otras exploraciones más complejas como la electrocardiografía de esfuerzo (Prueba de Esfuerzo) o la electrocardiografía ambulatoria (Holter). En el ECG se miden los potenciales de acción entre varios puntos de la superficie de un volumen conductor. Para simplificar su medida se ha desarrollado un modelo simple para representar la actividad eléctrica del corazón. En este modelo, el corazón consiste en un dipolo eléctrico localizado en el tórax, como se muestra en la Figura 3-2. Este campo particular y el dipolo que produce representan la actividad eléctrica del corazón en un instante específico. En un instante posterior el dipolo puede cambiar su orientación y magnitud, por lo tanto puede causar cambios en el campo eléctrico. Una vez aceptado este modelo, se puede representar este campo eléctrico por el momento dipolar M, conocido como vector cardiaco. En el progreso del ciclo cardíaco la magnitud y dirección de M varían porque el dipolo eléctrico varía . Fig. 3-2. Representación de la actividad eléctrica del corazón mediante un dipolo eléctrico. Los potenciales eléctricos generados por el corazón atraviesan el cuerpo y aparecen en su superficie. Por lo tanto se determinan diferencias de potencial ubicando electrodos en 34 34 la superficie del cuerpo y midiendo el voltaje entre ellos, obteniendo de esta forma proyecciones del vector M. Si dos electrodos son ubicados en diferentes líneas equipotenciales del campo eléctrico del corazón, se medirá una diferencia de potencial distinta de cero. Pares de electrodos diferentes ubicados en distintos sitios generalmente producen diferentes resultados por la dependencia espacial del campo eléctrico del corazón. Para esto es importante mantener cierto estándar de posiciones para la evaluación clínica de la señal ECG. Para obtener la actividad cardiaca completa, se considera que los potenciales cardíacos se proyectan a lo largo de los ejes existentes en cada uno de los tres planos de referencia, el plano frontal, el plano sagital y el plano transversal (según Figura 3-3). Se realizan varios registros o derivaciones tomadas en el plano frontal y en el plano transversal. Fig. 3-3. Planos Sagital, Frontal y Transversal Se obtienen tres derivaciones básicas en el plano frontal. Las derivaciones I, II y III se miden sobre los miembros: la I va del brazo derecho al izquierdo, la II del brazo derecho a la pierna izquierda y la III del brazo izquierdo a la pierna izquierda (Ver Figura 3-8). A partir de esto se obtiene el punto imaginario V, localizado en el centro del pecho, por encima del corazón. Las otras nueve derivaciones provienen del potencial entre este punto y las tres derivaciones de los miembros (aVR, aVL y aVF) y las seis derivaciones precordiales (V1-6). V1: 4º espacio intercostal derecho, línea paraesternal derecha. V2: 4º espacio intercostal izquierdo, línea paraesternal izquierda V3: simétrico entre V2 y V4. 35 35 V4: 5º espacio intercostal izquierdo, línea medioclavicular. V5: 5º espacio intercostal izquierdo, línea anterior axilar. V6: 5º espacio intercostal izquierdo, línea axilar media. Por lo tanto, hay doce derivaciones en total. Cada una de las cuales registra información de partes concretas del corazón: Fig. 3-4 Colocación de los electrodos Las derivaciones inferiores (III y aVF) detectan la actividad eléctrica desde el punto superior de la región inferior (pared) del corazón. Esta es la cúspide del ventrículo izquierdo . Las derivaciones laterales (I, ID, aVL, V5 y V6) detectan la actividad eléctrica desde el punto superior de la pared lateral del corazón, que es la pared lateral del ventrículo izquierdo. Las derivaciones anteriores, V1 a V6 representan la pared anterior del corazón o la pared frontal del ventrículo izquierdo. aVR raramente se utiliza para la información diagnóstica, pero indica si los electrodos se han colocado correctamente en el paciente. 36 36 En la figura 3-5 podemos ver el aspecto de la señal de ECG tomado en la derivación II. Fig. 3-5 Señal del ECG tomado de la derivación II Desde el punto de vista eléctrico, el ciclo cardiaco tiene tres fases: despolarización, repolarización y descanso. En el ECG, estas fases corresponden alas siguientes ondas: Onda P La onda P es la señal eléctrica que corresponde a la contracción auricular. Ambas aurículas, derecha e izquierda, se contraen simultáneamente. Después de la pausa el nodo AV se encuentra estimulado y se inicia el impulso eléctrica que se dirige hacia abajo por el has de His y las ramas del mismo. A medida que éste se va alejando se produce la llamada Despolarización ventricular. Su relación con los complejos QRS determina la presencia de un bloqueo cardiaco. La repolarización de la onda P queda escondida en el comienzo del complejo QRS. QRS El complejo QRS corresponde a la corriente eléctrica que causa la contracción de los ventrículos derecho e izquierdo, la cual es mucho más potente que la de las aurículas y compete a más masa muscular, produciendo de este modo una mayor deflexión en el ECG. Onda Q, cuando está presente, representa la pequeña corriente horizontal (de izquierda a derecha) del potencial de acción viajando a través del septum interventricular. Las ondas Q que son demasiado anchas y profundas no tienen un origen septal, sino que indican un infarto de miocardio. Las ondas R y S indican contracción del miocardio. Las anormalidades en el complejo QRS pueden indicar bloqueo de rama (cuando es ancha), taquicardia de origen 37 37 ventricular, hipertrofia ventricular u otras anormalidades ventriculares. Los complejos son a menudo pequeños en las pericarditis. Onda T La onda T representa la repolarización de los ventrículos. El complejo QRS oscurece generalmente la onda de repolarización auricular, por lo que la mayoría de las veces no se ve. Eléctricamente, las células del músculo cardiaco son como muelles cargados; un pequeño impulso las dispara, despolarizan y se contraen. La recarga del muelle es la repolarización (también llamada potencial de acción). En la mayoría de las derivaciones, la onda T es positiva. Las ondas T negativas pueden ser síntomas de enfermedad, aunque una onda T invertida es normal en V1 ( V2-3 en la gente de color). El segmento ST conecta con el complejo QRS y la onda T. Puede estar reducido en la isquemia y elevado en el infarto de miocardio . Fig.3-6 Señal típica del ECG y triangulo de Einthoven Intervalo QT El intervalo QT corresponde a la activación y recuperación ventricular (Ver figura 3-6), se mide desde el principio del complejo QRS hasta el final de la onda T. Éste intervalo QT y el QT corregido son importantes en la diagnosis del síndrome de QT largo y síndrome de QT corto. Su duración varía según la frecuencia cardiaca y se han desarrollado varios factores de corrección para este intervalo . 38 38 El más frecuentemente utilizado es el formulado por Bazett y publicado en 1920. La fórmula de Bazett es: Donde QTc es el intervalo QT corregido para la frecuencia cardíaca y RR es el intervalo desde el comienzo de un complejo QRS hasta el siguiente, medido en segundos. Sin embargo, esta fórmula tiende a ser inexacta; sobre-corrige en frecuencias cardíacas altas e infra-corrige en las bajas. Un método mucho más exacto fue desarrollado por Rautaharju, que creó la fórmula: . Este método no está ampliamente extendido entre los médicos. Como se ve, a partir de las distintas ondas y complejos que conforman el ECG se puede realizar un diagnóstico acerca del estado de salud del paciente. Además de las vistas en el estudio de las distintas arritmias y el infarto de miocardio (cambios en las formas del ECG, duración y amplitud de las distintas ondas, etc.), hay otras medidas, extraídas a partir de los características del electrocardiograma, que nos permiten evaluar el estado de salud del paciente. Destacamos una por su relación con esta Tesis: La variabilidad del ritmo cardiaco, que denotaremos por las siglas HRV del inglés Heart Rate Variability. Sobre la HRV, podemos establecer tres grandes grupos de técnicas utilizadas para su análisis. Análisis en el dominio del tiempo, mediante índices como la media, la Desviación estándar, el RMSSD, el pNN50 o el índice triangular HRV (ver Fig.3-11). Estos índices se calculan habitualmente sobre registros de larga duración (12 ó 24 horas). Análisis en el dominio de la frecuencia. Para ello se puede utilizar la transformada de Fourier u otros métodos para obtener el espectro de la HRV. Se definen tres zonas frecuenciales para registros de corta duración (menores de 5 minutos) y cuatro para registros largos (entre 12 y 24 horas). La Fig.3-7 los resume. 39 39 El espectro se suele calcular sobre registros de corta duración, típicamente de 2 a 5 minutos. Esto es debido a que el ECG es una señal no estacionaria, con lo cual en registros de larga duración los cambios frecuenciales en las distintas bandas definidas quedan obscurecidos por el promediado que se realiza al calcular el espectro de una señal de larga duración de estas características. También se utilizan transformadas tiempo-frecuencia y wavelets para estudios de larga duración puesto que estas transformadas sí tienen en cuenta los cambios temporales en señales no estacionarias. Otros métodos: métodos no lineales, como el biespectro, exponente de Hurst, dimensión de correlación, exponente de Lyapunov o la dimensión fractal. Fig. 3-7 Índices en el dominio temporal y regiones en el dominio frecuencial El principal objetivo, es conseguir un sistema con muy poco ruido, para la adquisición de la señal electrocardiográfica . La presencia de ruido es el registro de este tipo de señales, es prácticamente inevitable. Ya sea por causas ajenas, o propias del sistema. El conocimiento acerca del ruido, y las causas que lo propician, ayudarán al procesado y eliminación de éste. En primer lugar, citamos el concepto ruido, que se define como una señal ajena a la señal de estudio provocando errores en el sistema de medida. Destacamos, el problema que conlleva la amplitud tan pequeña de las señales bioelectrónicas. Los potenciales bioeléctricos del ser humano son magnitudes que varían con el tiempo. Los valores de dicha medida pueden variar entre distintos 40 40 individuos por diversos factores. Por ejemplo, en un ECG la magnitud de un paciente, puede variar entre 0.5mV-4mV, nivel estimado para el ECG. El ruido provocado por el exterior es producido por el contacto entre el electrodo y la piel del paciente que se le llama interferencia capacitiva. El cuerpo se puede considerar como un conductor bastante amplio. Este se encuentra separado por el aire que proviene de la corriente eléctrica . La consecuencia de ello es que se forman dos condensadores por encima y debajo del paciente (Ver Figura 3-8) de modo que el aire tiene un comportamiento dieléctrico. La impedancia del cuerpo humano se ha despreciado debido a la baja resistencia de la piel. Fig. 3-8 Modelo circuital para el análisis de las interferencias del ruido en la medida del ECG para el acoplamiento del campo eléctrico La corriente que circula por el cuerpo humano depende de los siguientes factores: Magnitud de la corriente que circula. Frecuencia. Duración del paso de corriente. Variabilidad de la superficie a zonas interiores. 41 41 Las medidas de dichas corrientes deben estar entre los estándares (entre 0.5-10mA), pues a superiores a estos podrían provocar contracciones involuntarias de los músculos, asfixias, etc. Los electrodos (Ver figura 3-9), son los encargados de transformar en corrientes eléctricas las corrientes iónicas del cuerpo humano. Estos instrumentos deben cumplir con las ciertas características, destacamos: Fig. 3-9 a) Electrodos de ventosa, b) Electrodos de pinza, c) Electrodos desechables. Transformar corrientes con poca pérdida de información. Higiénicos. No produzca efectos secundarios en el paciente. Baja impedancia. Potencial de contacto estable y pequeño. Duradero en el tiempo. Para asegurar que capte información coherente y sin ruidos es necesario limpiar la superficie de contacto con alcohol para eliminar las células muertas(por su alta impedancia), añadiendo un gel dedicado a los electrodos que deba dejar que se seque levemente para disminuir la impedancia que produce la dermis. 3.1.2. ELECTRODOS PARA MEDIR SEÑAL ECG Los electrodos son el primer y principal elemento en la cadena de medida. Por tanto, el ruido que pueda generarse en dicho elemento adquiere especial importancia. Su función es la de transductor. Debe convertir las corrientes iónicas, que son el mecanismo de conducción de las señales bioeléctricas en los tejidos, en corrientes eléctricas. Esta 42 42 transducción debe ser hecha con la mayor fidelidad posible y además, no debe perturbar la señal a medir. El electrodo está formado por una superficie metálica y un electrolito en contacto con la piel. Los parámetros importantes son la impedancia y el ruido. La impedancia debe ser lo más baja posible para reducir el efecto de carga de la etapa posterior de amplificación y minimizar el efecto de las interferencias de mondo común que aparecen a la entrada. El potencial de la piel viene dado por V= -Zt I Donde Zt representa la impedancia de las capas de la piel y I la corriente que fluye a través del medio extracelular. El electrodo a utilizar será el electrodo deséchale, debido a valor económico y de fácil obtención en el mercado. 3.2. SATURACIÓN DE ÓXIGENO La saturación de oxígeno mide la cantidad de oxígeno que se encuentra combinado con la hemoglobina, es por eso que esta medida es una medida relativa y no absoluta, ya que no indica la cantidad de oxígeno en sangre que llega a los tejidos, sino la relación existente entre la cantidad de hemoglobina presente y la cantidad de hemoglobina combinada con oxígeno (oxihemoglobina). Fig. 3-10 Funcionamiento del saturimetro (Oxímetro) 43 43 Se basa en que el color de la sangre varía dependiendo de lo saturada de oxígeno que se encuentre, debido a las propiedades ópticas del grupo hemo de la molécula de hemoglobina. Cuando la molécula de hemoglobina libera oxígeno, pierde su color rosado, adquiriendo un tono más azulado y deja pasar menos luz roja. Así pues, el oxímetro determina la saturación de oxígeno midiendo espectrofotométricamente el "grado" de azules de la sangre arterial y expresa esta "azules" en términos de saturación. Dado que la cantidad de oxihemoglobina está relacionada con la coloración roja de la sangre, siendo ésta más fuerte cuánto más oxihemoglobina contiene la sangre, y más tenue cuando menos oxihemoglobina hay presente. Debido a que la absorción de luz de los tejidos y de la sangre venosa es constante, cualquier cambio en la absorción de la luz, entre un tiempo dado y uno posterior, se debe exclusivamente a la sangre arterial . El principio de funcionamiento del sensor óptico viene determinado porque la absorción de la sangre a una determinada longitud de onda, es dependiente de la saturación de oxihemoglobina. En la parte contraria del sensor dactilar (finger sensor), encontramos a los dos emisores (Fig.3-10) emitiendo una luz a esta longitud de onda a través del dedo y recibiendo la cantidad de luz que no fue absorbida en un receptor diametralmente opuesto al emisor. De esta manera logramos conocer la cantidad de luz absorbida por el dedo, debido a que esta luz es mayoritariamente absorbida por la sangre . 3.2.1. OXÍMETRIA Oximetría es un término general relativo o aplicable a las diferentes tecnologías capaces de medir la saturación de la hemoglobina (Hb) por el oxígeno. De manera general, las técnicas oximetricas se pueden dividir en: Espectrofotometría para el análisis de la Hb in vitro Oximetría de pulso (SpO2) para medición no invasiva de la saturación de la Hb Oximetría fibróptica para medición invasiva de la saturación de la oxihemoglobina in vivo. 44 44 Todas estas técnicas de oximetría se basan en principios espectrofotométricos que miden las porciones de luz transmitida y/o absorbida por parte de la Hb. Para los fines de este prototipo, usaremos la oximetría de pulso. 3.2.2. OXÍMETRIA DE PULSO La pulsioximetría mide la saturación de oxígeno en la sangre, pero no mide la presión de oxígeno (PaO2), la presión de dióxido de carbono (PaCO2) o el pH. Por tanto, no sustituye a la gasometría en la valoración completa de los enfermos respiratorios. Sin embargo supera a la gasometría en rapidez y en la monitorización de estos enfermos. Los aparatos disponibles en la actualidad son muy fiables, para valores entre el 80 y el 100%, pero su fiabilidad disminuye por debajo de estas cifras. En la figura 3.11, mostramos las equivalencias entre la Saturación de oxígeno y la PaO2 en la gasometría arterial. Fig. 3-11 Relación entre la saturación de O2 y PaO2 La Oximetría de pulso, se utiliza luz con solo dos diferentes longitudes onda. Las características del espectro de la luz de la HbO2 (oxihemoglobina) y HbR (hemoglobina reducida), presentan diferencias que son máximas en la región roja e infrarroja del espectro como se muestra en la figura 3.12 Los oxímetros de pulso son espectrofotómetros de longitud de onda dual, con capacidad pletismográfica, que funcionan mediante la colocación de un lecho vascular arterial pulsátil entre una fuente de luz de dos longitudes de onda y un detector luminoso [7]. 45 45 Los sistemas comerciales usan como emisores diodos electro-luminiscentes (LED) en el rojo (630-660 nm) e infrarrojo (800-940 nm) para así obtener un mayor contraste entre la HbO2 y HbR. Fig. 3-12 Grafico de Absorbancia de energía electromagnética y de disociación del oxigeno y saturación La luz consiste en "paquetes" de energía que se conocen como cuantos. La intensidad de un rayo de luz está en función con la cantidad de cuantos que se generan por segundo. Los átomos de toda molécula se hallan en constante vibración, y estas vibraciones son similares a las que generan las ondas luminosas. En general, la luz tiende a ser absorbida al llegar a una sustancia cuando su frecuencia luminosa coincide con la vibración de los átomos de esa sustancia. Las características vibratorias de una determinada molécula pueden representarse como un espectro, o sea un gráfico de la absorbancia de energías electromagnéticas (Fig. 3.13) por la molécula a diversas longitudes de onda. La fracción de luz absorbida en una longitud de onda específica se denomina absortividad o coeficiente de extinción. 46 46 3.2.3. ESPECTROFOTOMETRÍA La ciencia de la espectrofotometría se basa en la medición de la absorción de la luz para determinar la concentración de diversos solutos en soluciones límpidas. Figura 3-13 Símbolos y términos más importantes utilizados en las medidas de absorción También se manejan conceptos muy importantes que son: Transmitancia, Absorbancia, Absortividad y Absortividad Molar. Transmitancia Al hacer pasar un haz de radiación luminosa a través de una capa de solución con cierto grado de concentración, y que contiene una especie molecular que posee un coeficiente de absorción ante tal longitud de onda radiante, se observa, que como consecuencia de las interacciones entre los fotones y las partículas absorbentes, la potencia del haz disminuye de PoaP. La transmitancia T de la solución es la fracción de la radiación incidente trasmitida por la solución: PoPT = Por lo general, la transmitancia se expresa como porcentaje. 47 47 Absorbancia La absorbancia de una solución esta definida por la ecuación: PPoTA loglog10 =−= A diferencia de la transmitancia, la absorbancia de una solución aumenta a medida que aumenta la atenuación del haz. Absortividad y Absortividad Molar La absorbancia es directamente proporcional a la trayectoria de la radiación a través de la solución y a la concentración de la especie molecular que produce la absorción. Es decir: abcA = Donde a es una constante de proporcionalidad llamada absortividad. Resulta evidente que la magnitud de a depende de las unidades utilizadas para b y c. Cuando se expresa la concentración en moles por litro y la trayectoria a través de la celda en centímetros, la absortividad se denomina absortividad molar y se representa con el símbolo e. En consecuencia cuando b se expresa en centímetros y c en moles por litro: ebcA = Ley de Beer–Lambert Esta ley indica que para una cierta concentración de absorbente, la intensidad de la luz transmitida, que previamente se ha logrado que sea paralela plana y que entre al medio absorbente, formando ángulos rectos con el plano, disminuye logarítmicamente medida que la longitud del trayecto aumenta en forma aritmética. La relación entre la intensidad y la concentración de la especie absorbente tiene mucho más interés, por lo que Beer determino que, al aumentar la concentración del absorbente, se produce el mismo efecto que un aumento proporcional en la longitud del trayecto de absorción de la radiación. De esta forma, la constante de proporcionabilidad k de la ecuación es a su vez, proporcional a la concentración de soluto absorbente, esto es: aCK = 48 48 Si la longitud de trayecto de la muestra se expresa en centímetro y la concentración en gramos de absorbente por litro de solución, la constante a, llamada absorbancia relativa especifica o coeficiente de absorbición, tiene por unidades litro g-1cm. Con frecuencia se desea especificar C en términos de concentración de molares. Manteniendo b en unidades de centímetros, entonces la ecuación se escribe como: bC P Po =∈log Donde Є, en unidades de: Lmol-1 cm-1 Todos los oxímetros de pulso asumen que la única absorción pulsátil entre la fuente de luz y el fotodetector es la de la sangre arterial. Para determinar la saturación funcional, los oxímetros de pulso utilizan dos longitudes de onda: 660 manómetros (rojo) y 940 nanometros (próxima al infra-rojo) para determinar la relativa contribución de la oxihemoglobina y de la desoxihemoglobina. Las mediciones entregan las absorciones máximas y mínimas a 660 y a 940 nm. Obteniéndose así cuatro valores separadamente. La relación entre las absorciones determina la saturación de oxígeno y se calcula de la siguiente forma: (absorción máxima a 660/absorción mínima a 660) R = ____________________________________ (absorción máxima a 940/absorción mínima a 940) Si se asume que la transmisión de la luz a través de la sangra arterial es influenciada exclusivamente por las concentraciones relativas de HbO2 y Hb y sus coeficientes de absorción a las dos longitudes de onda medidas, entonces la intensidad de la luz se reducirá logarítmicamente con la longitud de la trayectoria conforme lo establece la ley de Beer- Lambert. A la longitud de onda λ1 lCC in rrII )( 11 100110 αα +−= A la longitud de onda λ2 lCC in rrII )( 22 200210 αα +−= Donde: C0 es la concentración de oxihemoglobina (HbO2) 49 49 Cr es la concentración de hemoglobina reducida (HbR) a0n es el coeficiente de absorción de HbO2 a la longitud de onda ln Por es el coeficiente de absorción de Hb a la longitud de onda ln De acuerdo con la ley Beer- Lambert : ( ) ( )2210 1110 log log in in II IIR = Se puede observar que ( ) ( ) %100 2 2 011022 12 0 0 2 × + = −−− − = + = HbOHbR HbO R R CC CSaO rr rr r αααα αα [1] Lo anterior permite proponer un sistema de procesamiento que permita calcular la SaO2 con base en la determinación empírica de los valores de saturación. (Ver figura 3.14) Fig. 3.14 curva de Calibración de un Oxímetro de Pulso Nótese que cuando la relación entre la absorción del rojo y el infra-rojo es igual 1.0, la saturación es aproximadamente 85%. Los valores normales de saturación son: 95% - 88%. Fig. 3-15 Señal de la Saturación Parcial de Oxigeno 50 50 3.3. PRESIÓN SANGUÍNEA 3.3.1. UNIDADES DE PRESIÓN La presión se define como fuerza por unidad de superficie, y se expresa en diversas unidades. La unidad estandarizada es el pascal (Pa) que corresponde a 1 m2 N, sin embargo en la mayoría de los procesos industriales se utilizan unidades tales como el bar, la atmósfera, mmHg y cmH O 2, etc. Existen básicamente dos tipos de valores en los que se puede medir la presión, dependiendo de la referencia que se tome, la cual puede se tener: Presión absoluta. Es la que se mide en relación al cero absoluto de presión, es decir, con respecto al vacío perfecto, por lo que los transductores de presión absoluta son dispositivos que miden la presión absoluta del medio ambiente o de una fuente de presión, teniendo como referencia el vacío. Presión atmosférica. Es la que ejerce la atmósfera sobre la superficie terrestre y varía dependiendo del lugar, a nivel del mar la presión atmosférica es de 760 mmHg o 1 atmósfera. Vacío. Se le llama vacío a todas las presiones por debajo de la presión atmosférica. Presión diferencial. Es la diferencia entre dos presiones existentes, medidas con transductores o medidores que tienen dos entradas de presión independientes. Para este trabajo es el tipo de presión que nos interesa Presión relativa o manométrica. Es un caso especial de la presión diferencial, solo que una de las fuentes de presión es el medio ambiente, midiéndose así la diferencia entre la presión absoluta y la atmosférica propia del lugar donde se efectúa la medición. Esta presión corresponde a una medición que toma como referencia la presión atmosférica. 51 51 3.3.2. METODOS DE MEDICIÓN DE LA PRESIÓN SANGUÍNEA La medición de la presión arterial es un elemento impredecible en la medicina, ya sea para estudios clínicos de determinadas enfermedades. La Presión arterial (PA) es la presión que ejerce la sangre contra las paredes de los vasos sanguíneos. La PA se genera por la contracción de los ventrículos. En la aorta de un adulto joven en reposo, la PA sube hasta alrededor de 120 mm Hg durante la sístole (contracción) y cae a unos 80 mm Hg durante la diástole (relajación). La diferencia entre la presión diastólica y sistólica es llamada Presión Media y es generalmente alrededor 40 mm Hg. La presión puede medirse de forma invasiva (directa) y no invasiva (indirecta), siendo los métodos invasivos los potencialmente más exactos, pero la complejidad e in- conveniencia en su aplicación hacen que los métodos no invasivos sean por el contrario lo más usados, siendo mas seguros y fáciles de usar. Existen formas fundamentales de realizar la medición de la presión arterial: La primera es mediante los métodos intermitentes, los que brindan presiones puntuales como la sistólica (PS), diastólica (PD) y media (PM), calculándolas en un periodo de tiempo que cubre más de un latido del corazón. Ej.: Método Ausculatatorio, Método Oscilométrico, Método Paliatorio, Método Ultrasónico, etc. Para el propósito del prototipo se usará el método Oscilométrico, ya que utiliza métodos continuos, los que brindan presiones puntuales, y se basa en monitorear las variaciones, oscilaciones de la señal del brazal que se aplica alrededor del brazo o muñeca, logrando determinar a través del análisis de esta señal los valores de presión sistólica , diastólica y media. Mientras la banda se desinfla desde un nivel por encima a la presión sistólica, las paredes de la arteria comienzan a vibrar u oscilar a medida que la sangre fluye a través de la arteria parcialmente ocluida, y estas vibraciones son captadas en el transductor que monitorea la presión de la banda. Cuando la presión en la banda sigue disminuyendo, las oscilaciones aumentan hasta una amplitud máxima y luego disminuye hasta que la banda se desinfla completamente y el flujo de sangre regresa a la normalidad .La presión en la banda en el punto de máxima oscilación normalmente se corresponde con la presión arterial media. (Ver figura 3-16) 52 52 Figura 3-16 Curva de Presión Oscilatoria 3.3.2.1. MÉTODO OSCILOMÉTRICO Este método es utilizado por la mayoría de los Esfigmomanómetros electrónicos. El principio simplificado del método oscilométrico consiste en la medida de la amplitud del cambio de la presión en el brazalete durante el tiempo que es inflado el brazalete por arriba de la presión sistólica. De repente la amplitud crece mientras el pulso rompe hacia la oclusión, este valor es muy cercano a la presión sistólica. Una vez que la presión en el brazalete es reducida, la pulsación incrementa en amplitud, alcanza un máximo y disminuye rápidamente. El índice de la presión diastólica es tomado en donde esta rápida transición comienza. Por lo tanto, la presión arterial sistólica y la presión arterial diastólica ,se obtiene por la identificación de la región en donde se tiene un rápido incremento, para luego disminuir en la amplitud de los pulsos respectivamente. La presión arterial media se localiza en el punto de máxima oscilación. Una ves que se ha obtenido el valor de la presión media, se usa una serie de relaciones para calcular la presión sistólica y la diastólica. 55.0=MAP Psistólica 85.0=MAP Pdiastólica 53 53 3.3.2.2. MÉTODO OSCILOMÉTRICO DERIVATIVO Esta técnica es bien parecida a la oscilometria convencional, pero en ves de calcular las presiones sistólica y diastólica la miden. La forma de medir estas presiones es a través de la derivada de la salida del sensor, es decir, de la presión medida. Al derivar la presión se obtienen las oscilaciones de la señal, es decir sus variaciones. Justo en el momento en que se detecta una variación de alrededor de 1Hz, se observa que la presión esta midiendo el sensor. Este valor será el de la presión sistólica. El momento en que desaparece la señal de 1Hz, se obtiene la presión diastólica. Fig. 3-17 muestreo de la presión sanguínea usando el método de osilometria con un sensor de brazal. Las figuras se obtuvieron usando un filtro pasa alta de 0.5 Hz. Drzewiecki [1994] empleo el método oscilométrico para evaluar la derivada de la oscilación en al curva de la amplitud con respecto a la presión del bocamanga. Cuando la derivada es graficada nuevamente con la presión del bocamanga, se lograron alcanzar valores máximos positivos. Esto ocurrió cuando la presión del bocamanga fue iguala la presión diastólica. Adicionalmente, el valor mínimo negativo alcanzado ocurrió con la presión sistólica. 54 54 Figura 3-18. Método Oscilométrico derivativo. Los valores máximos y mínimos denotan las presiones diastólica y sistólica, respectivamente. La derivada cero indica el valor de MPA en la grafica. La medición de la presión arterial es un elemento imprescindible en la medicina, ya sea para estudios clínicos de determinadas enfermedades. 3.3.3. MEDICIÓN DE LA PRESIÓN SANGUÍNEA La medida de la presión de la sangre en el interior de las venas y las arterias está relacionada con el latido del corazón, ya que la pulsación cardiaca es el propulsor principal de toda la actividad circulatoria. Por lo consiguiente, la medida de la presión efectuada con el manómetro y con sensores de presión que tienen que asociarse a la medida de la amplitud del latido cardiaco, utilizando el tradicional estetoscopio u otros sensores particulares. La presión sistólica se lee cuando, escuchando el latido cardiaco difundido por al arteria del brazo, se advierte un repiqueteo especial que demuestra que la arteria del brazo y, por efecto BERNOULLI, a la tentativa cíclica de cierre, apremiada por la alta velocidad de la sangre en circulación. Haciendo fluir de nuevo el aire del brazal, la pulsación cardiaca se hace cada vez más fuerte y clara, perdiendo su componente de ruido intermitente y presentando una modulación de “soplo” con muchas componentes de alta frecuencia hasta que dicho 55 55 ruido comience a atenuarse y a desaparecer. La lectura de la presión de la presión diastólica se realiza cuando el ruido de la pulsación se atenúa o ya no es perceptible, ya que la diferencia es de solo algunos mm de Hg. 3.4. BLUETOOTH Bluetooth es un estándar global de comunicación inalámbrica establecido por la IEEE 802.15.1, el cual aparece asociado a las Redes de Área Personal Inalámbricas en inglés WPAN (Wireless Personal Area Network). Este estándar permite realizar conexiones de Red Inalámbricas teniendo la posibilidad de transmitir voz, datos, imagen, multimedia entre diferentes dispositivos utilizando la tecnología de radio frecuencia de corto alcance. Pero más allá de reemplazar, los con frecuencia incómodos cables, la tecnología Bluetooth ofrece un puente a las redes de datos existentes, una interfaz con el exterior y un mecanismo para formar en el momento, pequeños grupos de dispositivos conectados entre sí de forma privada fuera de cualquier estructura fija de red. Integrado en un pequeño transmisor de radiofrecuencia que permite conectar entre sí todo tipo de dispositivos electrónicos (teléfonos, ordenadores, impresoras, faxes, etc.). El transmisor está integrado en un pequeño microchip de 9x9 milímetros y opera en una frecuencia de banda global (2,4 GHz, utilizada en muchos países para usos médicos y científicos) que asegura la compatibilidad universal. Los dispositivos que incorporan Bluetooth se reconocen y se hablan de la misma forma que lo hace un ordenador con su impresora. El canal permanece abierto y no requiere la intervención directa y constante del usuario cada vez que se quiere enviar algo. Bluetooth opera en una banda no licenciada ISM (Industrial Scientific Medical) de 2.4- 2.5GHz permitiendo la transmisión de voz y datos, de forma rápida y segura con un rango de hasta 10 metros con 1 miliwatio o 100 metros (aunque con mayor distorsión) si se usa un amplificador con 100 miliwatios. Puede transferir datos de forma asimétrica a 721 Kbps y simétricamente a 432 Kbps. Se puede transmitir voz, datos e incluso vídeo. Para transmitir voz son necesarios tres canales de 64 Kbps, para transmitir vídeo es necesario comprimirlo en formato MPEG-4 y usar 340 Kbps para conseguir refrescar 15 veces por segundo una pantalla VGA de 320x240 puntos. 56 56 Bluetooth minimiza la interferencia potencial al emplear saltos rápidos en frecuencia (1600 veces por segundo). Por otro lado, el protocolo permite una comunicación automática entre los distintos dispositivos. Debido al pequeño tamaño de los mismos y a la portabilidad que requieren de cara al usuario, el consumo de potencia es bajo. Permite transmisiones de voz y datos de forma simultánea y sincronizada sin requerir una visión directa entre aparatos (una de sus mejores virtudes), así como el establecimiento de redes. A la hora de garantizar seguridad en las comunicaciones, para que éstas no sean interceptadas o afectadas por ruidos debidos a otras aplicaciones, emplea una técnica de multiplexaje denominadaza Spread Spectrum Frequency Hopping además de métodos de autenticación y cifrado. Finalmente resaltaremos el bajo coste de los dispositivos y la velocidad alcanzada: 3 Mbps según la nueva especificación (Bluetooth 2.0). 3.4.1. COMPONENTES DEL SISTEMA Dentro de una aplicación típica de Bluetooth nos podemos encontrar los siguientes elementos: a) Master: es el dispositivo Bluetooth que establece e inicializa la conexión, la secuencia de control “hopping” y la temporización de los demás dispositivos colocados en lo que se llama una red “Piconet”. b) Slave: es el dispositivo habilitado en una Piconet. Una red Piconet tiene un máximo de 7 esclavos. c) Piconet: una red de hasta 8 dispositivos conectados (1 maestro+ 7 esclavos, Figura 3-19). 57 57 Figura 3-19: Representación de una red piconet Scatternet: red formada por diferentes redes Piconet (Figura 3-20) La arquitectura Bluetooth se organiza en "piconets", formadas por dos o más dispositivos compartiendo un canal; uno de los terminales actúa como maestro de la “piconet”, mientras que el resto actúan como esclavos. Varias piconet con áreas de cobertura superpuestas forman una "Scatternet". Figura 3-20: Representación de una red Scatternet El transmisor de Bluetooth permite enviar voz y datos a una velocidad máxima de 700 Kb/seg. y consume un 97% menos que un teléfono móvil. Además, es inteligente: cuando el tráfico de datos disminuye el transmisor adopta el modo bajo de consumo de energía. Además, permite conexiones punto a punto y punto a multipunto. 58 58 CAPITULO 4 4. HARDWARE DE ADQUISICIÓN A continuación se muestra el diagrama de bloque del sistema de adquisición de los signos vitales usando el PIC16F877 Fig. 4-1. Diagrama de bloque del sistema de Adquisición Fig. 4-2. Diagrama Electrónico del Hardware de Adquisición. A D Q U I S I C I Ó N D E S E Ñ A L E S CIRCUITO DE ADQUISICIÓN DE LA SEÑAL ECG CIRCUITO DE ADQUISICIÓN DE LA SEÑAL DEL OXIMETRO CIRCUITO DE ADQUISICIÓN DEL VALOR DE PRESION SANGUINEA MICROCONTROLADOR PIC16F877 MULTIPLEXOR 2X1 M I C R O C O N T R O L A D O R CONVERSOR A/D 59 59 4.1. ADQUISICIÓN DE LA SEÑAL ECG Los valores que se registran en estudios de ECG son de un valor muy pequeño, del orden de 0.5 a 4 milivoltios y una frecuencia de 0.01 a 250 Hz. Los valores anteriores de frecuencia y voltaje representan un problema para su visualización directa, ya que a dichos niveles de voltaje hacen susceptible a la señal a la interferencia y el ruido. Por este motivo dichas señales se deben amplificar, aislar y filtrar para tener una correcta lectura de los puntos de interés. El modo de medida de la señal de ECG es de manera diferencial, ya que se registran como la diferencia de potencial eléctrico entre dos puntos. La señal de ECG es muy susceptible a ser afectada por diferentes tipos de señales eléctricas, algunas de carácter externo al circuito de medida y otras de carácter interno. Se denominan señales de origen interno a aquellas ajenas a la señal de interés que son susceptibles a provocar un error en el sistema de medida Ruido, e Interferencia a las señales con las mismas características que son de origen externo. Los electrodos usados para la captura de la señal son los electrodos desechables, los cuales son sensibles al potencial eléctrico de la piel que se encuentra entre 0.5 y 4mV. La tensión en los electrodos es llevada por unos cables especiales al Bio-amplificador. La elección o diseño del amplificador de entrada es tal vez la parte mas crucial del circuito, es él quien tiene contacto directo con la señal y las principales fuentes de distorsión; el resto de las etapas son, sin perder importancia, etapas de amplificación y filtrado. La señal de entrada al amplificador estará compuesta por la suma de dos señales, la señal diferencial (vd) y la señal modo común (vcm), las cuales serán amplificadas (tal como se muestra en la figura 5.1), obteniendo a la salida: Donde e0 es la señal media de salida debido a los componentes de entrada en modo común y V0 es la señal media de salida debido a la entrada en modo diferencial, Ad es la amplificación efectuada por el circuito amplificador a la señal vd y Acm es la amplificación que es efectuada por el mismo circuito a al señal vcm. 60 60 Fig. 4-3: Modo de captura de la señal de ECG en modo diferencial El CMRR o índice de rechazo en modo común se define como: Y nos determina cuanto la señal diferencial se amplifica respecto a la amplificación de la señal modo común. Si el CMRR es grande, la señal de interés se amplificará mucho más que la señal modo común. Se puede utilizar para el caso en que deseemos asegurar a la salida un error menor a un porcen