De la información genética a la computación
LHM/DICYT Un centenar de investigadores y profesionales del sector de las ciencias computacionales participa en Segovia en un curso práctico en el que se aborda el manejo de la información genética humana mediante supercomputación. El curso está organizado por la Fundación Centro de Supercomputación de Castilla y León y la IE Universidad y cuenta con la financiación de la Fundación Genoma España, bajo la coordinación de los profesores Alberto Labarga y Jesús Gómez Ochoa de Alda. Entre los expertos reunidos en Segovia hasta el próximo viernes figuran David Pisano , director de Informática del Centro Nacional de Investigaciones Oncológicas (CNIO) y Javier Herrero, del Instituto Europeo de Bioinfomártica en Cambridge (Reino Unido).
El curso presenta los principales sistemas de secuenciación masiva de ADN así como el empleo de la supercomputación en la recopilación y ensamblado de los fragmentos de ADN. Además, los científicos conocerán estos días el funcionamiento del ordenador Caléndula, un supercomputador para cálculo científico de última generación y uno de los superordenadores más importantes a nivel europeo, con sede en León, integrado por 340 ordenadores muy potentes que proporcionan una potencia de cálculo que sitúa a esta infraestructura castellano y leonesa en el segundo lugar en España.
En la actualidad, los científicos tienen la posibilidad de conocer a un coste razonable la secuencia del genoma individual del ser humano y el de los seres vivos que nos rodean, incluidos los organismos patógenos; este avance ha disparado una carrera biotecnológica que tiene como fin abaratar el coste de la secuenciación masiva de genomas en los laboratorios. Animadas por el progreso de la nanotecnología –ciencia aplicada al control y manipulación de la materia a nivel de átomos y moléculas-, muchas compañías se han lanzado a investigar y a desarrollar nuevas metodologías y creado los primeros secuenciadores de ADN en paralelo de alto rendimiento. El curso en IE University presenta las aplicaciones y las principales técnicas de secuenciación masiva así como el uso de la supercomputación para interpretar estos resultados.
Las nuevas técnicas de secuenciación masiva de ADN que se están imponiendo actualmente en la Biotecnología permiten secuenciar el genoma de una persona cada vez más rápido y de forma más económica. Con estas herramientas los científicos tienen la oportunidad de esclarecer el origen genético y la propensión de las personas a determinadas enfermedades; también permiten conocer la sensibilidad de los individuos a ciertos fármacos y, con ello, avanzar en el logro de una medicina personalizada.
El profesor Gómez Ochoa de Alda pone de manifiesto que “uno de los principales problemas para comercializar el uso de las técnicas de secuenciación masiva es la enorme cantidad de información que se genera -del orden de terabytes- y que hay que efectuar cuidadosos análisis para informar al paciente de una manera responsable y confidencial”. La supercomputación y otras tecnologías como la denominada computación en nube “son una alternativa para aquellos investigadores que no disponen ni de la infraestructura ni de la experiencia necesarias para trabajar con estos enormes volúmenes de información”, afirma.
Por otra parte, el profesor Alberto Labarga, añade que la Supercomputación y la “computación en nube” permiten al investigador contar con una infraestructura de tamaño y coste variable bajo demanda, minimizando el riesgo de inversión en tecnología.
La “computación en nube” -del inglés cloud computing, la nube es una metáfora de Internet- es una tecnología que permite ofrecer servicios de computación a través de Internet. En el modelo de computación en nube, los grandes clusters de sistemas se enlazan entre sí para proporcionar servicios tecnológicos como si se tratase de un único supercomputador global.
“En este tipo de computación todo lo que puede ofrecer un sistema informático se ofrece como servicio, de modo que los usuarios puedan acceder a los servicios disponibles "en la nube de Internet" sin ser expertos en la gestión de los recursos que usan; es un paradigma en el que la información se almacena de manera permanente en servidores en Internet y se envía a cachés temporales de cliente, lo que incluye PCs, dispositivos portátiles, notebooks...”, indica Labarga.