Investigadores de la Universidad Politécnica de Madrid trabajan en el desarrollo de una nueva herramienta para ayudar a los cirujanos maxilofaciales en la reconstrucción de rostros o cabezas de aquellas personas que han sufrido traumatismos. El sistema se basa en una herramienta virtual de reconstrucción en 3D a partir de imágenes médicas, que podrá ser aplicada para el guiado de robots paralelos como asistentes quirúrgicos.
El proyecto SRAQ (Sistema Robotizado Asistente Quirúrgico) se centra en el alto grado de violencia que existe en algunos países de América Latina donde son numerosas las personas que sufren traumatismos muy severos en rostro y cabeza, producto de accidentes o de agresiones. La ayuda de un cirujano maxilofacial es decisiva para la reconstrucción de los tejidos afectados.
Al realizar estas intervenciones, el cirujano se encuentra con diferentes tejidos, bien sea blandos, o los huesos cuyas capas externas e internas no son homogéneas. A ello se une que los instrumentos actualmente utilizados en cirugía para efectuar cortes y perforaciones son estrictamente manuales, y conllevan un elevado índice de error en su precisión y grandes variaciones en su tiempo de realización, por ser una variable dependiente casi en su totalidad del factor humano.
Para atenuar estos efectos, un grupo de investigadores de las universidades Politécnica de Madrid y Miguel Hernández de Elche, junto a profesores de la Universidad Nacional de Colombia, trabajan en el diseño y construcción de una aplicación virtual integrada con una herramienta robotizada que, aplicada a la navegación quirúrgica, podrá ayudar al cirujano maxilofacial en sus intervenciones para reconstruir zonas de la cara o de la cabeza.
El proyecto parte del estudio de herramientas informáticas, especializadas en visualización y procesamiento de imágenes, que permiten desarrollar reconstrucciones tridimensionales a partir de una imagen médica. Junto con una interface háptica, el cirujano podrá utilizar la reconstrucción 3D en la planificación de cirugías cráneo-maxilofaciales, ya que aportan diversos conceptos geométricos y conocimientos de trayectorias.
Además, la herramienta háptica permitirá al cirujano interactuar con el entorno virtual creado, y acceder a mayor información sobre elementos como la textura, rigidez y ubicaciones específicas a reparar.
El objetivo final del proyecto, desarrollado por los profesores Rafael Aracil, Roque Saltarén y José Serracín de la E.T.S.I. Industriales de la Universidad Politécnica de Madrid, y José Mª Sabater, de la Universidad Miguel Hernández, es lograr una aplicación que genere automáticamente trayectorias que puedan ser realizadas por un robot, permitiendo en este caso, la integración de un robot de estructura paralela y la navegación quirúrgica en una misma aplicación.
Actualmente, el proyecto tiene como base un exhaustivo estado del arte en temas de reconstrucción 3D a partir de imágenes médicas obtenidas de tomografías axiales computarizadas (TAC) y el desarrollo de herramientas computacionales para la navegación quirúrgica, e integración de herramientas hápticas y herramientas robotizadas aplicadas a la cirugía. Entre los avances conseguidos cabe mencionar la generación de reconstrucciones 3D de diferentes contornos, los cuales representan los tejidos de piel y hueso.
Además, se ha integrado a este desarrollo un joystick Phantom Omni como herramienta háptica, con la que se puede navegar y recorrer los sólidos generados a partir de las imágenes médicas. También son funcionales los algoritmos que permiten que un robot siga una trayectoria trazada por un cirujano sobre el rostro o cráneo de un paciente, evaluar sus resultados y editarlos.