Opinion · kⒶosTICa

Un algoritmo de Netflix, desarrollado en 2009, se reutiliza para la lucha contra el cáncer

Se ha escrito mucho acerca del algoritmo desarrollado por Netflix para predecir nuestros gustos y realizar recomendaciones de series y películas en función de lo que vemos en su plataforma. Ahora, la comunidad científica le han querido dar la vuelta y reutilizar ese mismo algoritmo para analizar imágenes biológicas. ¿El objetivo? Detecta tumores cancerígenos y mejora el análisis de tejidos.

Publicada en The Optical Society, la iniciativa analiza las espectroscopias Raman, esto es, una técnica analítica no invasiva con la que se determina la composición química de muestras muy complejas. Gracias al algoritmo, que se desarrolló hace ya una década en el marco de una competición informática, estas imágenes se pueden procesar en cuestión de segundos en lugar de minutos, con la ventaja añadida de que se requieren menos datos y de que el proceso de obtención de imágenes espectroscópicas es mucho más rápido.

El proceso se automatiza extraordinariamente, indica el científico Hilton de Aguiar de la École Normale Supérieure en Francia, que señala que buena parte del procesamiento que antes debía realizarse de manera manual se ha eliminado. No sólo eso, sino que ahora es posible analizar tejidos biológicos que, debido a su complejidad química, antes se escapaban de estas espectroscopias.

Otra de las novedades que se ha introducido en la técnica es el uso de cámaras más rápidas de lo que habitualmente se utilizan, incorporándoles un dispositivo de microespejo (llamado modulador de luz espacial), gracias a lo cual se comprime el tamaño de las imágenes a medida que se obtienen. El resultado es que al tiempo que se aumenta la velocidad se obtiene una manera más directa de obtener información útil de las imágenes espectroscópicas.

Las primeras experiencias, aplicadas a imágenes espectroscópicas de tejido cerebral y células individuales –de una elevada complejidad química-, demostraron que, además de adquirir imágenes a velocidades de unas pocas decenas de segundos –optimizándose podría hacerse en menos de un segundo-, se logró un alto nivel de compresión de datos, reduciendo los datos hasta 64 veces. Una compresión, además, que rompe la barrera anterior que provocaba, pues cuanto mayor era, menor era la fidelidad de la reconstrucción. Ahora, el resto de porciones de datos que no se adquieren respecto a las técnicas convencionales se completan gracias al algoritmo.

Esta técnica experimental aún se encuentra en desarrollo y su enfoque se ampliará a una amplia gama de tipos de tejidos, pero todo hace indicar que, según asegura la publicación científica, allana el camino para la obtención rápida de imágenes clínicas de manera más rápida, fiable y económica.