Científicos japoneses usan IAs para leer la mente
¿Te imaginas una realidad en la que tus pensamientos puedan ser traducidos a imágenes en una pantalla? Gracias a cuatro científicos de la Universidad de Kioto, leer la mente pronto será posible. El pasado diciembre, Guohua Shen, Tomoyasu Horikawa, Kei Majima y Yukiyasu Kamitani publicaron los resultados de sus investigaciones recientes sobre el uso de la inteligencia artificial para decodificar pensamientos en la plataforma científica BioRxiv.
El aprendizaje automático ya se había utilizado previamente para estudiar imágenes del cerebro escaneadas mediante técnicas de neuroimagen (IRMs), pero tan solo se había podido trabajar con objetos simples como letras en blanco y negro o formas geométricas básicas.
Los científicos de Kioto han ido más allá y han desarrollado técnicas para «decodificar» pensamientos usando redes neuronales profundas (DNN). Esta nueva técnica permite a los científicos traducir imágenes jerárquicas más sofisticadas con múltiples capas de forma y color como han hecho, por ejemplo, con la foto de un ave o con la de un hombre con un sombrero. Kamitani explica para CNBC:
Hemos estado estudiando métodos para reconstruir o recrear una imagen que una persona ve en el momento tan solo con los datos de su actividad cerebral. Nuestro método previo era asumir que una imagen consistía en píxels o formas simples. Pero ahora sabemos que nuestro cerebro procesa la información visual jerárquicamente extrayendo niveles diferentes de características con complejidades diferentes. Estas redes neuronales o modelos de IA pueden ser usados en representación de la estructura jerárquica del cerebro humano.
Durante los 10 meses que duró la investigación, tres sujetos tuvieron que visualizar imágenes naturales (como fotos de aves o personas), formas geométricas artificiales y letras del abecedario. En algunos casos, la actividad cerebral se estudiaba mientras el sujeto estaba mirando una de las 25 imágenes. En otros, se analizaba cuando a esa persona se le pedía que recordara lo que había visto. Una vez la actividad cerebral era escaneada, se decodificaba la información para generar visualizaciones de cada pensamiento. El siguiente diagrama de flujo hecho por el equipo del Kamitani Lab, muestra el proceso de esta decodificación:
Las siguentes tablas muestran los resultados de la reconstrucción de la actividad mental de los sujetos que estaban viendo en ese momento imágenes naturales e imágenes de letras.
Los científicos japoneses lograron importantes avances con respecto a los recuerdos. Sin embargo, al ser estos más difusos que la experiencia visual de la que procenden, la IA todavía lo tiene difícil para conseguir imágenes definidas, como se puede apreciar:
Si la precisión de esta tecnología continúa mejorando, podría tener aplicaciones alucinantes. Por ejemplo: la IA podría elaborar imágenes o cuadros a partir de nuestra imaginación o de nuestros sueños. E incluso, en un futuro, con interfaces cerebro-computador, podríamos ser capaces de comunicarnos mediante el pensamiento.
La idea de leer mentes puede que suene a Black Mirror, pero los investigadores japoneses no están solos en su objetivo futurístico de conectar cerebros a ordenadores. Por ejemplo, Mary Lou Jepsen, ex-GoogleX, está desarrollando un casco que hará posible la telepatía en una década y el empresario Bryan Johnson está trabajando en implantes cerebrales para mejorar funciones neurológicas.
Me encanta este sitio, seguid así.
¡Gracias! 😀