Desarrollan neuronas artificiales que imitan habilidades cerebrales complejas

Desarrollan neuronas artificiales que imitan habilidades cerebrales complejas

Juan Scaliter

El avance ha sido posible gracias a un equipo de la Universidad de Oxford e IBM quienes han creado neuronas artificiales capaces de procesar señales luminosas y eléctricas dentro de una red neuronal que alimentará las ciencias computacionales de las inteligencias artificiales de la próxima generación.

Durante décadas, los científicos han estado investigando cómo recrear las capacidades computacionales versátiles de las neuronas biológicas para desarrollar sistemas de aprendizaje automático más rápidos y con mayor eficiencia energética. Un enfoque prometedor implica el uso de memristores: componentes electrónicos capaces de almacenar un valor modificando su conducción y luego utilizando ese valor para el procesamiento en memoria. Básicamente así es como funciona el cerebro: abriendo y cerrando puertas que conectan unas neuronas con otras. 

Sin embargo, un desafío clave para reproducir los procesos complejos de las neuronas biológicas utilizando estos memristores ha sido la dificultad de integrar las señales neuronales, las de “apertura y cierre”. Estos mecanismos biológicos son los que sostienen nuestra capacidad cognitiva para aprender tareas complejas, utilizando recompensas y errores.

Pero ahora, un equipo de científicos de la Universidad de Oxford, IBM Research Europe y la Universidad de Texas han conseguido creado neuronas artificiales atómicamente delgadas capaces de procesar señales luminosas y eléctricas para procesos computacionales. El material permite la existencia simultánea de rutas separadas de alimentación y retroalimentación dentro de una red neuronal, lo que aumenta la capacidad de resolver problemas complejos.

Los resultados, publicados en Nature Nanotechnology, demuestran que los autores ampliaron la funcionalidad de los memristores electrónicos haciéndolos sensibles tanto a señales ópticas como eléctricas. Esto permitió la existencia simultánea de caminos de retroalimentación y alimentación separados dentro de la red. El avance permite crear programas de aprendizaje computacional con el potencial de resolver problemas complejos.

Para conseguir esto, el equipo, liderado por Ghazi Sarwat Syed utilizó materiales 2D, es decir, aquellos que se componen de solo unas pocas capas de átomos. En este caso el equipo de Syed utilizó tres materiales 2D (grafeno, disulfuro de molibdeno y disulfuro de tungsteno) para crear un dispositivo que muestra un cambio en su conductancia (básicamente lo opuesto a la resistencia) según la potencia y la duración de la luz/electricidad que se proyecta sobre él.

En los móviles en 2 años

A diferencia de los dispositivos de almacenamiento digital, estos dispositivos son analógicos y funcionan de manera similar a las sinapsis de las neuronas de nuestro cerebro. La función analógica permite realizar cálculos, en los que una secuencia de señales eléctricas u ópticas enviadas al dispositivo produce cambios graduales en la cantidad de carga electrónica almacenada. Este proceso forma la base de los cálculos neuronales.

“Este es un desarrollo muy emocionante – concluye Syed –. Nuestro estudio ha introducido un concepto novedoso que supera la operación de avance fijo que se utiliza típicamente en las redes neuronales artificiales actuales. Además las aplicaciones potenciales en el hardware de IA. Esto también nos permite emular y comprender mejor el cerebro. Estos nuevos conocimientos son importantes para la innovación futura, pero esta no es la tecnología que deberíamos esperar que esté en nuestros teléfonos móviles, al menos no en los próximos dos años”.

¡Sé el primero en comentar!