Buscar
28 de Noviembre del 2024
Tecnología

Transmisor similar al cerebro trata de imitar la Inteligencia Artificial

Transmisor similar al cerebro trata de imitar la Inteligencia Artificial

Inspirándose en el cerebro humano, un equipo científico ha desarrollado un nuevo transistor sináptico capaz de 'pensar' a un nivel superior; el dispositivo puede procesar y almacenar información simultáneamente, igual que nuestro cerebro.

La descripción del transistor que trata de imitar la inteligencia humana y que funciona a temperatura ambiente se publica en la revista Nature, en un artículo en el que los investigadores demuestran que el dispositivo va más allá de las simples tareas de aprendizaje automático para categorizar datos, y es capaz de realizar un aprendizaje asociativo.

Aunque estudios anteriores han aprovechado estrategias similares para desarrollar dispositivos informáticos parecidos al cerebro, esos transistores no pueden funcionar fuera de temperaturas criogénicas. 

El nuevo modelo, en cambio, es estable a temperatura ambiente y además funciona a gran velocidad, consume muy poca energía y conserva la información almacenada incluso cuando se le retira la alimentación, "lo que lo hace ideal para aplicaciones del mundo real".

La investigación está codirigida por Mark C. Hersam, de la Universidad de Northwestern, y por el español Pablo Jarillo-Herrero, del Instituto Tecnológico de Massachusetts (MIT).

Los recientes avances en inteligencia artificial (IA) han motivado a los investigadores a desarrollar ordenadores que funcionen de forma más parecida al cerebro humano, recuerda un comunicado de Northwestern. 

Durante varias décadas, apunta Hersam, el paradigma de la electrónica ha sido construirlo todo con transistores -semiconductores que rectifican y amplifican impulsos eléctricos- y utilizar la misma arquitectura de silicio. 

"Se ha avanzado mucho simplemente introduciendo más y más transistores en los circuitos integrados. No se puede negar el éxito de esa estrategia, pero tiene el coste de un elevado consumo de energía, especialmente en la actual era de los grandes datos en la que la informática digital va camino de desbordar la red". 

Por eso, hay que replantearse "el hardware informático, especialmente para tareas de IA y aprendizaje automático".

Los sistemas informáticos digitales convencionales tienen unidades de procesamiento y almacenamiento separadas, lo que precisamente hace que las tareas intensivas en datos devoren grandes cantidades de energía.

En cambio en el cerebro, explica Hersam, la memoria y el procesamiento de la información están ubicados en el mismo lugar y totalmente integrados, lo que se traduce en una eficiencia energética de órdenes de magnitud superiores. "Nuestro transistor sináptico logra de forma similar la funcionalidad concurrente de memoria y procesamiento de la información para imitar más fielmente al cerebro".

Para lograrlo, el equipo exploró la física de los patrones de moiré, un tipo de diseño geométrico que surge cuando dos patrones se superponen en capas, y combinó dos tipos diferentes de materiales atómicamente finos: el grafeno bicapa y el nitruro de boro hexagonal.

Cuando se apilan materiales bidimensionales -como el grafeno-, surgen nuevas propiedades que no existen en una sola capa y cuando esas capas se retuercen para formar el efecto moiré es posible una sintonización sin precedentes de las propiedades electrónicas.

Así, al girar una capa con respecto a la otra, los investigadores lograron propiedades electrónicas diferentes en cada capa de grafeno, aunque solo estuvieran separadas por dimensiones a escala atómica. 

"Con la torsión como nuevo parámetro de diseño, el número de permutaciones es enorme", afirma Hersam. "El grafeno y el nitruro de boro hexagonal son muy similares estructuralmente, pero lo suficientemente diferentes como para obtener efectos moiré excepcionalmente potentes", añade.

Entrenamiento del transistor 

Para probar el transistor, el equipo lo entrenó para reconocer patrones similares, pero no idénticos.

En primer lugar, mostró al dispositivo el patrón 000 y a continuación pidió a la IA que identificara patrones similares, como 111 o 101. 

"Si lo entrenamos para detectar 000 y luego le damos 111 y 101, sabe que 111 es más parecido a 000 que 101", subraya Hersam, para quien reconocer esa similitud es una forma superior de cognición conocida como aprendizaje asociativo. EFE




Noticias Similares



Noticias Destacadas



Más de Meganoticias