IA, inteligencia artificial, machine learning
La inteligencia artificial (IA) juega un papel importante en muchos sistemas, desde texto predictivo hasta diagnósticos médicos.
Inspirados en el cerebro humano, muchos sistemas de IA se implementan en base a redes neuronales artificiales, donde los equivalentes eléctricos de las neuronas biológicas se interconectan, se entrenan con un conjunto de datos conocidos, como imágenes, y luego se utilizan para reconocer o clasificar nuevos puntos de datos.
En las redes neuronales tradicionales utilizadas para el reconocimiento de imágenes , la imagen del objeto de destino se forma primero en un sensor de imagen , como la cámara digital de un teléfono inteligente. Luego, el sensor de imagen convierte la luz en señales eléctricas y, en última instancia, en datos binarios , que luego pueden procesarse, analizarse, almacenarse y clasificarse utilizando chips de computadora.
Acelerar estas habilidades es clave para mejorar cualquier cantidad de aplicaciones, como el reconocimiento facial, la detección automática de texto en fotos o ayudar a los autos autónomos a reconocer obstáculos.
Si bien la tecnología actual de clasificación de imágenes para el consumidor en un chip digital puede realizar miles de millones de cálculos por segundo, lo que la hace lo suficientemente rápida para la mayoría de las aplicaciones, una clasificación de imágenes más sofisticada, como la identificación de objetos en movimiento, la identificación de objetos en 3D o la clasificación de células microscópicas en el cuerpo, están empujando los límites computacionales de incluso la tecnología más poderosa.
El límite de velocidad actual de estas tecnologías está establecido por el cronograma de pasos de cómputo basado en el reloj en un procesador de computadora, donde los cómputos ocurren uno tras otro en un cronograma lineal.
Para hacer frente a esta limitación, los ingenieros de Penn han creado el primer chip escalable que clasifica y reconoce imágenes casi instantáneamente eliminando los cuatro culpables principales que consumen mucho tiempo en el chip de computadora tradicional: la conversión de señales ópticas a eléctricas, la necesidad para convertir los datos de entrada a formato binario, un módulo de memoria grande y cálculos basados en reloj.
Lo lograron mediante el procesamiento directo de la luz recibida del objeto de interés utilizando una red neuronal profunda óptica implementada en un chip de 9,3 milímetros cuadrados.
El estudio, publicado en Nature , describe cómo las muchas neuronas ópticas del chip están interconectadas mediante cables ópticos o "guías de ondas" para formar una red profunda de muchas "capas de neuronas" que imitan la del cerebro humano. La información pasa a través de las capas de la red, y cada paso ayuda a clasificar la imagen de entrada en una de sus categorías aprendidas. En el estudio de los investigadores, las imágenes que clasificó el chip eran de caracteres parecidos a letras dibujados a mano.
Al igual que la red neuronal de nuestro cerebro, esta red profunda está diseñada de manera que permite un procesamiento rápido de la información. Los investigadores demostraron que su chip puede realizar una clasificación de imagen completa en medio nanosegundo, el tiempo que tardan los chips de computadoras digitales tradicionales en completar solo un paso de cálculo en su horario basado en reloj.
La capacidad del chip para procesar señales ópticas directamente se presta a otro beneficio. Este chip no necesita almacenar la información, lo que elimina la necesidad de una gran unidad de memoria. Y, al eliminar la unidad de memoria que almacena imágenes, también se está aumentando la privacidad de los datos. Con chips que leen datos de imágenes directamente, no hay necesidad de almacenar fotos y, por lo tanto, no se produce fuga de información.
Un chip que lea la información a la velocidad de la luz y proporcione un mayor grado de ciberseguridad, sin duda, tendría un impacto en muchos campos; esta es una de las razones por las que la investigación de esta tecnología ha aumentado en los últimos años.
El chip, con su diseño de red profunda, requiere entrenamiento para aprender y clasificar nuevos conjuntos de datos, de forma similar a como aprenden los humanos. Cuando se le presenta un conjunto de datos dado, la red profunda toma la información y la clasifica en categorías previamente aprendidas. Esta capacitación debe lograr un equilibrio que sea lo suficientemente específico para generar clasificaciones de imágenes precisas y lo suficientemente general para que sea útil cuando se presenten nuevos conjuntos de datos. Los ingenieros pueden "ampliar" la red profunda agregando más capas neuronales, lo que permite que el chip lea datos en imágenes más complejas con mayor resolución.
Y, si bien este nuevo chip mejorará la tecnología actual de detección de imágenes, se puede usar para innumerables aplicaciones en una variedad de tipos de datos.
Si bien la clasificación de imágenes es una de las primeras áreas de investigación de este chip, se podría usar junto con plataformas digitales, para acelerar diferentes tipos de cálculos.
Lo realmente interesante de esta tecnología es que puede hacer mucho más que clasificar imágenes: convertir muchos tipos de datos al dominio eléctrico: imágenes, audio, voz y muchos otros tipos de datos. Además, puede convertir diferentes tipos de datos al dominio óptico y procesarlos casi instantáneamente usando esta tecnología.
Por lo general, una película se reproduce entre 24 y 120 fotogramas por segundo. ¡Este chip podrá procesar casi 2 mil millones de fotogramas por segundo! Para los problemas que requieren cálculos a la velocidad de la luz, ahora ya existe una solución, pero muchas de las aplicaciones actuales pueden no ser descifrables en este momento.
Más información: Farshid Ashtiani et al, An on-chip photonic deep neural network for image classification, Nature (2022). DOI: 10.1038/s41586-022-04714-0
COMENTARIOS