La
Agencia de Proyectos de Investigación Avanzada de Defensa, DARPA, está
desarrollando un nuevo programa de procesamiento de señales y de
análisis de datos complejos y ha solicitado información a empresas y
universidades sobre tecnologías y aplicaciones de procesamiento cortical
que emulen las capacidades del cerebro humano.
Los investigadores de la
Darpa señalan que el proyecto dependerá principalmente de modelos
neuronales basados en el conocimiento del funcionamiento del neocórtex
cerebral.
Según
ha explicado la Darpa en un comunicado los sistemas actuales de
procesamiento de señales y de análisis de datos presentan limitaciones
para mejorar sus resultados: los sistemas de análisis de señales e
imágenes más modernos tienen problemas para captar las estructuras
espaciales y temporales complejas existentes en datos ambiguos y con un
gran ruido de fondo; los ordenadores actuales, que utilizan gran
cantidad de medios de cálculo, sólo son capaces de extraer estructuras
espaciales limitadas de relativamente pequeñas cantidades de datos; y
cuando se detectan anomalías las máquinas actuales tienen que reconocer
todos los aspectos de las señales normales para determinar aquellas
partes que no se corresponden con ellas.
Por
ello, busca nuevos enfoques con gran capacidad y bajo consumo que
superen los enfoques actuales, que incluyen aprendizaje automático,
técnicas bayesianas y estructuras de conocimiento gráficas, ya que
proporcionan solamente soluciones parciales y no pueden ampliarse de
forma eficiente a conjuntos de datos más grandes y más complejos. Y
aunque utilizan gran cantidad de medios informáticos, su capacidad de
procesamiento en paralelo es limitada, exigen programas aritméticos de
elevada precisión y, en la mayoría de los casos, no procesan
adecuadamente los datos temporales.
El
nuevo enfoque de DARPA se basa en el funcionamiento del neocortéx del
cerebro de los mamíferos, que capta de forma eficiente las estructuras
temporales y espaciales y resuelve normalmente problemas de
reconocimiento de extraordinaria dificultad en tiempo real. Y, aunque no
se ha logrado una compresión completa del funcionamiento del córtex, se
están identificando algunos algoritmos básicos, que se están integrando
en máquinas de aprendizaje automático y en técnicas de redes neurales.
Los
algoritmos inspirados en modelos neurales, en especial, los del
neocórtex, pueden reconocer modelos espaciales y temporales complejos y
pueden adaptarse a los cambios del entorno, por lo que representan un
enfoque prometedor para filtrar y procesar grandes flujos de datos y
tienen la posibilidad de proporcionar nuevos niveles de rendimiento y
capacidades para una amplia gama de problemas de reconocimiento de
datos.
Por
ello, la DARPA ha solicitado a empresas y universidades nuevos
conceptos y tecnologías para desarrollar un ´procesador cortical´ basado
en la ´memoria temporal jerárquica´ (Hierarchical Temporal Memory,
HTM), que representa una familia de modelos de procesamiento cortical
en lugar de un algoritmo específico. Y aunque estos algoritmos
específicos tienen características interesantes para el proyecto, la
Darpa señala que hay unas características clave de la HTM que serían
necesarias para desarrollar un procesador cortical, y que incluyen el
reconocimiento temporal y espacial, el uso de representaciones
distribuidas limitadas (sparse distribuited representations, SDR) y una
estructura "modular" en columna. El procesamiento tiene lugar en un
modelo jerárquico similar al desarrollado en el córtex, que emplea la
evolución espacial y temporal de la representación de los datos para
formar relaciones.
Las
SDR son un componente clave de la HTM porque asignan un significado a
cada bit de información y expresan los datos mediante grados de
semejanza debido al solape de sus características.
El
modelo de ordenador cortical debería también ser capaz de tolerar
lagunas en los datos, trabajar principalmente en paralelo, ser
extremadamente eficiente en consumo de energía y ampliarse sin
problemas; asimismo debería tener unos requisitos mínimos de precisión
artimética. Para este proyecto, los investigadores de Darpa están
solicitando información en cuatro áreas generales: algoritmos, hardware,
sistemas y aplicaciones.
Los
algoritmos deben hacer cálculos lógicos probabilísticos y utilizar
técnicas de aprendizaje automático que mejoren las capacidades del
sistema a lo largo del tiempo, capaccidades críticas para el éxito de
analizar datos para muchas aplicaciones. El hardware, simple y
de bajo consumo para funcionar en sistemas de bajo consumo, deberá
permitir implementar eficientemente algoritmos probabilísticos que
funcionen fundamentalmente en paralelo, inspirados en modelos
corticales. Los sistemas onstruidos deberán implementar aplicaciones
complejas y críticas. Y las aplicaciones que trata de desarrollar la
Darpa deben ser lo suficientemente genéricas para que se puedan utilizar
en una gran gama de sistemas, como sistemas de visión e imagen, fusión
de datos de sensores, control de robots y otras aplicaciones complejas
de procesamiento de señales.
Tomado de http://www.ateneadigital.es
No hay comentarios:
Publicar un comentario