Red de información TI para profesionales ITMedia NetWork

jueves, 19 de abril de 2018
Actualizado a las 11:54


Búsqueda avanzada

Publicidad

Publicidad

Últimas noticias

Redes neuronales: Fujitsu desarrolla una tecnología de aprendizaje profundo que hará viables nuevas aplicaciones de IA

29 Agosto 2017por Redacción

Fujitsu Laboratories ha logrado un gran avance en aprendizaje profundo. Como parte de su iniciativa Zinrai, ha desarrollado un eficiente mecanismo de distribución de memoria para redes neuronales profundas utilizadas en aplicaciones de Inteligencia Artificial como las de medicina y salud, procesamiento de lenguaje natural, análisis de imágenes de satélite y las que requieren modelos de deep learning a gran escala .

Fujitsu Laboratories of Europa ha logrado aplicar el paralelismo de modelos para distribuir los requerimientos de memoria en redes neuronales profundas de una forma transparente, automatizada y fácilmente gestionada

Fujitsu Laboratories of Europa ha logrado aplicar el paralelismo de modelos para distribuir los requerimientos de memoria en redes neuronales profundas de una forma transparente, automatizada y fácilmente gestionada

El uso de redes neuronales porfundas (DNNs o Deep Neural Networks), esenciales para numerosas aplicaciones de Inteligencia Artificial, requiere masivos recursos computacionales, imponiendo severas demandas de infraestructuras de computación.

Ante la necesidad de redes neuronales más amplias y profundas para hacer frente a los retos de la IA, hemos comprobado que distribuyendo los requerimientos de memoria DNN con nuestra tecnología, es posible ampliar el tamaño de las redes neuronales y su despliegue en múltiples máquinas, lo que permite el desarrollo de modelos DNNs más precisos y a gran escala

Dr. Tsuneo Nakata

Para solventar esta necesidad, la solución desarrollada por Fujitsu Laboratories of Europa aplica el paralelismo de modelos para distribuir los requerimientos de memoria en DNNs de una forma transparente, automatizada y fácilmente gestionada. Como resultado, la capacidad de las infraestructuras actuales para hacer frente a las aplicaciones de IA de gran escala se mejora considerablemente sin necesidad de nuevas inversiones.

El Dr. Tsuneo Nakata, CEO de Fujitsu Laboratories of Europe, señala que "en los últimos años hemos visto un aumento masivo de avances tecnológicos que utilizan aceleradores de hardware para soportar la enorme escala de cálculos necesarios para construir Deep Neural Networks (DNNs) destinadas a aplicaciones de IA, aunque el aumento continuo en los costos computacionales de las DNNs es un desafío importante, particularmente cuando el tamaño del modelo de DNNs aumenta hasta el punto de superar la capacidad de memoria del acelerador”.

“Ante esa necesidad de redes neuronales más amplias y profundas, junto a una más detallada clasificación de las categorías, para hacer frente a los retos de la IA, hemos resuelto que distribuyendo los requerimientos de memoria DNN con nuestra tecnología, es posible ampliar el tamaño de las redes neuronales y su despliegue en múltiples máquinas, lo que permite el desarrollo de modelos DNNs más precisos y a gran escala”.

En concreto, la solución realiza un innovador proceso de distribución de la memoria, transformando las capas de redes neuronales diseñadas arbitrariamente en redes equivalentes, en las que algunas o todas sus capas son reemplazadas por un número de subcapas más pequeñas.

La solución despliega un nuevo modelo de mecanismo basado en el paralelismo que mejora y automatiza la distribución de la memoria de una Red Neuronal Profunda, logrando en ensayos iniciales un 90% de eficiencia

Estas subcapas son funcionalmente equivalentes a las originales aunque, desde el punto de vista de la computación, son mucho más eficientes para ejecutar. Es importante destacar que dado que las capas originales y nuevas provienen del mismo perfil, el proceso de formación del DNN ahora transformado y distribuido converge con la DNN original sin coste adicional.

Fujitsu Laboratories of Europa ha evaluado exhaustivamente la nueva tecnología, obteniendo más del 90% de eficiencia en la distribución de la memoria al transformar las capas completamente conectadas de AlexNet en varias NVIDIA GPUs; y ya ha aplicado el nuevo mecanismo a Caffe, el marco de referencia open source de aprendizaje profundo ampliamente utilizado por las comunidades de I+D de todo el mundo.

Al tratarse de una tecnología independiente de hardware, puede explotar la potencia computacional de unidades de procesamiento convencionales, así como los aceleradores de hardware como NVIDIA GPUs, Intel Xeon Phi, FPGAs, ASICs y procesadores diseñados para deep learning

Además, como se trata de una tecnología independiente de hardware, puede explotar la potencia computacional de unidades de procesamiento convencionales, así como los aceleradores de hardware actuales y emergentes, incluyendo, por ejemplo, NVIDIA GPUs, Intel Xeon Phi, FPGAs, ASICs u otros procesadores específicamente diseñados para deep learning.

Entre los ejemplos de aplicaciones que pueden sacar partido de esta solución están las de medicina y salud, procesamiento de lenguaje natural, análisis y clasificación de imágenes de satélite y, en general, ámbitos en los que los modelos de aprendizaje profundo a gran escala son requeridos para modelar y aprender la gran complejidad del lenguaje humano, datos basados en gráficos de gran escala incluyendo dispositivos IoT, transacciones financieras, servicios de redes sociales, etc.

Fujitsu Laboratories of Europe es el centro de excelencia para la investigación avanzada de Fujitsu que trabaja en deep y machine learning, como parte de las soluciones y servicios digitales que se están desarrollando bajo la iniciativa de la compañía japonesa, centrada en las personas y denominada Zinrai.

Entra sus actividades están la colaboración y co-creacion con sus clientes y e instituciones de investigación de la región de EMEIA, entre las que están el Hospital Clínico San Carlos de Madrid con la solución HIKARI AI, la Universidad de Sevilla con el análisis de datos para aplicaciones turísticas y el Centro de Innovación 5G en el Reino Unido. www.fujitsu.com/fts/about y en www.fujitsu.com/fts/about

ShareThis

Publicidad

Publicidad

Publicidad

Reflexiones

Danny Allan, vicepresidente de Estrategia de Producto en Veeam Software

Continuidad de negocio, agilidad y visibilidad, las tres etapas de la transformación digital

El vicepresidente de Veeam, Danny Allan, analiza la trascendencia de la transformación digital, que lejos de ser “una nueva evolución en las prácticas de negocio, ha demostrado ser una respuesta real a la necesidad servicios relevantes que aporten valor, comunicación y colaboración continua”, y nos recomienda realizarla planificando cuidadosamente las etapas de continuidad de negocio, agilidad en los servicios y visibilidad

Publicidad

Proyectos de Éxito

La Agencia Tributaria utiliza IBM Watson para ayudar a las empresas en la gestión del IVA

La Agencia Tributaria española ha realizado un proyecto pionero que aplica la tecnología congnitiva de IBM para ayudar a los contribuyentes en la gestión del IVA en España. Desde el julio, las grandes empresas pueden apoyarse en la Inteligencia Artificial de IBM para cumplir con el Suministro Inmediato de Información (SII) del IVA, lo que reduce el tiempo de resolución de las dudas y mejora la productividad y eficacia, tanto de las empresas usuarias como de la agencia

Strategic Partner info

Strategic Partner forma parte de la red de información TI para profesionales de IDG Communications.


Sitios especializados de ITMedia NetWork: techWEEK, IT CIO.es, IT PYMES.es, IT SEGURIDAD.es, NUEVAempresa.com.

ITMedia NetWork. © 2006 - 2018 Information Technology & Media S.A. (CIF A-84950211). Todos los derechos reservados.

Envío de artículos por email de Strategic Partner

Por favor, introduzca la siguiente información











Cerrar

Envío de artículos por email de Strategic Partner

Procesando envíos...

Envío de artículos por email de Strategic Partner

Email enviado. Cerrar

Envío de artículos por email de Strategic Partner

Error en el envio. Pulse aqui para cerrar.Cerrar