Inicio AVNET Abacus Por qué la inteligencia artificial y el diseño embebido comparten el mismo...

Por qué la inteligencia artificial y el diseño embebido comparten el mismo ADN

2788
0

Acelerando la manipulación de tensor en hardware

En términos generales, los fabricantes de semiconductores están utilizando tres enfoques en la aceleración del modelo de ML:

  • Construcción de arquitecturas convencionales, pero masivamente paralelas
  • Desarrollo de nuevas arquitecturas de procesador con tensor optimizado
  • Incorporación de aceleradores de hardware con arquitecturas legacy

Cada enfoque tiene sus ventajas. El que mejor trabaja para ML en el borde dependerá de los recursos totales (memoria, alimentación, etc.) demandados por la solución. La elección también depende de la definición del dispositivo en el borde. Puede ser una solución embebida con recursos limitados, como un sensor, o de igual manera un módulo informático.

Una arquitectura masivamente paralela añade múltiples instancias de las funciones requeridas para una tarea. Multiplicar y Acumular (Multiply & AccumulateMAC) es una de dichas funciones empleadas en el procesamiento de señales. Las GPU suelen ser masivamente paralelas y han asegurado con éxito su lugar en el mercado, gracias al alto rendimiento que ofrecen. De la misma manera, las matrices de puertas programables en campo (FPGA) son otra elección popular, dado que su tejido lógico soporta el paralelismo. A pesar de que están diseñados para matemáticas, los procesadores de señales digitales (DSP) aún no han sido reconocidos como una buena opción para inteligencia artificial y ML.

Los procesadores multinúcleo homogéneos son otro ejemplo de cómo el paralelismo contribuye a mejorar el rendimiento. Un procesador con dos, cuatro u ocho núcleos aporta mayores prestaciones que un procesador de un núcleo. La arquitectura RISC-V está siendo cada vez más la elegida en diseños multinúcleo para inteligencia artificial y ML, ya que también es ampliable. Esta capacidad de extensión permite crear instancias de instrucciones personalizadas como bloques de aceleración de hardware. Ya existen ejemplos de cómo se utiliza RISC-V de esta manera para acelerar la inteligencia artificial y el ML.

También están apareciendo en el mercado nuevas arquitecturas diseñadas para procesamiento de tensor, desde fabricantes de semiconductores de pequeño y gran tamaño. La compensación aquí podría ser la facilidad de programación de una nueva arquitectura de conjunto de instrucciones frente a las ganancias de rendimiento.

Aceleración de hardware en MCU para aplicaciones de ML en el borde

Hay muchas formas en que las empresas de semiconductores, tanto consolidadas como emergentes, están afrontando la aceleración de la IA. Cada una de ellas esperará captar una cuota del mercado a medida que aumente la demanda. Al considerar el ML en el borde como un desafío de diseño de sistemas puramente embebidos, muchas de esas soluciones pueden tener una adopción limitada.

La razón es sencilla. Los sistemas embebidos todavía están limitados. Cualquier ingeniero sabe que el objetivo no es aumentar el rendimiento, sino que siempre es disponer de la cantidad justa de rendimiento. Para una aplicación de ML en el borde profundamente integrada, resulta probable que la preferencia sea una MCU familiar con aceleración de hardware.

La naturaleza de la ejecución de ML supone que la aceleración del hardware deberá estar profundamente integrada en la arquitectura de la MCU. Los principales fabricantes de MCU están desarrollando activamente nuevas soluciones que integran la aceleración de ML en el borde. Algunos de los detalles de esos desarrollos ya se han publicado, pero aún faltan algunos meses para obtener muestras “reales”.

Mientras tanto, esos mismos fabricantes continúan ofreciendo soporte de software para entrenar los modelos y optimizar el tamaño de los propios modelos para ejecutarse en sus dispositivos MCU existentes.

Respondiendo a la demanda de ML en el borde

A su vez, el ML en el borde se puede interpretar de varias maneras. Algunas aplicaciones podrán utilizar procesadores multinúcleo de 64 bits de alto rendimiento. Otras tendrán un presupuesto más modesto.

El IoT masivo verá cómo miles de millones de dispositivos inteligentes se encuentran conectados en línea en los próximos años. Muchos de esos dispositivos incorporarán ML en su interior. Podemos esperar que los fabricantes de semiconductores se anticipen a este cambio hacia la inteligencia artificial y ya se estén preparando para responder al aumento de la demanda.

Si está interesado en obtener más información de las ventajas que aporta la inteligencia artificial, por favor, visite el apartado “Pregunte al Experto” de la página web de AVNET Abacus. O si prefiere abordar los requisitos de un proyecto específico con uno de nuestros ingenieros de aplicaciones de campo (FAE) en su propio idioma, póngase en contacto con nosotros.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.