Hardware de IA adaptado a la visión artificial


¡Las redes neuronales, la IA, el ML y la computación neuromórfica son tecnologías que en realidad hacen que las máquinas se comporten más como humanos! De manera similar, la visión por computadora se enfoca en imitar el complejo sistema visual humano y usarlo en aplicaciones

La visión artificial es un tipo de inteligencia artificial (IA). El objetivo es lograr que las computadoras visualicen y entiendan imágenes o videos de la misma manera que lo hacen los humanos. El campo ha crecido exponencialmente durante la última década, particularmente con el nuevo hardware y los algoritmos que han entrado en escena. Además, este tipo de cálculo se ha vuelto más rápido y accesible a medida que también ha aumentado la cantidad de datos generados. Gracias a los modelos de entrenamiento mejorados, el aprendizaje profundo y un mejor hardware, ahora podemos identificar objetos con mayor precisión.

Visión artificial en el trabajoLa visión por computadora funciona al reconocer patrones en imágenes y videos. Le das a la computadora una imagen de un determinado objeto y luego dejas que la computadora lo analice usando algoritmos: los bordes, los colores, las sombras y las formas. Esencialmente estamos entrenando una computadora para entender e interpretar el mundo.

Índice del contenido

Visión artificial: antes y ahora

En su libro blanco titulado Todo lo que siempre quiso saber sobre la visión artificial, Ilija Mihajlovic, un desarrollador de iOS apasionado por el aprendizaje automático (ML), explica cómo el ML y el aprendizaje profundo han simplificado la visión artificial. Antes de que el aprendizaje profundo entrara en juego, la visión por computadora no tenía tanta libertad como hoy en día, principalmente porque se requería mucha codificación manual, como por ejemplo: B. crear una base de datos, anotar imágenes, capturar nuevas imágenes, etc.

Drone Skygrid, un sistema de gestión del espacio aéreo basado en IA y blockchain, utiliza la visión por computadora para la detección de objetos casi en tiempo real a través de la transmisión de video en vivo de un dron.
Drone Skygrid, un sistema de gestión del espacio aéreo basado en IA y blockchain, utiliza la visión por computadora para la detección de objetos casi en tiempo real a través de la transmisión de video en vivo de un dron (Crédito: Skygrid)

“Con el aprendizaje automático, los desarrolladores ya no tenían que codificar manualmente cada regla en sus aplicaciones de procesamiento de imágenes. En cambio, programan funciones o aplicaciones más pequeñas que podrían reconocer ciertos patrones en las imágenes”, escribe Mihajlovic. Hoy usamos el aprendizaje profundo para la visión por computadora y todo el trabajo lo realizan las redes neuronales. Si alimentamos las redes neuronales con muchas, muchas imágenes etiquetadas de un objeto dado, pueden ver patrones en él.

Hardware de visión artificial

La adquisición de datos es un aspecto importante de las aplicaciones de visión por computadora, y las plataformas de hardware juegan un papel importante aquí. Los principales componentes necesarios para las aplicaciones de visión artificial son cámaras y sensores de imagen para capturar imágenes, E/S, una interfaz de comunicación y una unidad de procesamiento. Los sensores de imagen presentes en las cámaras se caracterizan por su resolución (número de píxeles), velocidad (fotogramas por segundo) y número de colores.

Dependiendo de la naturaleza de la aplicación de visión por computadora, la unidad de procesamiento puede variar de CPU a placas integradas. Aquí están algunos ejemplos:

  • CPU
  • GPU
  • Sistemas heterogéneos (CPUs + GPUs + otros)
  • FPGA
  • ASIC
  • tableros de microcontroladores
  • Sistemas embebidos (cámaras inteligentes)

caja 2Entonces, ¿dónde están las placas de desarrollo?

Los sistemas tradicionales de visión por computadora usaban una cámara conectada a una computadora de propósito general que solía ejecutar la aplicación. Una cámara inteligente, por otro lado, puede integrar todo el sistema, desde la adquisición de imágenes hasta el procesamiento hasta la aplicación final. Hoy en día, la distinción entre cámaras inteligentes y placas de desarrollo se está desdibujando, ya que muchas placas de desarrollo tienen cámaras integradas y están diseñadas para aplicaciones de visión artificial.

Áreas que impulsan la visión artificial (Fuente: IFA)
Áreas que impulsan la visión artificial (Fuente: IFA)

A medida que se implementan más y más aplicaciones en el perímetro, tiene más sentido implementar dichos dispositivos en placas de desarrollo. Estas son algunas características clave que debe tener en cuenta al elegir una placa de desarrollo para su aplicación de visión artificial:

  • Alta velocidad de procesamiento
  • capacidad de procesamiento de borde
  • Acceso rápido al almacenamiento
  • energía eficiente
  • portátil
  • Barato

Si bien existen plataformas integradas específicamente para IA como NVIDIA Jetson y Raspberry Pi Compute, aceleradores de IA como Google TPU, SOM/SBC con sensores de imagen de alta calidad, nos centraremos en algunas placas diseñadas para visión por computadora y compararemos algunas de sus características.

compresion de algo de visión por computadora

Tendencias actuales en visión artificial

Visión por computadora en el borde

Para implementar con éxito la visión por computadora en el borde, el diseño de la red neuronal debe integrarse en las plataformas integradas. Además, se deben tomar decisiones de diseño difíciles en términos de consumo de energía, costo, precisión y flexibilidad. En general, la computación perimetral es fundamental para los procesos de visión por computadora por razones de ancho de banda, velocidad y seguridad. Aún así, los piratas informáticos podrían explotar las vulnerabilidades emergentes en la inteligencia artificial. Los diseñadores también tienen que tener esto en cuenta.

Kit de visión AI de Blaser (Fuente: Blaser AG)
Kit de visión AI de Blaser (Fuente: Blaser AG)

Sin embargo, existen algunos desafíos cuando se trata de Vision AI on Edge, p. Por ejemplo, incluir todos los puntos finales de borde puede dar lugar a arquitecturas de dispositivos complejas. Esto complica la implementación de la gestión de dispositivos y la informática perimetral. Edge Computing se diferencia de la arquitectura de la nube en que se distribuye en lugar de centrarse en una sola nube. Para las grandes empresas, se puede suponer que dicha infraestructura está asociada con mayores costos de mantenimiento que una orientada a la nube.

Visión integrada e IoT Visión integrada

La visión integrada es cuando combinamos cámaras con la unidad de procesamiento, como las cámaras inteligentes mencionadas anteriormente. Muchas empresas, como Lattice Semiconductor y Blaser AG, ofrecen soluciones de visión integradas. Por ejemplo, el AI Vision Solution Kit de Basler viene con conectividad en la nube e incluye un módulo de cámara MIPI de dardos, una placa de desarrollo NVIDIA Jetson Nano, una lente y un cable. Permite a los desarrolladores probar aplicaciones IoT basadas en IA en un sistema de procesamiento de imágenes optimizado y acceder a servicios en la nube.

Pero estamos a punto de entrar en la siguiente etapa del Internet de las Cosas. Hasta ahora, la atención se ha centrado en conectar dispositivos, recopilar datos y crear plataformas de big data. Ahora nuestro enfoque cambiará a hacer que las "cosas" sean más inteligentes utilizando tecnologías como la visión por computadora y el aprendizaje profundo en el borde. De esa manera, las cosas podrán tomar decisiones informadas sobre su entorno. Esta es la visión integrada de IoT.

Unidades de procesamiento de imágenes (VPU)

Una VPU es un tipo específico de acelerador de IA diseñado para tareas de visión artificial. Se presta bien al procesamiento paralelo. Un acelerador Edge AI muy popular es el Intel Neural Compute Stick 2, que está construido sobre la VPU Myriad X. Ofrece una interfaz USB fácil de usar.

Los modelos de red convolucional (CNN) previamente entrenados se utilizan en los chips VPU para realizar tareas de inferencia. Los estudios han demostrado que las VPU son superiores a las CPU y las GPU en términos de rendimiento y consumo de energía. Además, una combinación de múltiples chips VPU puede incluso reducir la potencia de diseño térmico (TDP) hasta ocho veces.

Comparación de rendimiento de rendimiento por vatio usando las configuraciones de CPU, GPU y múltiples VPU
Comparación del rendimiento de rendimiento por vatio usando las configuraciones de CPU, GPU y múltiples VPU (Crédito de la imagen: https://arxiv.org)

Software 2.0 y visión artificial

En el camino hacia la Industria 4.0, el desarrollo de software también avanza en la dirección del Software 2.0. El software 1.0, la pila de tecnología que incluye lenguajes como C/C++, Python, etc., es con lo que estamos familiarizados. Necesita un codificador. Por otro lado, si introducimos suficientes datos en una red neuronal que sabe codificar, el software 2.0 literalmente se escribirá solo.

Esta es otra razón por la que el mercado de la visión artificial seguirá creciendo exponencialmente. Impulsará el software 2.0. Andrej Karpathy, Director de IA en Tesla, es un gran partidario del Software 2.0. Señala que con el software 2.0, la biblioteca de visión artificial (por ejemplo, OpenCV) podría incluso ajustarse automáticamente a nuestros datos específicos.


La autora, Aaryaa Padhyegurjar, es una entusiasta de la Industria 4.0 en EFY con un gran interés en la innovación y la investigación.



Si quieres conocer otros artículos parecidos a Hardware de IA adaptado a la visión artificial puedes visitar la categoría Electrónica.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir