¡Las redes neuronales, la IA, el ML y la computación neuromórfica son tecnologías que en realidad hacen que las máquinas se comporten más como humanos! De manera similar, la visión por computadora se enfoca en imitar el complejo sistema visual humano y usarlo en aplicaciones
La visión artificial es un tipo de inteligencia artificial (IA). El objetivo es lograr que las computadoras visualicen y entiendan imágenes o videos de la misma manera que lo hacen los humanos. El campo ha crecido exponencialmente durante la última década, particularmente con el nuevo hardware y los algoritmos que han entrado en escena. Además, este tipo de cálculo se ha vuelto más rápido y accesible a medida que también ha aumentado la cantidad de datos generados. Gracias a los modelos de entrenamiento mejorados, el aprendizaje profundo y un mejor hardware, ahora podemos identificar objetos con mayor precisión.
La visión por computadora funciona al reconocer patrones en imágenes y videos. Le das a la computadora una imagen de un determinado objeto y luego dejas que la computadora lo analice usando algoritmos: los bordes, los colores, las sombras y las formas. Esencialmente estamos entrenando una computadora para entender e interpretar el mundo.
En su libro blanco titulado Todo lo que siempre quiso saber sobre la visión artificial, Ilija Mihajlovic, un desarrollador de iOS apasionado por el aprendizaje automático (ML), explica cómo el ML y el aprendizaje profundo han simplificado la visión artificial. Antes de que el aprendizaje profundo entrara en juego, la visión por computadora no tenía tanta libertad como hoy en día, principalmente porque se requería mucha codificación manual, como por ejemplo: B. crear una base de datos, anotar imágenes, capturar nuevas imágenes, etc.
“Con el aprendizaje automático, los desarrolladores ya no tenían que codificar manualmente cada regla en sus aplicaciones de procesamiento de imágenes. En cambio, programan funciones o aplicaciones más pequeñas que podrían reconocer ciertos patrones en las imágenes”, escribe Mihajlovic. Hoy usamos el aprendizaje profundo para la visión por computadora y todo el trabajo lo realizan las redes neuronales. Si alimentamos las redes neuronales con muchas, muchas imágenes etiquetadas de un objeto dado, pueden ver patrones en él.
Hardware de visión artificial
La adquisición de datos es un aspecto importante de las aplicaciones de visión por computadora, y las plataformas de hardware juegan un papel importante aquí. Los principales componentes necesarios para las aplicaciones de visión artificial son cámaras y sensores de imagen para capturar imágenes, E/S, una interfaz de comunicación y una unidad de procesamiento. Los sensores de imagen presentes en las cámaras se caracterizan por su resolución (número de píxeles), velocidad (fotogramas por segundo) y número de colores.
Dependiendo de la naturaleza de la aplicación de visión por computadora, la unidad de procesamiento puede variar de CPU a placas integradas. Aquí están algunos ejemplos:
CPU
GPU
Sistemas heterogéneos (CPUs + GPUs + otros)
FPGA
ASIC
tableros de microcontroladores
Sistemas embebidos (cámaras inteligentes)
Entonces, ¿dónde están las placas de desarrollo?
Los sistemas tradicionales de visión por computadora usaban una cámara conectada a una computadora de propósito general que solía ejecutar la aplicación. Una cámara inteligente, por otro lado, puede integrar todo el sistema, desde la adquisición de imágenes hasta el procesamiento hasta la aplicación final. Hoy en día, la distinción entre cámaras inteligentes y placas de desarrollo se está desdibujando, ya que muchas placas de desarrollo tienen cámaras integradas y están diseñadas para aplicaciones de visión artificial.
A medida que se implementan más y más aplicaciones en el perímetro, tiene más sentido implementar dichos dispositivos en placas de desarrollo. Estas son algunas características clave que debe tener en cuenta al elegir una placa de desarrollo para su aplicación de visión artificial:
Alta velocidad de procesamiento
capacidad de procesamiento de borde
Acceso rápido al almacenamiento
energía eficiente
portátil
Barato
Si bien existen plataformas integradas específicamente para IA como NVIDIA Jetson y Raspberry Pi Compute, aceleradores de IA como Google TPU, SOM/SBC con sensores de imagen de alta calidad, nos centraremos en algunas placas diseñadas para visión por computadora y compararemos algunas de sus características.
Tendencias actuales en visión artificial
Visión por computadora en el borde
Para implementar con éxito la visión por computadora en el borde, el diseño de la red neuronal debe integrarse en las plataformas integradas. Además, se deben tomar decisiones de diseño difíciles en términos de consumo de energía, costo, precisión y flexibilidad. En general, la computación perimetral es fundamental para los procesos de visión por computadora por razones de ancho de banda, velocidad y seguridad. Aún así, los piratas informáticos podrían explotar las vulnerabilidades emergentes en la inteligencia artificial. Los diseñadores también tienen que tener esto en cuenta.
Sin embargo, existen algunos desafíos cuando se trata de Vision AI on Edge, p. Por ejemplo, incluir todos los puntos finales de borde puede dar lugar a arquitecturas de dispositivos complejas. Esto complica la implementación de la gestión de dispositivos y la informática perimetral. Edge Computing se diferencia de la arquitectura de la nube en que se distribuye en lugar de centrarse en una sola nube. Para las grandes empresas, se puede suponer que dicha infraestructura está asociada con mayores costos de mantenimiento que una orientada a la nube.
Visión integrada e IoT Visión integrada
La visión integrada es cuando combinamos cámaras con la unidad de procesamiento, como las cámaras inteligentes mencionadas anteriormente. Muchas empresas, como Lattice Semiconductor y Blaser AG, ofrecen soluciones de visión integradas. Por ejemplo, el AI Vision Solution Kit de Basler viene con conectividad en la nube e incluye un módulo de cámara MIPI de dardos, una placa de desarrollo NVIDIA Jetson Nano, una lente y un cable. Permite a los desarrolladores probar aplicaciones IoT basadas en IA en un sistema de procesamiento de imágenes optimizado y acceder a servicios en la nube.
Pero estamos a punto de entrar en la siguiente etapa del Internet de las Cosas. Hasta ahora, la atención se ha centrado en conectar dispositivos, recopilar datos y crear plataformas de big data. Ahora nuestro enfoque cambiará a hacer que las "cosas" sean más inteligentes utilizando tecnologías como la visión por computadora y el aprendizaje profundo en el borde. De esa manera, las cosas podrán tomar decisiones informadas sobre su entorno. Esta es la visión integrada de IoT.
Unidades de procesamiento de imágenes (VPU)
Una VPU es un tipo específico de acelerador de IA diseñado para tareas de visión artificial. Se presta bien al procesamiento paralelo. Un acelerador Edge AI muy popular es el Intel Neural Compute Stick 2, que está construido sobre la VPU Myriad X. Ofrece una interfaz USB fácil de usar.
Los modelos de red convolucional (CNN) previamente entrenados se utilizan en los chips VPU para realizar tareas de inferencia. Los estudios han demostrado que las VPU son superiores a las CPU y las GPU en términos de rendimiento y consumo de energía. Además, una combinación de múltiples chips VPU puede incluso reducir la potencia de diseño térmico (TDP) hasta ocho veces.
Software 2.0 y visión artificial
En el camino hacia la Industria 4.0, el desarrollo de software también avanza en la dirección del Software 2.0. El software 1.0, la pila de tecnología que incluye lenguajes como C/C++, Python, etc., es con lo que estamos familiarizados. Necesita un codificador. Por otro lado, si introducimos suficientes datos en una red neuronal que sabe codificar, el software 2.0 literalmente se escribirá solo.
Esta es otra razón por la que el mercado de la visión artificial seguirá creciendo exponencialmente. Impulsará el software 2.0. Andrej Karpathy, Director de IA en Tesla, es un gran partidario del Software 2.0. Señala que con el software 2.0, la biblioteca de visión artificial (por ejemplo, OpenCV) podría incluso ajustarse automáticamente a nuestros datos específicos.
La autora, Aaryaa Padhyegurjar, es una entusiasta de la Industria 4.0 en EFY con un gran interés en la innovación y la investigación.
Si quieres conocer otros artículos parecidos a Hardware de IA adaptado a la visión artificial puedes visitar la categoría Electrónica.
Deja una respuesta