Hot Seat: Megh Computing CEO sobre el cumplimiento de la promesa de Intelligent Video Analytics

0
5
Hot Seat: Megh Computing CEO on Fulfilling the Promise of Intelligent Video Analytics

PK Gupta de Megh Computing se une a la conversación para hablar sobre la implementación de análisis de video, la personalización y más.

Megh Computing es un proveedor de soluciones de análisis de video multiplataforma totalmente personalizable para obtener información procesable en tiempo real. La empresa se estableció en 2017 y tiene su sede en Portland, Oregon, con oficinas de desarrollo en Bangalore, India.

El cofundador y director ejecutivo PK Gupta se une a la conversación para hablar sobre la implementación de análisis, la personalización y más.

A medida que la tecnología avanza continuamente hacia el borde con análisis de video y sensores inteligentes, ¿cuáles son las ventajas y desventajas frente a la implementación en la nube?

GUTA: La demanda de análisis de borde está aumentando rápidamente con la explosión de transmisión de datos de sensores, cámaras y otras fuentes. De estos, el video sigue siendo la fuente de datos dominante con más de mil millones de cámaras implementadas en todo el mundo. Las empresas quieren extraer inteligencia de estos flujos de datos utilizando análisis para crear valor comercial.

La mayor parte de este procesamiento se realiza cada vez más en el borde, cerca de la fuente de datos. Mover los datos a la nube para su procesamiento genera costos de transmisión, aumenta potencialmente los riesgos de seguridad e introduce latencias en el tiempo de respuesta. Por lo tanto, análisis de video inteligente [IVA] se está moviendo hacia el borde.

Prabhat K. Gupta.

Muchos usuarios finales están preocupados por el envío de datos de video fuera de las instalaciones; ¿Qué opciones hay para procesar en las instalaciones y aprovechar los beneficios de la nube?

GUTA: Muchas soluciones de IVA obligan a los usuarios a elegir entre implementar su solución localmente en el perímetro o alojarla en la nube. Los modelos híbridos permiten que las implementaciones locales se beneficien de la escalabilidad y flexibilidad de la computación en la nube. En este modelo, la tubería de procesamiento de video se divide entre el procesamiento local y el procesamiento en la nube.

En una implementación simple, solo los metadatos se envían a la nube para su almacenamiento y búsqueda. En otra implementación, la ingesta y transformación de datos se realizan en el perímetro. Solo los marcos con actividad se envían a la nube para su procesamiento para el análisis. Este modelo es un buen compromiso entre equilibrar la latencia y los costos entre el procesamiento perimetral y la computación en la nube.

Históricamente, el análisis de video basado en imágenes ha necesitado servicios de filtrado debido a falsos positivos; ¿Cómo el aprendizaje profundo los reduce?

GUTA: Los intentos tradicionales de IVA no han cumplido las expectativas de las empresas debido a la funcionalidad limitada y la poca precisión. Estas soluciones utilizan análisis de video basados ​​en imágenes con procesamiento de visión por computadora para la detección y clasificación de objetos. Estas técnicas son propensas a errores que requieren la necesidad de implementar servicios de filtrado.

Por el contrario, las técnicas que utilizan modelos optimizados de aprendizaje profundo entrenados para detectar personas u objetos junto con bibliotecas de análisis para las reglas comerciales pueden eliminar esencialmente los falsos positivos. Se pueden crear modelos especiales de aprendizaje profundo para casos de uso personalizados, como el cumplimiento de PPE, la prevención de colisiones, etc.

Escuchamos “caso de uso personalizado” con frecuencia con video AI; ¿Qué significa eso?

GUTA: La mayoría de los casos de uso deben personalizarse para cumplir con los requisitos funcionales y de rendimiento para entregar IVA. El primer nivel de personalización requerido universalmente incluye la capacidad de configurar las zonas de monitoreo en el campo de visión de la cámara, configurar umbrales para el análisis, configurar las alarmas y configurar la frecuencia y los destinatarios de las notificaciones. Estas capacidades de configuración deben proporcionarse a través de un tablero que use interfaces gráficas para permitir a los usuarios configurar los análisis para una operación adecuada.

El segundo nivel de personalización implica actualizar la canalización de análisis de video con nuevos modelos de aprendizaje profundo o nuevas bibliotecas de análisis para mejorar el rendimiento. El tercer nivel incluye la capacitación y la implementación de nuevos modelos de aprendizaje profundo para implementar nuevos casos de uso, por ejemplo, un modelo para detectar PPE para la seguridad de los trabajadores o para contar artículos de inventario en una tienda minorista.

¿Pueden sensores inteligentes como lidar, detección de presencia, radar, etc. integrarse en una plataforma de análisis?

GUTA: Por lo general, IVA procesa datos de video solo de cámaras y brinda información basada en el análisis de las imágenes. Y los datos de los sensores generalmente se analizan mediante sistemas separados para producir información de lidar, radar y otros sensores. Se inserta un operador humano en el ciclo para combinar los resultados de las diferentes plataformas para reducir los falsos positivos para casos de uso específicos como seguimiento de seguimiento, autenticación de empleados, etc.

Una plataforma de IVA que puede ingerir datos de cámaras y sensores usando la misma canalización y usar análisis contextuales basados ​​en aprendizaje automático puede brindar información para estos y otros casos de uso. El componente de análisis contextual se puede configurar con reglas simples y luego puede aprender a mejorar las reglas con el tiempo para brindar información significativa y altamente precisa.

LEAVE A REPLY

Please enter your comment!
Please enter your name here