El futuro de la analítica es en tiempo real

9 de noviembre de 2021 |

Michael Lee Sherwood quiere que los turistas sepan que cada vez que salen al Strip de Las Vegas o hacen una parada en un cruce cerca de un hotel importante, está pensando en ellos. O al menos su tecnología lo es.

Como directora de innovación de la capital mundial del entretenimiento, Sherwood ha estado piloteando un proyecto de computación de punta en los últimos años para probar formas de llevar a la gente por la ciudad de la manera más rápida y segura posible. La clave del proyecto, llamado Blackjack, es el uso de tecnología de análisis que extrae e inspecciona datos de más de 100 sensores en cámaras de tráfico, semáforos y automóviles autónomos.

Todavía en su infancia, el proyecto algún día podría hacer posible reemplazar las señales cronometradas, que vuelven locas a las personas impacientes y apresuradas, con sistemas inteligentes que monitorean constantemente los patrones de tráfico y se ajustan en un santiamén para minimizar la congestión y las molestias.

"Estamos analizando cómo podemos usar los datos para hacer que todas nuestras intersecciones sean más inteligentes y, para hacerlo, se necesita computación en el borde", dice Sherwood. "Debe poder tomar todo tipo de datos, ejecutar cálculos contra ellos y, en cuestión de milisegundos, producir un resultado. Eso tiene que suceder en el borde".

Sherwood se encuentra entre un número creciente de líderes tecnológicos que reconocen que a medida que los dispositivos conectados de Internet de las cosas (IoT) se abren paso en miles de millones de objetos conectados en todo el mundo, existe una gran oportunidad para recopilar, agregar, evaluar y hacer uso de la información. extraída de esos objetos.

Dave McCarthy, vicepresidente de investigación y analista de la industria de IDC, dice que si bien eso puede parecer una práctica "no duh", durante la primera década del avance de la IoT, las organizaciones estaban más enfocadas en implementar dispositivos que en obtener valor de todos. los datos que manejaban esos dispositivos. Eso se debió en parte a que, hasta el surgimiento de la computación perimetral, no estaban seguros de cómo evaluar todos esos bits y bytes lo suficientemente rápido como para hacer algo significativo con ellos, dice. Los desafíos de latencia, conectividad y costo de la transmisión de información hacia y desde los repositorios de datos centrales eran demasiado importantes.

Lea: Las mejores formas de administrar el análisis en la empresa basada en datos

"La estrella del espectáculo de IoT fueron los datos que se generaron en todas estas ubicaciones, pero las organizaciones realmente no sabían qué hacer con ellos o cómo utilizarlos", dice McCarthy. "Así que se convirtió en un fondo para días lluviosos donde los CIO dijeron: 'Tomaremos esta información, la almacenaremos y tal vez regresemos y la veamos algún día'".

Aparentemente ha llegado el momento de mirar. IDC predice que más de la mitad de la nueva infraestructura empresarial estará en el borde para 2023 y el gasto global en tecnología de borde alcanzará los $ 250 mil millones para 2024.

A pesar de esta tendencia, muchos líderes empresariales y de TI aún se encuentran en las primeras etapas de la definición de sus estrategias de análisis de computación perimetral, según una investigación de Hewlett Packard Enterprise. Saben que sus negocios necesitan hacerlo para lograr una mejor eficiencia operativa y una ventaja competitiva. Pero las tecnologías clave que harían que el procesamiento y el análisis de datos en el borde sean más efectivos, como la inteligencia artificial (IA) y el aprendizaje automático (ML), también están en pañales. Y muchas organizaciones de TI carecen de la profundidad técnica o la experiencia para llevar sus programas de vanguardia al siguiente nivel.

Convirtiendo la visión en realidad

Glyn Bowden, arquitecto jefe de la práctica de inteligencia artificial y ciencia de datos en HPE Pointnext Services, dice que la visión de la computación perimetral se vuelve realidad cuando miles de millones de dispositivos IoT en la naturaleza ya no tienen que conectarse a repositorios de datos centrales. En su lugar, operan de forma independiente, con modelos de ML locales que dictan cómo funcionan los dispositivos u objetos en función de su comportamiento observable.

Por ejemplo, en una fábrica inteligente, se puede esperar que los semiconductores que viajan por una cinta transportadora tengan cierto color o forma. Si las cámaras conectadas capturan imágenes que muestran que los chips de silicio están colocados incorrectamente o tienen la forma, el tamaño o el color incorrectos, podría sugerir un mal funcionamiento del equipo. Los algoritmos de IA podrían entonces recomendar o implementar automáticamente reparaciones de maquinaria sin que los humanos tengan que involucrarse, o el modelo podría ajustarse si resulta que la anomalía no fue un gran problema. De manera similar, los modelos podrían refinarse para máquinas individuales en función de una variedad de factores situacionales, como la iluminación de la planta, las temperaturas, la altura del piso, los modelos de equipos, etc.

Por favor lea: Su borde. Tu futuro. Donde la información se encuentra con la oportunidad

Bowden llama a todo esto "inferencia en el borde", que se refiere a un proceso de aplicación de reglas y lógica matemática a las bases de conocimientos locales para llegar a conclusiones procesables, por ejemplo, arreglar esa máquina o bajar la calefacción en una habitación en particular. Si bien la IA y el ML combinados con las soluciones de análisis ayudan a habilitar esto, la configuración y la administración continua de las notas de Bowden pueden ser complejas y difíciles. Por esa razón, recomienda descargar ese trabajo a una organización de servicios profesionales.

"Si usted es técnicamente capaz de tomar 10 000 decisiones por segundo, pero su empresa no puede reaccionar en tiempo real porque no está configurado correctamente, no tiene mucho sentido hacerlo", dice Bowden. "Al traer ayuda externa, puede entregar ese trabajo a expertos que lo configurarán correctamente, lo administrarán todo de manera rentable y se asegurarán de que todo se haga de la manera más segura posible".

Bowden señala que tener la configuración de análisis de borde correcta puede ser potencialmente un problema de seguridad. Si una empresa está utilizando el reconocimiento facial para determinar si las personas que intentan ingresar a un edificio son realmente empleados, por ejemplo, debe haber una inferencia de una fracción de segundo sobre si otorgar acceso a una persona. Cualquier retraso podría hacer que un guardia pierda la paciencia y deje entrar a la persona equivocada o que el sistema se atasque y obstaculice la productividad de los trabajadores. También señala que este es el tipo de situación en la que debe considerar si la IA es la solución adecuada o si le serviría mejor un proceso automatizado más simple, o incluso una mejor capacitación de sus guardias de seguridad.

Y, por supuesto, cuando los automóviles autónomos se vuelvan más comunes, también dependerán de la capacidad de análisis de borde para procesar datos de los sistemas LiDAR para determinar qué tan cerca están los vehículos cuando se acercan a objetos cercanos. Incluso el más mínimo error o retraso podría significar una catástrofe, lo que hace que la supervisión local sea crítica.

"Mucha inferencia va a ocurrir en el perímetro en lugar de en los centros de datos principales por este tipo de razones", dice Bowden. "Aquí es absolutamente a donde nos dirigimos".

es un proceso de aprendizaje

En Las Vegas, Sherwood ya está llegando con el proyecto de Blackjack de la ciudad. Por ejemplo, la ciudad ha estado probando vehículos autónomos a lo largo del Strip durante años. Pero con análisis de borde, ahora puede enviar comandos automáticamente, según el análisis de las condiciones locales, para mejorar las operaciones seguras. "Si está lloviendo", dice Sherwood, "podemos comunicar nuevas velocidades directamente a los vehículos".

Él dice que el proyecto Blackjack ha descubierto desafíos inesperados, como la dificultad de entrenar modelos para hacer las preguntas correctas y aplicar las respuestas apropiadas. Para ayudar a compensarlos, la ciudad ha consultado a proveedores y empresas de servicios con experiencia en el tema y también está estableciendo su propia operación de análisis de datos.

"Esta es un área completamente nueva para nosotros, y todavía estamos aprendiendo", dice. "Pero vale la pena, y la mayoría de las organizaciones, especialmente los municipios, deberían tener algún tipo de programa de análisis de vanguardia. Definitivamente es un motor para el futuro. Para las organizaciones que ya tienen una gran cantidad de datos, solo es cuestión de reunir sus programas. "

El borde, repleto de datos útiles, es el futuro. Así que prepárate para el éxito. Lea nuestro último número de The Doppler. Lea el informe LECCIONES PARA LÍDERES

  • Obtener análisis desde el borde no se trata de implementación, se trata de utilización.
  • Probablemente ya esté recopilando los datos de alto valor que necesita.
  • No tenga miedo de buscar ayuda, esta es un área de especialización muy especializada.
  • La utilización de análisis perimetrales es una tarea abierta. Aprende del proceso.

"La estrella del espectáculo de IoT fueron los datos que se generaron en todas estas ubicaciones, pero las organizaciones realmente no sabían qué hacer con ellos o cómo utilizarlos".

Dave McCarthy Vicepresidente de investigación y analista de la industria, IDC

Este artículo/contenido fue escrito por el escritor individual identificado y no refleja necesariamente la opinión de Hewlett Packard Enterprise Company.

¿Es el análisis de datos el futuro?

Lo imposible se volverá posible, y esto bien puede conducir a un proceso autónomo de toma de decisiones. Se espera que el análisis de datos cambie radicalmente la forma en que vivimos y hacemos negocios en el futuro. Ya hoy usamos la analítica en nuestros dispositivos tecnológicos, para muchas decisiones en nuestras vidas.

¿Cuál es el futuro de los analistas de datos?

WEF también descubrió que el 96% de las empresas definitivamente planeaban o probablemente planearían contratar nuevo personal permanente con habilidades relevantes para ocupar futuros roles relacionados con el análisis de big data. Como resultado, se pronostica que el "nuevo rol" de analista de datos será uno de los trabajos más solicitados para 2022.

¿Es el analista de datos una buena carrera en el futuro?

Los analistas de datos han sido aclamados como uno de los talentos tecnológicos más solicitados para 2020, y las empresas están preparadas para pagar salarios extremadamente competitivos. Un trabajo en datos promete excelentes perspectivas de carrera, por lo que no sorprende que cada vez más personas busquen cambiarse al campo.

¿Es el análisis de datos una buena carrera?

Los analistas de datos calificados son algunos de los profesionales más buscados del mundo. Debido a que la demanda es tan fuerte y la oferta de personas que realmente pueden hacer bien este trabajo es tan limitada, los analistas de datos exigen grandes salarios y excelentes beneficios, incluso en el nivel de entrada.

Video: data analytics future