“Data Labs” es un espacio de colaboración y aprendizaje en el que nuestros colaboradores tienen como desafío identificar y analizar problemáticas de negocio de los clientes para brindar soluciones innovadoras que impliquen posicionarnos desde otras tecnologías. Se promueve la capacitación y el entrenamiento de los colaboradores en otras tecnologías mediante la ejecución de proyectos reales.
Esta iniciativa apunta a fomentar la integración de los colaboradores a través del intercambio de experiencias con clientes; el trabajo en equipo es clave para el desarrollo de las soluciones.
La idea de generar soluciones innovadoras que puedan convertirse en potenciales oportunidades de servicio es una de las principales propuestas de “Data Labs”.
“HAY QUE ADAPTARSE PARA NO SER HISTORIA”
ENTREVISTA A DIEGO JUANES, SUBJECT MATTER EXPERT QLIK
1- ¿Qué te motivó a participar en el DataLab?
A finales de 2019 empecé a capacitarme en el mundo Cloud Analytics, porque intuía que venía un cambio muy fuerte en el mundo de la analítica.
No me equivoqué sino que ,además, con la pandemia, se fue acelerando este proceso de transformación digital. Hoy estamos viendo que muchas empresas están en pleno proceso de modernización de su plataforma de datos.
El DataLab fue la excusa perfecta para aplicar alguno de esos conocimientos que fui adquiriendo en los últimos meses. También me motivó el hecho de que muchos consultores no tienen tan claro todo este proceso de modernización. La industria del software es muy dinámica y hay que adaptarse rápidamente para no ser historia.
2- ¿Qué proyecto o solución propusiste y por qué?
Tengo pendientes muchos proyectos. De todos esos elegí los 3 que más «vendían» y Gestión del Talento optó por la primera opción:
-Mantenimiento predictivo para dispositivos de campo remotos (Oil & Gas)
-Cognitive Services & Deep Learning (Seguros)
-Azure Synapse Analytics & AI (Minorista)
El de Oil & Gas lo elegí porque hace bastante trabajo en esa industria y quería desarrollar mi primer solución IoT.
Las otras dos propuestas también son muy interesantes por la tecnología innovadora que incluían: Machine Learning, Cognitive Services, Computer Vision, Text Analytics, Synapse Analytics, Azure Data Lake, Azure Stream Analytics, etc.
3- ¿Qué desafíos experimentaste a lo largo del desarrollo del proyecto?
Entre los desafíos, el más importante fue crear un simulador que fuese lo más realista posible. No servía de nada tener números aleatorios, ya que las bombas, como todo aparato mecánico, funciona dentro de un rango de valores, que se degradan de forma paulatina o abrupta cuando ocurre una falla.
Otro desafío fue la integración entre los distintos servicios pero con esto no hubo problema: resultó ser muy simple integrar los distintos componentes de la arquitectura.
4- ¿Cuál fue tu mayor aprendizaje?
Aprendí muchísimo sobre todo lo relacionado con IoT, algo con lo que hasta ahora nunca había trabajado. También aprendí de mejores prácticas recomendadas por Microsoft, sobre todo en temas relacionados a la gestión y seguridad de los dispositivos IoT.
5- ¿Cómo viviste la experiencia de exponer tu proyecto ante diferentes áreas?
Como es un tema muy técnico, pensé que no se iba a entender. Hubo varias cosas que en la presentación olvidé de comentarlas, pero creo que la idea básica quedó clara.
Mi objetivo era, principalmente, transmitir que si para un cliente surgen necesidades de ese tipo, sepan que nosotros podemos encarar esos desafíos.
6- ¿Qué le dirías a tus compañeros a tus compañeros para que se sumen a la próxima edición del Data Lab y cuál sería tu consejo para ellos?
Lo primero que les diría es que se capaciten, hay muchos recursos disponibles, incluso algunos gratuitos, por ejemplo, en Microsoft Learn hay capacitaciones en cualquiera de las tecnologías de Microsoft.
Para los que estén interesados en estas tecnologías, tal vez podría ayudarlos armando algún workshop, para que luego puedan participar del próximo DataLab.