Blog

Así se vivió WOPR29 bajo el tema “Iterative Performance Testing”

¿Cuál será la importancia del testing de performance en 5 años? El prestigioso evento de testing de performance WOPR29 tuvo lugar en Montevideo, y entrevistamos a un panel de expertos para hablar sobre esta temática. Se trata de Roger Abelenda, Andréi Guchin, Sofia Palamarchuk, Paul Holland, Andy Hohenner y Eric Proegler.

Así se vivió WOPR29: Workshops on Performance and Reliability

La edición N.º 29 de “Workshops on Performance and Reliability” (WOPR29) llegó a América Latina con sede en Uruguay, Montevideo. En Abstracta, sentimos gran orgullo de ser la primera empresa de la región en hostear el evento.

Destinado para entre 20 y 25 profesionales, WOPR es un evento de gran prestigio a nivel mundial que busca profundizar en el conocimiento de testing de performance, junto a personas expertas de todo el mundo.

En el pasado, fue hosteado por empresas gigantes como Google, Microsoft, Facebook, Salesforce, eBay y BlazeMeter, entre otras, en diferentes lugares de Estados Unidos, Canadá y Europa. Finalmente, después de 14 años de existencia, llegó nuestro turno, y nuestro orgullo no podría ser más grande.

Hoy queremos compartir la visión a futuro de un panel compuesto por Paul Holland, Andy Hohenner y Eric Proegler, organizadores de WOPR29; Roger Abelenda, CTO de Abstracta; Andrei Guchin, líder del hub de testing de performance en Abstracta; y Sofía Palamarchuk, miembro del directorio de Abstracta y CEO de Apptim.

Dadas las tendencias actuales, ¿cómo será el testing de performance de dentro de 5 años?

Paul Holland: Imagino que habrá herramientas que harán que las pruebas de performance sean un poco más fáciles de llevar adelante, pero la esencia de las pruebas de performance es encontrar las limitaciones del sistema, ver cómo se comporta el sistema bajo carga, dónde están los cuellos de botella y cómo predecir cuándo fallará el sistema. Todas esas cosas probablemente seguirán siendo las mismas.

Andy Hohenner: En los últimos 10 años, la práctica de las pruebas de performance ha cambiado de forma significativa. Espero que siga evolucionando y que no se parezca a lo que hacemos hoy más de lo que hoy no se parece a hace 10 años. Las herramientas seguirán evolucionando y soportando nuevos enfoques, junto con nuevas soluciones open source para problemas que aún no hemos visto o pensado.

Eric Proegler: Creo que las pruebas de performance continuarán evolucionando para seguir el ritmo de los cambios en el desarrollo de software. Considero que las dos mayores oportunidades para aumentar su valor están en escalar otros tipos de automatización de pruebas para poner más de la experiencia del usuario bajo medición, y en mejorar la capacidad de reproducir / duplicar / incorporar el tráfico de producción.

En la mayoría de los contextos actuales, la performance del front-end constituye la mayor parte del tiempo de respuesta del usuario y es al menos tan complejo como las pruebas de cargas desarrolladas de aplicaciones multicapa. Reproducir un puñado de tipos de transacciones únicamente contra un backend no resuelve tanto el problema como solía hacerlo, y hay una vasta cantidad de pruebas automatizadas esperando a ser ejecutadas bajo carga para hacerlas aún más informativas.

Estuve muy centrado en este problema (esencialmente, escalando Selenium a miles de instancias) hace unos años, pero nunca llegué tan lejos como otros que hemos escuchado en anteriores WOPRs.

El problema de la conformación y reproducción del tráfico siempre ha sido una forma muy interesante de ir más allá de los modelos rudimentarios que casi siempre decían más sobre el tiempo disponible para programar la prueba que sobre la fidelidad deseada de los modelos. Durante al menos una década, los más observadores, ágiles y valientes han añadido carga sintética a entornos de producción o han reproducido/dividido partes de la carga de producción contra versiones alternativas del código para aprender más. Esto todavía no se ha democratizado.

Roger Abelenda: Me lo imagino más asistido y automatizado, requiriendo al tester de performance más esfuerzo en centrarse en los problemas de más alto nivel, pero al mismo tiempo teniendo que saber más sobre los sistemas particulares.

Espero que haya más y mejores herramientas para ayudar en la calibración de las pruebas, la automatización, el análisis causas de problemas (root cause analysis) y la recomendación de fixes automáticos, el autoajuste de la configuración basado en las métricas de las pruebas de performance, el análisis de tendencias y las alertas, las herramientas de colaboración para compartir patrones/arreglos comunes y compartir más conocimientos en la comunidad de performance.

En lo que respecta a las pruebas de performance en sí mismas, creo que se compartirán y explorarán más conceptos y conocimientos, lo que dará lugar a nuevos nichos de pruebas de performance específicas, como la actual ingeniería del caos (chaos engineering).

Andréi Guchin: A medida que la tecnología evoluciona, los estándares de calidad también evolucionan y los usuarios se vuelven más exigentes. Sobre todo en lo que respecta a la velocidad, la estabilidad, la fiabilidad y la experiencia del usuario de las aplicaciones y los sistemas. Pienso que las pruebas de performance seguirán evolucionando para cumplir estas exigencias, con herramientas y prácticas que se adaptarán mejor al trabajo de los equipos.

En lo que respecta a las herramientas en concreto, veo una tendencia a pasar a plataformas de código abierto en las que la gente puede compartir conocimientos y conectarse con otros para encontrar mejores soluciones a problemas comunes.

Por ello, el reto para nosotros es seguir aprendiendo y estar al tanto de estas tendencias, con el fin de tener éxito y seguir siendo competitivos.

Sofia Palamarchuk: La performance será un cuello de botella crítico para que las empresas sigan siendo competitivas en los próximos años, a medida que aumenten las expectativas de los usuarios respecto a las experiencias digitales.

Las pruebas de performance se convertirán en una práctica generalizada en muchos sectores, y los equipos de calidad y los desarrolladores dispondrán de herramientas para probar la performance en una fase más temprana del ciclo de desarrollo de software.

A medida que la inteligencia artificial aprenda de los datos de producción, ayudará a identificar los tipos de pruebas que deben automatizarse, así como a asistir en el análisis de la causa raíz y a detectar automáticamente los cambios de código que introducen regresiones en la performance.

¡Síguenos en LinkedInTwitterFacebookInstagram y Youtube para ser parte de nuestra comunidad y conocer lo último en testing de performance!


Otros contenidos relacionados

Prestigioso evento mundial WOPR es hosteado por Abstracta en Uruguay en su 29.ª edición

La mejor forma de hacer Testing de Performance en Integración Continua

JMeter DSL, una innovadora herramienta para Testing de Performance


142 / 208