Gracias por acompañarnos
en un nuevo TestingUy
El 4 de setiembre tuvo lugar la onceava edición de TestingUy. Más de 550 personas participaron de las actividades en la Torre de las Telecomunicaciones de Antel, y más de 1.100 personas se conectaron vía streaming.
La agenda contó con trece actividades: dos keynotes de nivel internacional, dos paneles sobre temáticas en boga, tres talleres y seis charlas, a cargo de 26 speakers. Además, contamos con espacios de entrevistas en vivo para aprovechar al máximo la totalidad de la jornada.
Call for speakers
¡Último plazo! Postulá una actividad hasta el 20 de julio.
Nos acompañó Tariq King
TestingUy 2025 contó con la participación de Tariq King, a cargo de la keynote de apertura y un taller.
Tariq King es CEO en Test IO, investigador, líder de pensamiento en inteligencia artificial aplicada al testing de software y una voz influyente en la comunidad internacional de calidad.
Fue muy inspirador escuchar su visión y experiencia sobre esta temática, su visión sobre el mercado Latinoaméricano y especialmente el uruguayo, y compartir charlas en las diferentes actividades que se sucedieron en la jornada.
¡Inscripciones abiertas!
Registrate sin costo para las actividades presenciales de TestingUy 2025.
Agenda
4 de setiembre – Torre de las Telecomunicaciones

ACREDITACIÓN

BIENVENIDA
Aníbal Banquero (Centro de Ensayos de Software), Guillermo Skrilec (QAlified), Gustavo Guimerans (Centro de Ensayos de Software), Yanaina López (QAlified)

KEYNOTE: Human Experience Testing: Redefining Quality in the Age of AI
Tariq King
Artificial Intelligence is rapidly becoming an accepted means of accelerating software engineering and testing activities. Many organizations have already integrated AI into their software development lifecycle, and the demand for AI-assisted engineering continues to grow year over year. A key motivating factor behind the demand is the promise of increased speed and efficiency through automation. Software testing is a prime candidate for AI acceleration due to the generally high costs and significant manual effort involved in validation and verification. As a result, we are seeing an exponential growth in the application and development of tools to support AI-driven test automation.
But what does the adoption of AI-driven automation mean for the future of software testing? Is AI going to replace manual testers and/or test automation engineers? It seems like these questions are quickly growing old and repetitive because no one is providing definitive answers based on practical, real-world analysis. Join industry expert Tariq King as he takes you on a journey into the future of software testing. Tariq firmly believes that AI will take over software testing and permanently transform the quality engineering landscape. He postulates that the future of testing will be focused on evaluating human experiences, including testing digital, physical, and experiential touchpoints. In the age of AI, human experience testing will not just be viewed as a quality assurance function, but as a core component of an organization’s business strategy. Welcome to the future of quality where AI specifies, designs, codes, and tests software, leaving the humans to do the one thing the machines can’t – test the human experience.

PANEL: Explorando el futuro del testing
Modera: Úrsula Bartram|Panelistas: Cecilia Benassi, Guillermo Skrilec, Gustavo Guimerans
El testing de software ha recorrido un largo camino: desde enfoques manuales y procesos rígidos, hasta metodologías ágiles, automatización y ahora, el impacto acelerado de la inteligencia artificial. Pero… ¿hacia dónde vamos?
En este panel, tres referentes del testing en la región compartirán su visión sobre la evolución de la disciplina, el estado actual y los desafíos que nos esperan. Conversaremos sobre cómo la IA está redefiniendo prácticas, roles y habilidades, y exploraremos qué necesita hacer la comunidad para adaptarse, crecer y seguir aportando valor en este nuevo contexto.

COFFEE BREAK

CHARLA: ¿Cómo probar lo que no podemos predecir? Te contamos nuestra experiencia
Gastón Marichal, Natalia Nario
Probar sistemas que integran IA generativa nos obligó a replantearnos muchas de las bases y estrategias del testing tradicional. Lo que antes se resolvía con un simple “pasa o falla”, ahora requiere una mirada más profunda: ¿Qué tan acertada o correcta es la respuesta?, ¿Es clara?, ¿Contiene algún sesgo?
Durante la presentación compartiremos cómo fue nuestro proceso en QAlified desde el inicio: Comenzando desde un test totalmente manual, utilizando planillas de Excel, analizando respuestas una por una y descubriendo sobre la marcha qué necesitábamos hacer. Pasando por la incorporación de asistentes con IA para complementar nuestro análisis y evaluar aspectos claves como la formalidad, sesgos, completitud y seguridad, utilizando criterios específicos para cada uno. Hasta cómo finalmente esta nueva forma de hacer testing nos obligó a adaptarnos a ciclos más rápidos y exigentes dónde la automatización resultó un aliado clave para lograr los objetivos planteados. Una historia real sobre cómo transformamos nuestro proceso de testing para estar a la altura de los desafíos que plantea la inteligencia artificial generativa.

TALLER PATROCINADO: Automatizando Pruebas de IA Generativa: Taller Práctico con Promptfoo
Abstracta|Renzo Parente, Laura Gayo, Vanessa Sastre
Los grandes modelos de lenguaje (LLMs) están llegando a productos reales y, con ellos, el reto de probar sistemas cuyas respuestas cambian en cada ejecución. Este taller práctico se centra en el uso de una herramienta open source llamada Promptfoo para validar y probar prompts y funcionalidades basadas en el uso de LLMs. Aprenderás a implementar pruebas efectivas que se adapten a la naturaleza dinámica de las respuestas generadas por LLMs, asegurando que tus aplicaciones de IA funcionen de manera óptima.

CHARLA: La IA en testing: ¿quien decide realmente?
María Elisa Presto, Mariana Travieso
La inteligencia artificial nos promete velocidad y precisión: genera pruebas, ejecuta scripts y entrega reportes “impecables”. Parece que el trabajo duro ya está hecho. Pero, ¿lo está realmente?
Detrás de esa sensación de seguridad se esconde un riesgo invisible: aceptar resultados sin cuestionarlos, dejar que el piloto automático decida por nosotros y perder la capacidad de juicio crítico. ¿Qué pasa cuando lo automático se equivoca? ¿Qué sucede con nuestra práctica profesional cuando confiamos ciegamente en la IA?
En esta charla reflexionaremos —con ejemplos concretos de testing— sobre por qué solemos actuar como si lo que vemos fuera todo lo que hay (WYSIATI) y qué herramientas prácticas podemos usar para mantener nuestra autonomía profesional. Una invitación a pensar cómo aprovechar la IA sin perder lo esencial: la calidad, la responsabilidad y nuestro rol como testers críticos.

ALMUERZO LIBRE

CHARLA: QPAM: potenciando estrategias de calidad a nivel de equipo
Claudia Badell
La calidad no se logra con una acción puntual ni es responsabilidad exclusiva del tester: es una práctica sostenida que se construye colectivamente dentro del equipo. El modelo QPAM (Quality Practices Assessment Model) propone una forma estructurada de revisar, discutir y mejorar cómo cada equipo aborda la calidad en su día a día.
En esta charla compartiré cómo usar QPAM como una herramienta para fortalecer las estrategias de pruebas y calidad desde adentro del equipo: activando conversaciones honestas sobre lo que hacemos, lo que no hacemos y por qué.
Veremos cómo QPAM nos ayuda a tomar conciencia del estado actual de nuestras prácticas, fortalecer la colaboración y promover mejoras reales, alineadas tanto con las necesidades técnicas del contexto como con los objetivos del negocio.

TALLER Prompt Engineering for Software Quality Professionals
Tariq King
With the sudden rise of ChatGPT and large language models (LLMs), professionals have been attempting to use these types of tools to improve productivity. Building off prior momentum in AI for testing, software quality professionals are leveraging LLMs for creating tests, generating test scripts, automatically analyzing test results, and more. However, if LLM’s are not fed good prompts describing the task that the AI is supposed to perform, their responses can be inaccurate and unreliable, thereby diminishing productivity gains. Join Tariq King as he teaches you how to craft high-quality AI prompts and responsibly apply them to software testing and quality engineering tasks. After a brief walkthrough of how LLMs work, you’ll get hands-on with few-shot, role-based, and chain-of-thought prompting techniques. Learn how to adapt these techniques to your own use cases, while avoiding model «hallucinations» and adhering to your company’s security and compliance requirements.

CHARLA: Testear para todas las personas: accesibilidad y experiencia digital sin barreras
Natalia Barrios, Yannela Origoni
La accesibilidad digital es mucho más que un conjunto de requisitos técnicos: es una dimensión clave de la experiencia de usuario y una condición para que todas las personas puedan participar plenamente en entornos digitales. Esta charla propone una mirada práctica y comprensible sobre cómo integrar la accesibilidad en el testing. A través del enfoque del diseño universal y del llamado efecto rampa, exploraremos cómo las soluciones pensadas para ciertos colectivos terminan beneficiando a todos los usuarios. Analizaremos diferentes formas de percepción (visual, auditiva, motriz, cognitiva) y las barreras más comunes que se presentan en productos digitales. También revisaremos los estándares internacionales (WCAG del W3C) y la normativa vigente en Uruguay, para entender el marco en el que trabajamos.

CHARLA: Pruebas de Performance sin dolor: desafíos comunes y cómo resolverlos sin romper el presupuesto
Anisbert Suárez
Hacer pruebas de performance suele parecer una tarea costosa, difícil de planificar y muchas veces postergada por falta de entornos, herramientas o tiempo. Pero los problemas de performance no esperan.
En esta charla vamos a recorrer los desafíos típicos de quienes intentan validar la performance de sus sistemas con recursos limitados, y cómo abordarlos con un enfoque pragmático, incluso testeando en producción de forma controlada. Hablaremos de cómo priorizar endpoints, usar mockeo estratégico, evitar sorpresas con datos reales y tomar decisiones sin necesidad de grandes inversiones.

COFFEE BREAK

CHARLA: El lado B de la GenAI
Edgar Salazar
En esta charla, exploramos los aspectos de la Inteligencia Artificial Generativa (GenAI) que a menudo se pasan por alto: los riesgos de seguridad y las amenazas. Más allá de la promesa de la innovación, la GenAI presenta un nuevo y complejo «lado B» que los profesionales del testing y la seguridad deben conocer. A través de un recorrido práctico, desglosaremos las principales vulnerabilidades identificadas para LLMs, entenderemos por qué la lógica del modelo es tan crítica y cuáles han sido hasta ahora las tácticas y técnicas utilizadas por los atacantes.

TALLER: Automatizando tu API con un agente de Gen AI
Damián Pereira, Ayrton Solís, Juan Fagúndez, Manuel Buslón
¿Te gustaría salir de este taller con una API totalmente automatizada y el método para repetirlo en cualquier proyecto? En este taller pondremos a prueba el **API Automation Agent**, una herramienta **open-source** que, a partir de especificaciones OpenAPI o colecciones de Postman, genera un framework completo de automatización de APIs.
Comenzaremos con una presentación del framework de automation y repasaremos los conceptos clave de la estrategia de testing de APIs. Luego cada asistente clonará el repositorio, ejecutará el agente contra una API de prueba y analizará los tests creados. A partir de aquí arreglaremos los tests que fallen, añadiremos los que sean necesarios y configuraremos un pipeline de CI/CD para correr los tests.
Te llevarás un proyecto funcional, una guía replicable paso a paso y las mejores prácticas que usamos a diario para mantener suites de automatización saludables y escalables.

PANEL Testing en videojuegos
Modera: Gerson Da Silva|Panelistas: Fabián Rodríguez, Gabriel Artus, Gonzalo Martínez
Cuatro referentes de la industria de los videojuegos en Uruguay compartirán sus experiencias y perspectivas sobre el testing en este sector. A través de sus trayectorias, exploraremos cómo se desarrollan las tareas de aseguramiento de calidad en un contexto que combina creatividad, innovación tecnológica y exigencias de mercado internacionales.
La conversación abordará las particularidades y desafíos de testear videojuegos desde Uruguay, así como las oportunidades y necesidades que enfrenta la industria local en la actualidad. Se buscará ofrecer una visión amplia que permita comprender no solo las dificultades técnicas y organizativas, sino también el potencial de crecimiento y especialización de este campo en el país.

KEYNOTE: GenAI: La responsabilidad que tenemos en testing de no ignorar la ola
Federico Toledo
Desde el inicio de la disrupción causada por la inteligencia artificial generativa (GenAI), nos hemos preguntado cómo transformará el testing y las prácticas de Quality Engineering. En estos primeros años, algunas empresas han optado por innovar basándose en GenAI, asumiendo riesgos significativos. Sin embargo, la mayoría de las organizaciones han enfocado sus esfuerzos en productos secundarios, optimizaciones internas y áreas de bajo riesgo.
La necesidad de acompañar la evolución tecnológica y la adopción de GenAI con prácticas de calidad se vuelve cada vez más evidente. Esto nos permitirá entregar software con velocidad, para mantenernos competitivos, y con la calidad que merecen nuestras personas usuarias, evitando comprometer la reputación y el negocio de la empresa.
En esta charla, abordaremos algunas de las preguntas más relevantes para el futuro del testing en un entorno impulsado por GenAI:
- ¿Qué tan reales son las mejoras en la productividad que promete la GenAI en el desarrollo de software?
- ¿Qué prácticas de testing debemos adoptar para revisar la calidad en un contexto basado en GenAI?
- ¿Qué herramientas impulsadas por GenAI generan un impacto real a lo largo del ciclo de vida del desarrollo de software?
- ¿Por qué es crucial mantener a las personas involucradas en el proceso (human in the loop)?
- En un entorno de copilotos y herramientas low-code, ¿qué mindset aporta más valor: dev o testing?
- ¿Cómo debemos prepararnos? y ¿cómo aprovechar la ola de la IA para posicionar a Latam en calidad de software?
A través de estas interrogantes, exploraremos cómo los equipos de testing pueden liderar la innovación, garantizar la calidad y gestionar los riesgos en un futuro donde la inteligencia artificial será clave en cada etapa del desarrollo de software.

SORTEOS Y CIERRE
Aníbal Banquero (Centro de Ensayos de Software), Yanaina López (QAlified)
Organizaron
Ana Inés González Lamé
Diego Gawenda
Facundo de Battista
Gustavo Mažeikis
Lucía Rodríguez
Ursula Bartram


























































