Enable javascript in your browser for better experience. Need to know to enable it?

÷ÈÓ°Ö±²¥

La informaci¨®n en esta p¨¢gina no se encuentra completamente disponible en tu idioma de preferencia. Muy pronto esperamos tenerla completamente disponible en otros idiomas. Para obtener informaci¨®n en tu idioma de preferencia, por favor descarga el PDF ²¹±ç³Ü¨ª.
?ltima actualizaci¨®n : Mar 29, 2022
NO EN LA EDICI?N ACTUAL
Este blip no est¨¢ en la edici¨®n actual del Radar. Si ha aparecido en una de las ¨²ltimas ediciones, es probable que siga siendo relevante. Si es m¨¢s antiguo, es posible que ya no sea relevante y que nuestra valoraci¨®n sea diferente hoy en d¨ªa. Desgraciadamente, no tenemos el ancho de banda necesario para revisar continuamente los anuncios de ediciones anteriores del Radar. Entender m¨¢s
Mar 2022
Adoptar ?

Para medir el rendimiento de la entrega de software, cada vez m¨¢s organizaciones recurren por defecto a las cuatro m¨¦tricas clave definidas por el programa : tiempo de espera de los cambios, frecuencia de despliegue, tiempo medio de restauraci¨®n (MTTR) y porcentaje de fallos en los cambios. Esta investigaci¨®n y su an¨¢lisis estad¨ªstico han demostrado una clara relaci¨®n entre el alto rendimiento de la entrega y estas m¨¦tricas; proporcionan un gran indicador de c¨®mo lo est¨¢ haciendo una organizaci¨®n de entrega en su conjunto.

Seguimos siendo grandes defensores de estas m¨¦tricas, pero tambi¨¦n hemos aprendido algunas lecciones. Seguimos observando enfoques err¨®neos con herramientas que ayudan a los equipos a medir estas m¨¦tricas bas¨¢ndose ¨²nicamente en sus conductos de entrega continua (CD). En particular, cuando se trata de las m¨¦tricas de estabilidad (MTTR y porcentaje de cambios fallidos), los datos del pipeline de CD por s¨ª solos no proporcionan suficiente informaci¨®n para determinar qu¨¦ es un fallo de despliegue con impacto real en el usuario. Las m¨¦tricas de estabilidad s¨®lo tienen sentido si incluyen datos sobre incidentes reales que degraden el servicio para los usuarios.

Recomendamos tener siempre presente la intenci¨®n ¨²ltima de una medici¨®n y utilizarla para reflexionar y aprender. Por ejemplo, antes de dedicar semanas a la creaci¨®n de sofisticadas herramientas de cuadros de mando, considera la posibilidad de limitarse a realizar regularmente la en las retrospectivas del equipo. Esto da al equipo la oportunidad de reflexionar sobre qu¨¦ podr¨ªan trabajar para mejorar sus m¨¦tricas, lo que puede ser mucho m¨¢s eficaz que la creaci¨®n de herramientas demasiado detalladas. Hay que tener en cuenta que estas cuatro m¨¦tricas clave se originaron a partir de la investigaci¨®n a nivel de organizaci¨®n de los equipos de alto rendimiento, y el uso de estas m¨¦tricas a nivel de equipo debe ser una forma de reflexionar sobre sus propios comportamientos, no s¨®lo otro conjunto de m¨¦tricas para a?adir al cuadro de mando.

Oct 2021
Adoptar ?

Para medir el rendimiento en la entrega de software, cada vez m¨¢s organizaciones recurren a las cuatro m¨¦tricas clave definidas por el programa : el tiempo de espera de un cambio, la frecuencia de despliegue, el tiempo medio de restauraci¨®n (MTTR) y tasa de fallo de cambio. Esta investigaci¨®n y sus an¨¢lisis estad¨ªsticos han demostrado una clara relaci¨®n entre el alto rendimiento de entrega y estas m¨¦tricas, lo cual proporciona un magn¨ªfico indicador de c¨®mo un equipo, o incluso toda una organizaci¨®n, lo est¨¢ haciendo.

A¨²n somos partidarios de estas m¨¦tricas, sin embargo hemos aprendido algunas lecciones desde la primera vez que empezamos a monitorearlas. Cada vez vemos m¨¢s enfoques de medici¨®n err¨®neos en herramientas que ayudan a los equipos a medir estas m¨¦tricas bas¨¢ndose puramente en sus pipelines de entrega continua (CD). En particular, cuando se trata de m¨¦tricas de estabilidad (MTTR y tasa de fallo de cambio), ¨²nicamente los datos recogidos de las pipelines de entrega continua (CD)no proveen suficiente informaci¨®n para determinar qu¨¦ es un fallo en el despliegue con un impacto real en el usuario. Las m¨¦tricas de estabilidad s¨®lo tienen sentido si incluyen datos sobre los incidentes reales que degradan el servicio para los usuarios.

Y como todas las m¨¦tricas, recomendamos tener siempre presente el objetivo principal que est¨¢ detr¨¢s de la medici¨®n y usarlas para reflexionar y aprender. Por ejemplo, antes de estar semanas construyendo sofisticadas herramientas con tableros, considere incluir y revisar regularmente el en las retrospectivas del equipo. Esto da al equipo la oportunidad de reflexionar en que podr¨ªan trabajar para mejorar sus m¨¦tricas, lo que puede ser mucho m¨¢s eficaz que las herramientas que ya est¨¢n hechas y sobre-detalladas.

Apr 2019
Adoptar ?

The thorough reports have focused on data-driven and statistical analysis of high-performing organizations. The result of this multiyear research, published in , demonstrates a direct link between organizational performance and software delivery performance. The researchers have determined that only four key metrics differentiate between low, medium and high performers: lead time, deployment frequency, mean time to restore (MTTR) and change fail percentage. Indeed, we've found that these four key metrics are a simple and yet powerful tool to help leaders and teams focus on measuring and improving what matters. A good place to start is to instrument the build pipelines so you can capture the four key metrics and make the software delivery value stream visible. for example, provide the ability to measure these four key metrics as a first-class citizen of the .

Nov 2018
Probar ?

The report, first published in 2014, states that high-performing teams create high-performing organizations. Recently, the team behind the report released , which describes the scientific method they've used in the report. A key takeaway of both are the four key metrics to support software delivery performance: lead time, deployment frequency, mean time to restore (MTTR), and change fail percentage. As a consultancy that has helped many organizations transform, these metrics have come up time and time again as a way to help organizations determine whether they're improving the overall performance. Each metric creates a virtuous cycle and focuses the teams on continuous improvement: to reduce lead time, you reduce wasteful activities which, in turn, lets you deploy more frequently; deployment frequency forces your teams to improve their practices and automation; your speed to recover from failure is improved by better practices, automation and monitoring which reduces the frequency of failures.

Publicado : Nov 14, 2018

Suscr¨ªbete al bolet¨ªn informativo de Technology Radar

?

?

?

?

Suscr¨ªbete ahora

Visita nuestro archivo para leer los vol¨²menes anteriores