Enable javascript in your browser for better experience. Need to know to enable it?

÷ÈÓ°Ö±²¥

  • Plataformas

    Adoptar Probar Evaluar Resistir Adoptar Probar Evaluar Resistir
  • Nuevo
  • Modificado
  • Ning¨²n cambio

Plataformas

Adoptar ?

  • 23. GitLab CI/CD

    ha evolucionado hasta convertirse en un sistema completamente integrado en GitLab, cubriendo todo desde la ¾±²Ô³Ù±ð²µ°ù²¹³¦¾±¨®²Ô y testeo de c¨®digo hasta su despliegue y monitorizaci¨®n. Soporta complejos flujos de trabajo con funcionalidades como pipelines multi-etapa, cach¨¦, ejecuci¨®n paralela y auto-escalado de ejecutores, adecuado para proyectos de gran escala y necesidades en pipelines complejas. Queremos destacar sus herramientas de seguridad y cumplimiento integradas (como an¨¢lisis ), que lo hacen ideal para casos de uso con altos requisitos de cumplimiento. Tambi¨¦n se integra perfectamente con Kubernetes, dando soporte a flujos de trabajo nativos de la nube, y ofrece logging en tiempo real, reportes de tests y trazabilidad para una mejor observabilidad.

  • 24. Trino

    es un motor de consultas SQL distribuido y de c¨®digo abierto dise?ado para consultas anal¨ªticas interactivas sobre big data. Est¨¢ optimizado para ejecutarse tanto en entornos locales como en la nube, y permite consultar los datos donde residen, incluyendo bases de datos relacionales y diversos almacenes propietarios a trav¨¦s de conectores. Trino tambi¨¦n puede consultar datos almacenados en formatos y formatos de tabla abiertos como Apache Iceberg. Sus capacidades integradas de federaci¨®n de consultas permiten consultar datos de m¨²ltiples fuentes como si fueran una sola tabla l¨®gica, lo que lo convierte en una excelente opci¨®n para cargas de trabajo anal¨ªticas que requieren agregar datos de diferentes or¨ªgenes. Trino es una parte clave de stacks populares como , Starburst y otras plataformas de datos protegidos. Nuestros equipos lo han utilizado con ¨¦xito en varios casos de uso, y cuando se trata de consultar conjuntos de datos de m¨²ltiples fuentes para an¨¢lisis, Trino ha sido una opci¨®n confiable.

Probar ?

  • 25. ABsmartly

    es una plataforma avanzada de pruebas A/B, dise?ada para tomar decisiones r¨¢pidas y confiables. Su caracter¨ªstica m¨¢s destacada es el motor de (GST), que acelera los resultados de las pruebas hasta un 80% comparado con herramientas tradicionales de pruebas A/B. La plataforma ofrece informes en tiempo real, segmentaci¨®n profunda de datos e ¾±²Ô³Ù±ð²µ°ù²¹³¦¾±¨®²Ô completa y fluida en todo el ecosistema tecnol¨®gico mediante un enfoque API-first, lo que permite realizar experimentos en web, aplicaciones m¨®viles, microservicios y modelos de Machine Learning (ML).

    ABsmartly solventa problemas clave en experimentaci¨®n escalable y basada en datos al permitir una iteraci¨®n m¨¢s r¨¢pida y un desarrollo de productos m¨¢s ¨¢gil. Su ejecuci¨®n con latencia cero, capacidad de segmentaci¨®n profunda y soporte para experimentos en m¨²ltiples plataformas la convierten en una herramienta valiosa para organizaciones que buscan expandir su cultura de experimentaci¨®n y priorizar la innovaci¨®n basada en datos. Al reducir significativamente los ciclos de prueba y automatizar el an¨¢lisis de resultados, ABsmartly nos ayud¨® a optimizar caracter¨ªsticas y experiencias de usuario de manera m¨¢s eficiente que las plataformas de pruebas A/B tradicionales.

  • 26. Dapr

    ha evolucionado significativamente desde la ¨²ltima vez que lo destacamos en nuestro Radar. Sus numerosas nuevas funcionalidades incluyen programaci¨®n de tareas, actores virtuales, pol¨ªticas de reintento m¨¢s sofisticadas y componentes de observabilidad. Su cat¨¢logo de componentes sigue expandi¨¦ndose con nuevas capacidades como gesti¨®n de tareas, criptograf¨ªa y mucho m¨¢s. Nuestros equipos tambi¨¦n destacan su creciente enfoque en configuraciones predeterminadas de seguridad, con soporte para mTLS e im¨¢genes distroless. En general, hemos quedado satisfechos con Dapr y esperamos con inter¨¦s su evoluci¨®n futura.

  • 27. Grafana Alloy

    Anteriormente conocido como Grafana Agent, es un colector de c¨®digo abierto de OpenTelemetry. Alloy est¨¢ dise?ado para ser un colector de telemetr¨ªa todo en uno para todos los datos de telemetr¨ªa, incluyendo logs, m¨¦tricas y trazas. Admite la recopilaci¨®n de formatos de datos de telemetr¨ªa com¨²nmente utilizados, como OpenTelemetry, Prometheus y Datadog. Con la , Alloy est¨¢ emergiendo como la opci¨®n ideal para la recopilaci¨®n de datos de telemetr¨ªa, especialmente para logs, al usar la stack de observabilidad de Grafana.

  • 28. ?Grafana Loki

    es un sistema de agregaci¨®n de logs multi-tenant, altamente disponible y escalable horizontalmente, inspirado en Prometheus. Loki solo indexa metadatos sobre tus logs como un conjunto de etiquetas para cada flujo de logs. Los datos de logs se almacenan en una soluci¨®n de almacenamiento de bloques, como S3, GCS o Azure Blob Storage. El resultado que Loki promete es una reducci¨®n en la complejidad operativa y en los costos de almacenamiento en comparaci¨®n con sus competidores. Como era de esperarse, se integra estrechamente con Grafana y Grafana Alloy, aunque se pueden usar otros mecanismos de recolecci¨®n.

    Loki 3.0 introdujo soporte nativo para OpenTelemetry, lo que hace que la ingesta y la ¾±²Ô³Ù±ð²µ°ù²¹³¦¾±¨®²Ô con sistemas OpenTelemetry sea tan simple como configurar un endpoint. Tambi¨¦n ofrece caracter¨ªsticas avanzadas de multi-tenant, como el aislamiento de tenants mediante shuffle-sharding, lo que evita que los tenants con comportamiento an¨®malo (por ejemplo, consultas pesadas o ca¨ªdas) afecten a otros en un cluster. Si no has estado siguiendo los desarrollos en el ecosistema de Grafana, ahora es un buen momento para revisarlo, ya que est¨¢ evolucionando r¨¢pidamente.

  • 29. Grafana Tempo

    es un backend de rastreo distribu¨ªdo a gran escala, compatible con est¨¢ndares abiertos como OpenTelemetry, dise?ado para ser eficiente en cuanto a costes. Se basa en el almacenamiento de objetos para retener las trazas a largo plazo, lo que permite buscarlas, , la correlaci¨®n con logs y m¨¦tricas. Por defecto, Tempo utiliza un basado en , lo que mejora el rendimiento de las consultas y permite a otras herramientas acceder a los datos de rastreo. Las consultas se ejecutan a trav¨¦s de y . Tambi¨¦n se puede configurar Grafana Alloy para recopilar y enviar trazas a Tempo. Nuestros equipos alojaron internamente Tempo en GKE, utilizando MinIO para el almacenamiento de objetos, recolectores de OpenTelemetry y para la visualizaci¨®n de las trazas.

  • 30. Railway

    Heroku sol¨ªa ser una excelente opci¨®n para muchos desarrolladores que quer¨ªan lanzar y desplegar sus aplicaciones r¨¢pidamente. En los ¨²ltimos a?os, tambi¨¦n hemos visto el auge de plataformas de despliegue como Vercel, que son m¨¢s modernas, ligeras y f¨¢ciles de usar, pero dise?adas para aplicaciones front-end. Una alternativa full-stack en este ¨¢mbito es , una plataforma en la nube tipo PaaS que simplifica todo, desde el despliegue con GitHub/Docker hasta la monitorizaci¨®n en producci¨®n.

    Railway es compatible con la mayor¨ªa de los frameworks de programaci¨®n m¨¢s utilizados, bases de datos y despliegue mediante contenedores. Como plataforma de alojamiento a largo plazo para una aplicaci¨®n, es importante comparar los costes entre diferentes plataformas de forma detallada. Actualmente, nuestro equipo tiene una buena experiencia con el despliegue y la observabilidad en Railway. Su operaci¨®n es fluida y se integra bien con las pr¨¢cticas de despliegue continuo que promovemos.

  • 31. ?Unblocked

    es un asistente de IA para equipos listo para usar. Una vez integrado con repositorios de c¨®digo, plataformas de documentaci¨®n corporativa, herramientas de gesti¨®n de proyectos y herramientas de comunicaci¨®n, Unblocked ayuda a responder preguntas complejas sobre conceptos t¨¦cnicos y de negocio, dise?o e implementaci¨®n arquitect¨®nica, as¨ª como procesos operativos. Esto es particularmente ¨²til para navegar sistemas heredados (legacy) o muy grandes. Durante el uso de Unblocked, hemos observado que los equipos valoran el acceso r¨¢pido a la informaci¨®n contextual por encima de la generaci¨®n de c¨®digo e historias de usuario; para tales escenarios, especialmente los asistentes de programaci¨®n, asistentes de ingenier¨ªa de software est¨¢n mejor preparados.

  • 32. Weights & Biases

    ha seguido evolucionando, a?adiendo m¨¢s funcionalidades centradas en LLM desde su ¨²ltima aparici¨®n en el Radar. Est¨¢n ampliando e introduciendo , una plataforma completa que va m¨¢s all¨¢ del seguimiento de sistemas basados en agentes LLM. Weave te permite crear evaluaciones de sistemas, definir m¨¦tricas personalizadas, usar los LLMs como jueces para tareas como hacer res¨²menes y guardar conjuntos de datos que capturan diferentes comportamientos para su an¨¢lisis. Esto ayuda a optimizar los componentes LLM y a hacer un seguimiento del rendimiento tanto a nivel local como global. La plataforma tambi¨¦n facilita el desarrollo iterativo y la depuraci¨®n efectiva de sistemas basados en agentes, donde los errores pueden ser dif¨ªciles de detectar. ´¡»å±ð³¾¨¢²õ, permite la recopilaci¨®n de la valiosa retroalimentaci¨®n humana, que puede utilizarse posteriormente para reajustar los modelos.

Evaluar ?

  • 33. Arize Phoenix

    Con la creciente popularidad de los modelos de lenguaje extenso (LLM) y de las aplicaciones impulsadas por agentes, la observabilidad de estos modelos cobra cada vez mayor relevancia. En el pasado, hemos recomendado plataformas como Langfuse y Weights & Biases (W&B). representa otra plataforma emergente en este ¨¢mbito, con la cual nuestro equipo ha tenido una experiencia positiva. Ofrece funciones est¨¢ndar como seguimiento de modelos (LLM tracing), evaluaci¨®n y gesti¨®n de prompts, adem¨¢s de una fluida con los principales proveedores y frameworks de LLM. Esto facilita la recopilaci¨®n de informaci¨®n sobre la salida de los modelos, la latencia y el uso de tokens con una configuraci¨®n m¨ªnima. Hasta el momento, nuestra experiencia se limita a la herramienta de c¨®digo abierto, pero la plataforma m¨¢s amplia de ofrece funcionalidades m¨¢s completas. Confiamos en poder explorar en mayor detalle en el futuro.

  • 34. Chainloop

    es una plataforma para cadena de suministros de seguridad de c¨®digo abierto que ayuda a los equipos de seguridad a hacer cumplir sus pol¨ªticas y a la vez permite a los equipos de desarrollo su f¨¢cil ¾±²Ô³Ù±ð²µ°ù²¹³¦¾±¨®²Ô con los pipelines de CI/CD. Consiste en un plano de control que act¨²a como ¨²nica fuente de verdad para las pol¨ªticas de seguridad, y una interfaz de comandos (CLI) que ejecuta certificaciones dentro de los para asegurar el cumplimiento. Los equipos de seguridad definen especificando qu¨¦ artefactos ¡ª como los SBOMs o los reportes de vulnerabilidades ¡ª deben ser recogidos, d¨®nde almacenarlos y como evaluar el cumplimiento de las pol¨ªticas. Chainloop usa , la pol¨ªtica de lenguaje OPA's, para validar certificaciones ¡ª por ejemplo, asegurando un est¨¢ndar CycloneDX SBOM que cumpla con los requisitos de versi¨®n. Durante la ejecuci¨®n del flujo de trabajo, artefactos de seguridad como son adjuntados a una certificaci¨®n y subidos al plano de control para su aplicaci¨®n y auditor¨ªa. Esta estrategia asegura el cumplimiento de las pol¨ªticas y puede ser impuesta de manera consistente y a escala a la vez que minimiza la fricci¨®n en los flujos de desarrollo. El resultado es un SLSA de nivel tres de conformidad de fuente de verdad ¨²nica para metadatos, artefactos y certificaciones.

  • 35. Deepseek R1

    es la primera generaci¨®n de modelos de razonamiento de DeepSeek. A trav¨¦s de una progresi¨®n de modelos no basados en razonamiento, los ingenieros de DeepSeek dise?aron y utilizaron m¨¦todos para maximizar la utilizaci¨®n del hardware. Estos incluyen Multi-Head Latent Attention (MLA), Mixture of Experts (MoE) gating, 8-bit floating points training (FP8) y low-level PTX programming. Su enfoque de permite a DeepSeek-R1 competir con los modelos de vanguardia a un costo significativamente reducido para el entrenamiento y la inferencia. DeepSeek-R1-Zero destaca tambi¨¦n por otra innovaci¨®n: los ingenieros han podido obtener capacidades de razonamiento a partir de un modelo no basado en razonamiento utilizando un simple aprendizaje por refuerzo, sin necesidad de ajustes finos supervisados. Todos los modelos de DeepSeek son de open-weight, lo que significa que est¨¢n disponibles gratuitamente, aunque el c¨®digo de entrenamiento y los datos siguen siendo propietarios. El repositorio incluye seis modelos densos destilados de DeepSeek-R1, basados en Llama y Qwen, con DeepSeek-R1-Distill-Qwen-32B superando a OpenAI-o1-mini en varios puntos de referencia.

  • 36. Deno

    Creado por Ryan Dahl, el inventor de Node.js, se dise?¨® para solucionar lo que ¨¦l consideraba errores de Node.js. Cuenta con un sistema de sandboxing m¨¢s estricto, gestor de dependencias integrado y compatibilidad nativa con Typescript, un aspecto clave para su base de usuarios. Preferimos Deno para proyectos de Typescript, ya que se siente un verdadero entorno de ejecuci¨®n y conjunto de herramientas de Typescript, en lugar de un complemento de Node.js.

    Desde su inclusion en el Radar del 2019, Deno ha realizado significativos avances, El lanzamiento de introduce la retrocompatibilidad con Node.js y librer¨ªas npm, versiones de soporte a largo plazo (LTS) y otras mejoras. Antes, una de las mayores barreras para adoptar Node.js era la necesidad de reescribir las aplicaciones. Estas actualizaciones reducen la complejidad de la migraci¨®n al tiempo que ampl¨ªan las opciones de dependencia para herramientas y sistemas de apoyo. Dado el enorme ecosistema de Node.js y npm, estos cambios deber¨ªan impulsar una mayor aceptaci¨®n.

    ´¡»å±ð³¾¨¢²õ, de Deno se ha estabilizado, ayudando a combatir la proliferaci¨®n de . Sus herramientas y su biblioteca est¨¢ndar hacen que TypeScript o JavaScript resulten m¨¢s atractivos para el desarrollo del lado del servidor. Sin embargo, advertimos que no se debe elegir una plataforma ¨²nicamente para evitar programaci¨®n pol¨ªglota.

  • 37. Graffiti

    crea grafos de conocimiento din¨¢micos y con conciencia temporal que capturan hechos y relaciones en evoluci¨®n. Nuestros equipos utilizan GraphRAG para descubrir relaciones en los datos, lo que mejora la precisi¨®n en la recuperaci¨®n y las respuestas. Dado que los conjuntos de datos evolucionan constantemente, Graphiti mantiene metadatos temporales en los bordes del grafo para registrar los ciclos de vida de las relaciones. Almacena datos estructurados y no estructurados en forma de discretos y admite consultas mediante una fusi¨®n de algoritmos temporales, de texto completo, sem¨¢nticos y de grafos. Para aplicaciones basadas en LLM ¡ª ya sea RAG o agentic - Graphiti permite la recuperaci¨®n a largo plazo y el razonamiento basado en estados.

  • 38. Helicone

    Similar a Langfuse, Weights & Biases y Arize Phoenix, es una plataforma administrada de LLMOps dise?ada para satisfacer la creciente demanda empresarial de gesti¨®n de costos de LLM, evaluaci¨®n de ROI y mitigaci¨®n de riesgos. De c¨®digo abierto y centrada en desarrolladores, Helicone admite aplicaciones de IA listas para producci¨®n, ofreciendo experimentaci¨®n con prompts, monitorizaci¨®n, depuraci¨®n y optimizaci¨®n a lo largo de todo el ciclo de vida de los LLM. Permite el an¨¢lisis en tiempo real de costos, utilizaci¨®n, rendimiento y trazas de pila de los agentes a trav¨¦s de varios proveedores de LLM. Aunque simplifica la gesti¨®n de operaciones de LLM, la plataforma a¨²n est¨¢ en desarrollo y puede requerir cierta experiencia para aprovechar completamente sus funciones avanzadas. Nuestro equipo la ha estado utilizando con una buena experiencia hasta ahora.

  • 39. Humanloop

    es una plataforma emergente que busca hacer que los sistemas de IA sean m¨¢s confiables, adaptables y alineados con las necesidades de las personas usuarias, integrando retroalimentaci¨®n humana en puntos clave de decisi¨®n. Ofrece herramientas para el etiquetado humano, aprendizaje activo y ajuste fino con intervenci¨®n humana, as¨ª como la evaluaci¨®n de modelos de lenguaje (LLM) en funci¨®n de los requisitos del negocio. ´¡»å±ð³¾¨¢²õ, facilita la gesti¨®n rentable del ciclo de vida de las soluciones de IA generativa con mayor control y eficiencia. Humanloop promueve la colaboraci¨®n a trav¨¦s de un espacio de trabajo compartido, gesti¨®n de prompts con control de versiones e ¾±²Ô³Ù±ð²µ°ù²¹³¦¾±¨®²Ô CI/CD para prevenir regresiones. Tambi¨¦n incluye funciones de observabilidad, como trazabilidad, logs, alertas y l¨ªmites de seguridad para monitorear y optimizar el rendimiento de la IA. Estas capacidades hacen que Humanloop sea especialmente relevante para organizaciones que implementan IA en entornos regulados o de alto riesgo, donde la supervisi¨®n humana es clave. Con su enfoque en pr¨¢cticas de IA responsable, Humanloop es una opci¨®n que vale la pena considerar para equipos que buscan construir sistemas de IA escalables y ¨¦ticos.

  • 40. Model Context Protocol (MCP)

    Uno de los mayores desaf¨ªos relacionados al prompting (o interacci¨®n con IA a trav¨¦s de lenguaje natural) es garantizar que la herramienta de IA tenga acceso a todo el contexto relevante para la tarea. Frecuentemente este contexto existe dentro de los sistemas que utilizamos en nuestro d¨ªa a d¨ªa: wikis, aplicaciones de gesti¨®n de tareas, bases de datos o sistemas de observabilidad. La ¾±²Ô³Ù±ð²µ°ù²¹³¦¾±¨®²Ô fluida entre las herramientas de IA y estas fuentes de informaci¨®n puede mejorar significativamente la calidad de los resultados generados por la IA. El (MCP), un est¨¢ndar abierto publicado por Anthropic, proporciona un marco de trabajo estandarizado para integrar aplicaciones LLM con fuentes de datos y herramientas externas. Define clientes y servidores MCP, donde los servidores acceden a las fuentes de datos y los clientes integran y usan estos datos para mejorar las solicitudes. Muchos asistentes de c¨®digo ya han implementado la ¾±²Ô³Ù±ð²µ°ù²¹³¦¾±¨®²Ô de MCP, permiti¨¦ndoles actuar como clientes MCP. Los servidores MCP pueden ejecutarse de dos maneras: localmente, como procesos Python o Node que se ejecutan en la m¨¢quina del usuario, o de forma remota, como un servidor al que el cliente MCP se conecta v¨ªa SSE (aunque todav¨ªa no hemos visto ning¨²n uso de la variante de servidor remoto). Actualmente, MCP se usa principalmente de la primera manera, con desarrolladores(as) clonando open-source del . Si bien los servidores locales ofrecen una forma sencilla de evitar dependencias de terceros, siguen siendo menos accesibles para usuarios no t¨¦cnicos e introducen desaf¨ªos tales como la gesti¨®n de actualizaciones y la gobernanza. Dicho esto, resulta sencillo imaginar c¨®mo este est¨¢ndar podr¨ªa evolucionar hacia un ecosistema m¨¢s maduro y accesible para sus usuarios en el futuro.

  • 41. Open WebUI

    es una plataforma de IA de c¨®digo abierto y auto hospedada con un vers¨¢til conjunto de caracter¨ªsticas. Soporta APIs compatibles con OpenAI y se integra con proveedores como OpenRouter y entre otros. Puede ejecutarse completamente sin conexi¨®n conect¨¢ndose a modelos locales o auto-hospedados a trav¨¦s de Ollama. Open WebUI incluye una capacidad integrada para RAG, lo que permite a los usuarios interactuar con documentos locales y web mediante chat. Ofrece controles RBAC granulares, habilitando diferentes modelos y capacidades de plataforma para diferentes grupos de usuarios. La plataforma es extensible a trav¨¦s de ¡ª bloques de construcci¨®n basados en Python que personalizan y mejoran sus capacidades. Otra caracter¨ªstica clave es la , que incluye un modo competitivo que permite comparar LLMs uno frente a otro en tareas espec¨ªficas. Open WebUI puede ser desplegado a diversas escalas ¡ª como un asistente personal de IA, un asistente de colaboraci¨®n en equipo o una plataforma de IA a nivel empresarial.

  • 42. pg_mooncake

    es una extensi¨®n de PostgreSQL que a?ade almacenamiento orientado a columnas y ejecuci¨®n vectorizada. Las tablas en formato columnar se almacenan como tablas Iceberg o Delta Lake en el sistema de archivos local o en cualquier almacenamiento en la nube compatible con S3. pg_mooncake tiene soporte para cargar datos desde formatos de archivo como Parquet, CSV o incluso conjuntos de datos de Hugging Face. Puede ser una buena opci¨®n para an¨¢lisis de datos masivos que normalmente requieren almacenamiento columnar, ya que elimina la necesidad de incorporar tecnolog¨ªas de almacenamiento columnar dedicadas en tu infraestructura.

  • 43. Modelos de razonamiento

    Uno de los avances m¨¢s significativos en IA desde el ¨²ltimo Radar es el descubrimiento y proliferaci¨®n de los modelos de razonamiento. Tambi¨¦n comercializados comomodelos de pensamiento, estos modelos han alcanzado un rendimiento a nivel humano en como matem¨¢ticas avanzadas y programaci¨®n. Los modelos de razonamiento suelen entrenarse mediante aprendizaje por refuerzo o fine-tuning supervisado, mejorando capacidades como el raciocinio paso a paso (), la exploraci¨®n de alternativas () o la . Algunos ejemplos incluyen / de OpenAI, DeepSeek R1 y . Sin embargo, estos modelos deben considerarse una categor¨ªa propia de LLMs en lugar de simples versiones m¨¢s avanzadas. Estas prestaciones mejoradas tienen un costo. Los modelos de razonamiento requieren un tiempo de respuesta y consumo de tokens mayor, lo que ha llevado a llamarlos de manera jocosaIA m¨¢s lenta, del ingl¨¦s ¡°Slower AI¡± (como si la IA actual no fuera ya lo suficientemente lenta). No todas las tareas justifican este sacrificio. Para tareas m¨¢s simples como la sumarizaci¨®n de texto, generaci¨®n de contenido o chatbots de respuesta r¨¢pida, los LLMs de prop¨®sito general siguen siendo la mejor opci¨®n. Recomendamos usar modelos de razonamiento en campos del STEM, y en resoluci¨®n de problemas complejos y toma de decisiones como, por ejemplo, usando LLMs como jueces o para mejorar la explicabilidad mediante salidas expl¨ªcitas de CoT. Al momento de escribir esto, Claude 3.7 Sonnet, un modelo h¨ªbrido de razonamiento, acaba de ser , adelantando una posible fusi¨®n entre los LLMs tradicionales y los modelos de razonamiento.

  • 44. Restate

    es una plataforma de ejecuci¨®n duradera, similar a Temporal, desarrollada por los creadores originales de Apache Flink. Entre sus caracter¨ªsticas, ofrece flujos de trabajo como c¨®digo, procesamiento de eventos con estado, el patr¨®n saga y m¨¢quinas de estado duraderas. Escrito en Rust y desplegado como un ¨²nico binario, utiliza un registro distribuido para almacenar eventos, implementado mediante un algoritmo de consenso virtual basado en , lo que garantiza durabilidad incluso en caso de fallo de un nodo. Los SDKs est¨¢n disponibles para los lenguajes m¨¢s comunes: Java, Go, Rust y TypeScript. ??Seguimos sosteniendo que es mejor evitar transacciones distribuidas en sistemas distribuidos, debido tanto a la complejidad adicional como al inevitable sobrecoste operativo que implican. Sin embargo, esta plataforma merece ser evaluada si en tu entorno no puedes evitar el uso de transacciones distribuidas.

  • 45. Supabase

    es una alternativa de c¨®digo abierto a Firebase para construir backends escalables y seguros. Ofrece un conjunto de servicios integrados, incluyendo una base de datos PostgreSQL, autenticaci¨®n, APIs instant¨¢neas, funciones Edge, suscripciones en tiempo real, almacenamiento y representaciones vectoriales. Supabase tiene como objetivo agilizar el desarrollo back-end, permitiendo a los desarrolladores permitiendo a los desarrolladores concentrarse en la creaci¨®n de front-end mientras aprovechan el poder y la flexibilidad de tecnolog¨ªas de c¨®digo abierto. A diferencia de Firebase, Supabase est¨¢ construido sobre PostgreSQL. Si est¨¢s trabajando en un prototipo o MVP, deber¨ªas considerar usar Supabase ya que ser¨¢ m¨¢s sencillo migrar a otra soluci¨®n en SQL despu¨¦s de la fase de prototipado.

  • 46. Synthesized

    Un desaf¨ªo com¨²n en el desarrollo de software es la generaci¨®n de datos de prueba para entornos de desarrollo y prueba. Idealmente, estos datos deber¨ªan asemejarse lo m¨¢s posible a los de producci¨®n, asegurando al mismo tiempo que no se exponga informaci¨®n personal identificable ni datos sensibles. Aunque esto puede parecer sencillo, la generaci¨®n de datos de prueba est¨¢ lejos de serlo. De ah¨ª el motivo de nuestro inter¨¦s en ¡ª una plataforma que permite enmascarar y crear subconjuntos de datos de producci¨®n existentes o generar datos sint¨¦ticos estad¨ªsticamente relevantes. Se integra directamente en los procesos de compilaci¨®n y ofrece enmascaramiento de privacidad, proporcionando anonimizaci¨®n a nivel de atributo mediante t¨¦cnicas irreversibles de ofuscaci¨®n de datos como hashing, substituci¨®n aleatoria o descarte. Synthesized tambi¨¦n puede generar grandes vol¨²menes de datos sint¨¦ticos para pruebas de carga. Aunque incluye las funcionalidades esperadas de GenAI, su propuesta central aborda un desaf¨ªo real y persistente para los equipos de desarrollo, lo que la convierte en una opci¨®n que vale la pena explorar.

  • 47. Tonic.ai

    Tonic.ai forma parte de una tendencia creciente en plataformas dise?adas para generar datos sint¨¦ticos realistas y anonimizados para entornos de desarrollo, pruebas y control de calidad. Similar a Synthesized, Tonic.ai es una plataforma con un conjunto completo de herramientas que abordan diversas necesidades de s¨ªntesis de datos, en contraste con el enfoque basado en bibliotecas de Synthetic Data Vault. Tonic.ai genera datos tanto estructurados como no estructurados, manteniendo las propiedades estad¨ªsticas de los datos de producci¨®n al mismo tiempo que garantiza la privacidad y el cumplimiento mediante t¨¦cnicas de privacidad diferencial. Las caracter¨ªsticas clave incluyen la detecci¨®n, clasificaci¨®n y redacci¨®n autom¨¢tica de informaci¨®n sensible en datos no estructurados, junto con el aprovisionamiento de bases de datos bajo demanda a trav¨¦s de Tonic Ephemeral. Tambi¨¦n ofrece Tonic Textual, un lago de datos seguro que ayuda a los desarrolladores de IA a aprovechar los datos no estructurados para sistemas de generaci¨®n mejorada por recuperaci¨®n (RAG) y el ajuste fino de LLM. Los equipos que buscan acelerar la velocidad de ingenier¨ªa mientras generan datos escalables y realistas ¡ª todo ello cumpliendo con estrictos requisitos de privacidad de datos ¡ª deber¨ªan considerar evaluar Tonic.ai.

  • 48. turbopuffer

    es un motor de b¨²squeda serverless y multi-tenant que integra a la perfecci¨®n b¨²squedas vectoriales y de texto sobre almacenamiento de objetos. Nos gusta su arquitectura y sus , especialmente su foco en la durabilidad, escalabilidad y eficiencia de coste. Gracias a su uso del almacenamiento de objetos como log de escritura anticipada mientras mantiene sus nodos de consulta sin estado, es adecuado para cargas de b¨²squeda a gran escala.

    Dise?ado para el rendimiento y la precisi¨®n, turbopuffer ofrece una de forma predeterminada, incluso en b¨²squedas complejas basadas en filtros. Almacena en cach¨¦ los resultados de consultas en SSD NVMe y mantiene en memoria los namespaces de acceso frecuente, permitiendo b¨²squedas de baja latencia sobre miles de millones de documentos. Esto lo hace ideal para la recuperaci¨®n de documentos de , b¨²squeda vectorial y generaci¨®n mejorada por recuperaci¨®n (RAG) de aplicaciones IA. Sin embargo, su dependencia en el almacenamiento de objetos introduce algunas desventajas en la latencia de consultas, haci¨¦ndolo m¨¢s efectivo para cargas de trabajo que se benefician de la computaci¨®n distribuida y sin estado. turbopuffer potencia sistemas de producci¨®n de gran escala como Cursor, pero actualmente solo est¨¢ disponible a trav¨¦s de .

  • 49. VectorChord

    es una extensi¨®n de PostgreSQL para b¨²squedas vectoriales por similaridad (vector similarity search), desarrollada por los creadores del como su sucesora. Es de c¨®digo abierto, compatible con los tipos de datos de pgvector y dise?ada para b¨²squedas vectoriales de alto rendimiento, eficientes en disco. Utiliza IVF (Inverted File Index - Indexado Invertido de Archivos) junto con la cuantificaci¨®n de para permitir una b¨²squeda vectorial r¨¢pida, escalable y precisa mientras reduce significativamente la carga computacional. Como las dem¨¢s extensiones de PostgreSQL en este ¨¢mbito, aprovecha el ecosistema PostgreSQL, permitiendo la b¨²squeda vectorial junto con operaciones transaccionales est¨¢ndar. Aunque a¨²n se encuentra en sus primeros pasos, vale la pena evaluar VectorChord para cargas de trabajo de b¨²squeda vectorial.

Resistir ?

  • 50. Gesti¨®n de API h¨ªbridas con Tyk

    Hemos observado m¨²ltiples equipos han tenido problemas con el . Si bien la idea de contar con un plano de control gestionado y planos de datos autogestionados ofrece flexibilidad para la configuraci¨®n de infraestructura compleja (c¨®mo el multi-cloud y de nube h¨ªbrida), los equipos han experimentado incidentes en el plano de control que fueron descubiertos internamente en lugar de por Tyk, demostrando posibles brechas de observabilidad en los ambientes alojados en AWS de Tyk. Es m¨¢s, el nivel de soporte ante incidentes parece ser lento; la comunicaci¨®n mediante tickets y correos electr¨®nicos no es lo ideal en estas situaciones. Los equipos tambi¨¦n han reportado problemas con la madurez de la documentaci¨®n de Tyk, consider¨¢ndolo a menudo inadecuado para escenarios y problemas complejos. ´¡»å±ð³¾¨¢²õ, otros productos del ecosistema de Tyk que tambi¨¦n parecen inmaduros, por ejemplo se ha reportado que el portal para desarrolladores empresariales no es compatible con versiones anteriores y tiene capacidades de personalizaci¨®n limitadas. Especialmente en el caso de la configuraci¨®n h¨ªbrida de Tyk, recomendamos proceder con cautela y continuaremos monitoreando su madurez.

?No encontraste algo que esperabas ver?

?

Cada edici¨®n del Radar presenta noticias que reflejan lo que hemos encontrado durante los seis meses anteriores. Es posible que ya hayamos cubierto lo que busca en un Radar anterior. A veces seleccionamos cosas simplemente porque hay demasiadas de las que hablar. Tambi¨¦n es posible que falte alg¨²n dato porque el Radar refleja nuestra experiencia, no se basa en un an¨¢lisis exhaustivo del mercado.

Suscr¨ªbete al bolet¨ªn informativo de Technology Radar

?

?

?

?

Suscr¨ªbete ahora

Visita nuestro archivo para leer los vol¨²menes anteriores