Plataformas
Adote
-
23. GitLab CI/CD
O evoluiu para um sistema totalmente integrado no GitLab, abrangendo tudo, desde a integra??o e o teste de c¨®digo at¨¦ a implanta??o e o monitoramento. Ele oferece suporte a fluxos de trabalho complexos com recursos como pipelines de v¨¢rios est¨¢gios, armazenamento em cache, execu??o paralela e executores de dimensionamento autom¨¢tico e ¨¦ adequado para projetos de grande escala e necessidades complexas de pipeline. Queremos destacar suas ferramentas integradas de seguran?a e conformidade (como a an¨¢lise ), que o tornam adequado para casos de uso com altos requisitos de conformidade. Ele tamb¨¦m se integra perfeitamente ao Kubernetes, dando suporte a fluxos de trabalho nativos da nuvem, e oferece registro em tempo real, relat¨®rios de teste e rastreabilidade para melhorar a observabilidade.
-
24. Trino
¨¦ um mecanismo de consulta SQL distribu¨ªdo e de c¨®digo aberto projetado para consultas anal¨ªticas interativas sobre big data. Ele ¨¦ otimizado para executar ambientes locais e na nuvem e oferece suporte ¨¤ consulta de dados onde eles residem, incluindo bancos de dados relacionais e v¨¢rios armazenamentos de dados propriet¨¢rios por meio de conectores. Trino tamb¨¦m pode consultar dados armazenados em formato de arquivos como e formato de tabela aberta como Apache Iceberg. Os recursos de federa??o de consultas integrados permitem que dados de diversas fontes sejam consultados como uma ¨²nica tabela l¨®gica, o que o torna uma ¨®tima op??o para cargas de trabalho anal¨ªticas que exigem agrega??o de dados de diversas fontes. Trino ¨¦ uma parte fundamental de stacks populares como , Starburst e outras plataformas de dados propriet¨¢rias. Nossas equipes o utilizaram com sucesso em v¨¢rios casos de uso, e quando se trata de consultar um conjunto de dados em diversas fontes para an¨¢lise, Trino tem sido uma escolha confi¨¢vel.
Experimente
-
25. ABsmartly
A ¨¦ uma plataforma avan?ada de teste e experimenta??o A/B projetada para uma tomada de decis?o r¨¢pida e confi¨¢vel. Seu principal diferencial ¨¦ o mecanismo de (GST), que acelera os resultados dos testes em at¨¦ 80% em compara??o com as ferramentas tradicionais de teste A/B. A plataforma oferece relat¨®rios em tempo real, segmenta??o aprofundada dos dados e integra??o completa atrav¨¦s de uma abordagem baseada em APIs, permitindo experimentos em aplica??es web, mobile, microsservi?os e modelos de machine learning.
A ABsmartly enfrenta os principais desafios da experimenta??o escal¨¢vel orientada por dados, possibilitando itera??es mais r¨¢pidas e um desenvolvimento de produtos mais ¨¢gil. Sua execu??o sem lat¨ºncia, capacidade avan?ada de segmenta??o e suporte a experimentos multiplataforma tornam a ferramenta especialmente valiosa para organiza??es que desejam escalar uma cultura de experimenta??o e priorizar a inova??o baseada em dados. Ao reduzir significativamente os ciclos dos testes e automatizar a an¨¢lise dos resultados, a ABsmartly nos ajudou a otimizar funcionalidades e experi¨ºncias do usu¨¢rio de forma mais eficiente do que com as plataformas tradicionais de testes A/B.
-
26. Dapr
O evoluiu consideravelmente desde que n¨®s o apresentamos no Radar. Suas muitas novas fun??es incluem agendamento de jobs, atores virtuais, bem como pol¨ªticas de retry mais sofisticadas e componentes de observabilidade. Sua lista de blocos de constru??o continua a crescer, incluindo jobs, criptografia e muito mais. Nossas equipes tamb¨¦m destacam o foco crescente em padr?es seguros, com suporte para mTLS e imagens sem estado (ou seja, sem um sistema operacional completo, incluindo apenas bin¨¢rios e depend¨ºncias necess¨¢rias). No geral, estamos satisfeitas com o Dapr e ansiosas para futuros desenvolvimentos.
-
27. Grafana Alloy
Anteriormente conhecido como Grafana Agent, ¨¦ um coletor do OpenTelemetry de c¨®digo aberto. Alloy ¨¦ projetado para ser um coletor de telemetria tudo-em-um para todos os dados de telemetria, incluindo logs, m¨¦tricas e rastreamentos. Ele suporta a coleta de formatos de dados de telemetria comumente usados, como OpenTelemetry, Prometheus e Datadog. Com a recente , o Alloy est¨¢ emergindo como uma escolha preferencial para a coleta de dados de telemetria ¡ª especialmente para logs ¡ª se voc¨º est¨¢ usando o conjunto de ferramentas de observabilidade Grafana.
-
28. Grafana Loki
¨¦ um sistema de agrega??o de logs multi-tenant com alta disponibilidade e escalabilidade horizontal, inspirado no Prometheus. O Loki indexa apenas metadados sobre seus logs como um conjunto de r¨®tulos para cada fluxo de log. Os dados de log s?o armazenados em uma solu??o de armazenamento em blocos, como S3, GCS ou Azure Blob Storage. A vantagem ¨¦ que o Loki promete reduzir a complexidade operacional e os custos de armazenamento em compara??o com outros concorrentes. Como era de se esperar, ele se integra perfeitamente ao Grafana e ao Grafana Alloy, embora outros mecanismos de coleta tamb¨¦m possam ser usados.
Loki 3.0 introduziu suporte nativo a OpenTelemetry, tornando a ingest?o e integra??o com sistemas baseados em OpenTelemetry t?o simples quanto configurar um endpoint. Ele tamb¨¦m oferece recursos avan?ados de multi-tenancy, como isolamento de inquilinos via ¡°shuffle-sharding¡±, o que evita que inquilinos com mau comportamento (por exemplo, consultas pesadas ou indisponibilidades) afetem outros em um cluster. Se voc¨º n?o vem acompanhando as novidades no ecossistema Grafana, agora ¨¦ um ¨®timo momento para dar uma olhada, pois est¨¢ evoluindo rapidamente.
-
29. Grafana Tempo
¨¦ um backend de tracing distribu¨ªdo em larga escala que suporta padr?es abertos como OpenTelemetry. Projetado para ser eficiente em custo, ele utiliza armazenamento de objetos para reten??o de traces a longo prazo e permite busca de traces, e correla??o com logs e m¨¦tricas. Por padr?o, o Grafana Tempo usa um baseado no , melhorando a performance das consultas e permitindo que outras ferramentas downstream acessem os dados de trace. As consultas s?o feitas via e . O Grafana Alloy tamb¨¦m pode ser configurado para coletar e encaminhar traces para o Grafana Tempo. Nossas equipes usaram o Grafana Tempo no GKE, utilizando MinIO para armazenamento de objetos, coletores OpenTelemetry e para visualiza??o de traces.
-
30. Railway
Heroku costumava ser uma excelente escolha para muitas desenvolvedoras que desejavam lan?ar e implantar seus aplicativos rapidamente. Nos ¨²ltimos anos, tamb¨¦m vimos o surgimento de plataformas de implanta??o como Vercel, que s?o mais modernas, leves e f¨¢ceis de usar, mas projetadas para aplica??es frontend. Uma alternativa full-stack neste espa?o ¨¦ o , uma plataforma de nuvem PaaS (em portugu¨ºs, ¡°plataforma como servi?o¡±) que simplifica tudo, desde a implanta??o de GitHub/Docker at¨¦ a observabilidade de produ??o.
Railway oferece suporte ¨¤ maioria dos frameworks de programa??o convencionais, bancos de dados, bem como implanta??o em cont¨ºineres. Como uma plataforma hospedada de longo prazo para um aplicativo, voc¨º pode precisar comparar cuidadosamente os custos de diferentes plataformas. Atualmente, nossa equipe tem uma boa experi¨ºncia com a implanta??o e observabilidade do Railway. A opera??o ¨¦ suave e pode ser bem integrada com as pr¨¢ticas de implanta??o cont¨ªnua que defendemos.
-
31. Unblocked
¨¦ um assistente de equipe baseado em IA pronto para uso. Uma vez integrado com reposit¨®rios de base de c¨®digo, plataformas de documenta??o corporativa, ferramentas de gerenciamento de projetos e ferramentas de comunica??o, o Unblocked ajuda a responder perguntas sobre conceitos t¨¦cnicos e de neg¨®cios complexos, design arquitetural e implementa??o, bem como processos operacionais. Isso ¨¦ particularmente ¨²til para navegar em sistemas grandes ou legados. Ao us¨¢-lo, observamos que as equipes valorizam mais o acesso r¨¢pido a informa??es contextuais do que a gera??o de c¨®digo e hist¨®rias de usu¨¢rio; para tais cen¨¢rios, especialmente assistentes de programa??o, agentes de engenharia de software s?o mais adequados.
-
32. Weights & Biases
continuou a evoluir, adicionando mais recursos focados em modelos de linguagem de grande porte desde que foi apresentado pela ¨²ltima vez no Radar. Eles est?o expandindo e introduzindo , uma plataforma completa que vai al¨¦m do rastreamento de sistemas de agentes baseados em modelos de linguagem de grande porte. O Weave permite que voc¨º crie avalia??es de sistema, defina m¨¦tricas personalizadas, use modelos de linguagem de grande porte como ju¨ªzes para tarefas como sumariza??o e salve conjuntos de dados que capturam comportamentos diferentes para an¨¢lise. Isso ajuda a otimizar os componentes do modelo de linguagem de grande porte e rastrear o desempenho em n¨ªveis local e global. A plataforma tamb¨¦m facilita o desenvolvimento iterativo e a depura??o eficaz de sistemas de agentes, onde os erros podem ser dif¨ªceis de detectar. Al¨¦m disso, permite a coleta de feedback humano valioso, que pode ser usado posteriormente para ajustar modelos.
Avalie
-
33. Arize Phoenix
Com a popularidade dos modelos de linguagem de grande porte (LLMs) e dos agentes aut?nomos, a observabilidade de LLMs est¨¢ se tornando cada vez mais importante. Anteriormente, recomendamos plataformas como o Langfuse e Weights & Biases (W&B). A ¨¦ outra plataforma emergente nesse espa?o, e nossa equipe teve uma experi¨ºncia positiva ao utiliz¨¢-la. Ela oferece recursos padr?es, como rastreamento de LLMs, avalia??o e gerenciamento de prompts, com com os principais provedores e frameworks de LLMs. Isso facilita a obten??o de insights sobre as respostas dos modelos, lat¨ºncia e uso de tokens com configura??o m¨ªnima. At¨¦ agora, nossa experi¨ºncia se limita ¨¤ ferramenta de c¨®digo aberto, mas a plataforma mais ampla oferece recursos ainda mais abrangentes. Estamos ansiosas para explor¨¢-la no futuro.
-
34. Chainloop
¨¦ uma plataforma de seguran?a de cadeia de suprimentos de c¨®digo aberto que ajuda equipes de seguran?a a impor conformidade, enquanto permite que equipes de desenvolvimento integrem a conformidade de seguran?a de forma tranquila nos pipelines CI/CD. Ela consiste em um plano de controle, que atua como fonte ¨²nica de verdade para pol¨ªticas de seguran?a, e uma CLI, que executa atestados nos para garantir a conformidade. Os times de seguran?a definem especificando quais artefatos ¡ª como os SBOMs e relat¨®rios de vulnerabilidade ¡ª devem ser coletados, onde guard¨¢-los e como avaliar a conformidade. A Chainloop usa as linguagens de pol¨ªtica , OPA's para validar atestados ¡ª por exemplo, garantir que um CycloneDX SBOM atenda aos requerimentos de vers?o. Durante a execu??o do fluxo de trabalho, artefatos de seguran?a como s?o anexados a um atestado e enviados ao plano de controle para aplica??o e auditoria. Essa abordagem garante que a conformidade possa ser aplicada de forma consistente e em escala, minimizando o atrito nos fluxos de trabalho de desenvolvimento. Isso resulta em uma fonte ¨²nica de verdade em conformidade com o n¨ªvel tr¨ºs do SLSA para metadados, artefatos e atestados.
-
35. Deepseek R1
¨¦ a primeira gera??o de modelos de racioc¨ªno do DeepSeek. Atrav¨¦s de uma progress?o de modelos n?o baseados em racioc¨ªnio, as engenheiras da DeepSeek projetaram e utilizaram m¨¦todos para maximizar a utiliza??o do hardware. Isso inclui Multi-Head Latent Attention (MLA), Mixture of Experts (MoE) gating, treinamento de pontos flutuantes de 8 bits (FP8) e programa??o PTX de baixo n¨ªvel. Sua abordagem de permite que o DeepSeek-R1 rivalize com modelos de ¨²ltima gera??o a um custo significativamente reduzido para treinamento e infer¨ºncia.
DeepSeek-R1-Zero ¨¦ not¨¢vel por outra inova??o: as engenheiras conseguiram extrair capacidades de racioc¨ªnio de um modelo n?o baseado em racioc¨ªnio utilizando simples aprendizado por refor?o, sem a necessidade de ajuste fino supervisionado. Todos os modelos DeepSeek s?o open-weight, o que significa que est?o dispon¨ªveis gratuitamente, embora o c¨®digo de treinamento e os dados permane?am propriet¨¢rios. O reposit¨®rio inclui seis modelos densos destilados do DeepSeek-R1, baseados no Llama e Qwen, sendo que o DeepSeek-R1-Distill-Qwen-32B supera o OpenAI-o1-mini em v¨¢rios benchmarks.
-
36. Deno
Criado por Ryan Dahl, o inventor do Node.js, o foi desenvolvido para corrigir o que ele via como erros no Node.js. Ele possui um sistema de sandbox mais rigoroso, gerenciamento embutido de depend¨ºncias e suporte nativo ao TypeScript ¡ª um grande atrativo para sua base de usu¨¢rias. Muitos de n¨®s preferimos a utiliza??o do Deno em projetos TypeScript por sentirmos que ele parece com um ambiente de execu??o e ferramenta voltada especificamente ao TypeScript, ao inv¨¦s de um complemento do Node.js.
Desde sua inclus?o no Radar em 2019, o Deno fez avan?os significativos. O trouxe compatibilidade retroativa com o Node.js, suporte a bibliotecas npm, vers?es com suporte de longo prazo (LTS) e outras melhorias. Anteriormente, um dos maiores obst¨¢culos ¨¤ ado??o era a necessidade de reescrever aplica??es originalmente feitas em Node.js. Essas atualiza??es reduzem o impacto da migra??o e ampliam as op??es de depend¨ºncias para ferramentas e sistemas de apoio. Dado o enorme ecossistema do Node.js e npm, essas mudan?as devem impulsionar ainda mais a ado??o do Deno.
Al¨¦m disso, a tornou-se est¨¢vel, ajudando a combater a prolifera??o de . Sua biblioteca padr?o e ferramentas tornam o uso do TypeScript ou JavaScript mais atraente para desenvolvimento no lado do servidor. Por¨¦m, recomendamos cautela ao optar por uma ¨²nica plataforma somente para evitar a programa??o poliglota.
-
37. Graphiti
cria grafos de conhecimento din?micos e temporais, capturando fatos e relacionamentos em constante evolu??o. Nossas equipes utilizam GraphRAG para descobrir conex?es entre dados, o que melhora a precis?o na recupera??o e nas respostas. Como os conjuntos de dados est?o sempre mudando, o Graphiti mant¨¦m metadados temporais nas arestas do grafo para registrar o ciclo de vida dos relacionamentos. Ele processa dados estruturados e n?o estruturados como distintos e suporta consultas combinando algoritmos baseados em tempo, busca textual, sem?ntica e grafos. Para aplica??es baseadas em modelos de linguagem de grande porte (LLMs) ¡ª seja RAG ou agentes aut?nomos ¡ª o Graphiti permite reten??o de longo prazo e racioc¨ªnio baseado em estado.
-
38. Helicone
Semelhante ao Langfuse, Weights & Biases e ao Arize Phoenix, ¨¦ uma plataforma gerenciada de LLMOps projetada para atender ¨¤ crescente demanda empresarial por gerenciamento de custos de modelos de linguagem de grande porte (LLM), avalia??o de ROI e mitiga??o de riscos. Com foco nas desenvolvedoras e de c¨®digo aberto, o Helicone suporta aplica??es de IA prontas para produ??o, oferecendo experimenta??o com prompts, monitoramento, depura??o e otimiza??o ao longo de todo o ciclo de vida do LLM. Ele permite a an¨¢lise em tempo real de custos, utiliza??o, desempenho e rastreamentos de pilha agentes em diversos provedores de LLM. Embora simplifique o gerenciamento de opera??es de LLM, a plataforma ainda est¨¢ em desenvolvimento e pode exigir algum conhecimento especializado para aproveitar completamente seus recursos avan?ados. Nossa equipe tem utilizado a plataforma com boas experi¨ºncias at¨¦ agora.
-
39. Humanloop
¨¦ uma plataforma emergente focada em tornar sistemas de IA mais confi¨¢veis, adapt¨¢veis e alinhados com as necessidades das usu¨¢rias, integrando feedback humano nos principais pontos de decis?o. Ela oferece ferramentas para rotulagem humana, aprendizado ativo e ajuste fino com a estrat¨¦gia ¡°human in the loop¡±, bem como avalia??o de um modelo de linguagem de grande porte (LLM) em rela??o aos requisitos de neg¨®cio. Al¨¦m disso, ela ajuda a gerenciar o ciclo de vida financeiro das solu??es de GenIA com maior controle e efici¨ºncia. A Humanloop suporta colabora??o atrav¨¦s de um espa?o de trabalho compartilhado, gerenciamento de prompts com controle de vers?o e integra??o com CI/CD para prevenir regress?es. Ela tamb¨¦m disponibiliza fun??es de observabilidade como rastreamento, logging, alertas e prote??es para monitorar e otimizar o desempenho da IA. Essas capacidades a tornam relevante para organiza??es que est?o implementando IA em dom¨ªnios regulados ou de alto risco em que a supervis?o humana ¨¦ essencial. Com seu foco em pr¨¢ticas de IA respons¨¢veis, vale a pena avaliar a Humanloop para equipes que buscam construir sistemas de IA escal¨¢veis e ¨¦ticos.
-
40. Model Context Protocol (MCP)
Um dos maiores desafios em fazer prompts ¨¦ garantir que a ferramenta de IA tenha acesso a todo o contexto relevante para a tarefa. Muitas vezes, esse contexto j¨¢ existe nos sistemas que usamos todos os dias: wikis, rastreadores de problemas, bancos de dados ou sistemas de observabilidade. A integra??o perfeita entre as ferramentas de IA e essas fontes de informa??o pode melhorar significativamente a qualidade dos resultados gerados pela IA.
O (MCP), um padr?o aberto lan?ado pela Anthropic, fornece um framework padronizado para a integra??o de aplica??es LLM com fontes de dados e ferramentas externas. Ele define servidores e clientes MCP, em que os servidores acessam as fontes de dados e os clientes integram e usam esses dados para aprimorar os prompts. Muitos assistentes de c¨®digo j¨¢ implementaram integra??o com o MCP, o que lhes permite atuar como clientes do MCP.
Os servidores MCP podem ser executados de duas maneiras: localmente, como um processo Python ou Node em execu??o no computador das usu¨¢rias, ou remotamente, como um servidor ao qual o cliente MCP se conecta via SSE (embora n?o tenhamos visto ainda nenhum uso da variante de servidor remoto). Atualmente, o MCP ¨¦ usado principalmente da primeira forma, com desenvolvedoras clonando de de c¨®digo aberto. Embora os servidores executados localmente ofere?am uma maneira simples de evitar depend¨ºncias de terceiros, eles permanecem menos acess¨ªveis a usu¨¢rias n?o t¨¦cnicas e apresentam desafios como governan?a e gerenciamento de atualiza??es. Dito isso, ¨¦ f¨¢cil imaginar como esse padr?o poderia evoluir para um ecossistema mais maduro e amig¨¢vel no futuro.
-
41. Open WebUI
¨¦ uma plataforma de IA de c¨®digo aberto e auto-hospedada, com um conjunto vers¨¢til de recursos. Ele suporta APIs compat¨ªveis com OpenAI e integra-se a provedores como OpenRouter e , entre outros. Pode rodar totalmente offline ao se conectar a modelos locais ou auto-hospedados via Ollama. Open WebUI inclui suporte nativo para RAG, permitindo intera??es com documentos locais e da web por meio de uma experi¨ºncia conversacional. Ele oferece controles RBAC granulares, possibilitando definir quais modelos e recursos da plataforma estar?o dispon¨ªveis para diferentes grupos de usu¨¢rios. A plataforma ¨¦ extens¨ªvel por meio do ¡ª blocos de constru??o em Python que personalizam e expandem suas funcionalidades. Outro recurso importante ¨¦ a , que inclui um ambiente de compara??o lado a lado para testar diferentes modelos de linguagem de grande porte (LLMs) em tarefas espec¨ªficas. Open WebUI pode ser implantado em diferentes escalas ¡ª desde um assistente de IA pessoal at¨¦ um assistente de colabora??o para equipes ou uma plataforma de IA em n¨ªvel empresarial.
-
42. pg_mooncake
¨¦ uma extens?o do PostgreSQL que adiciona armazenamento em colunas e execu??o vetorizada. Tabelas de armazenamento de colunas s?o armazenadas como tabelas Iceberg ou Delta Lake no sistema de arquivos local ou armazenamento em nuvem compat¨ªvel com S3. pg_mooncake suporta carregamento de dados a partir de formatos de arquivo como Parquet, CSV e at¨¦ mesmo os conjuntos de dados do Hugging Face. Pode ser uma boa op??o para an¨¢lises pesadas de dados que normalmente exigem armazenamento em colunas, pois elimina a necessidade de adicionar tecnologias dedicadas de armazenamento de colunas ¨¤ sua stack.
-
43. Modelos de racioc¨ªnio
Um dos avan?os mais significativos da IA desde o ¨²ltimo Radar foi o surgimento e prolifera??o dos modelos de racioc¨ªnio. Tamb¨¦m comercializados como modelos de pensamento, esses modelos alcan?aram desempenho de alto n¨ªvel humano em como matem¨¢tica avan?ada e programa??o.
Modelos de racioc¨ªnio s?o geralmente treinados por meio de aprendizado por refor?o ou ajuste fino supervisionado, aprimorando capacidades como pensamento passo a passo (), explora??o de alternativas () e . Exemplos incluem / da OpenAI, DeepSeek R1 e . No entanto, esses modelos devem ser vistos como uma categoria distinta de modelos de linguagem de grande porte (LLMs), em vez de simplesmente vers?es mais avan?adas.
Essa capacidade aumentada tem um custo. Modelos de racioc¨ªnio exigem maior tempo de resposta e maior consumo de tokens, levando-nos a cham¨¢-los jocosamente de IA mais lenta (como se a IA atual j¨¢ n?o fosse lenta o suficiente). Nem todas as tarefas justificam essa troca. Para tarefas mais simples, como sumariza??o de texto, gera??o de conte¨²do ou chatbots de resposta r¨¢pida, LLMs de uso geral continuam sendo a melhor escolha. Aconselhamos o uso de modelos de racioc¨ªnio em ¨¢reas STEM (ci¨ºncia, tecnologia, engenharia e matem¨¢tica), resolu??o de problemas complexos e tomada de decis?es ¡ª por exemplo, ao usar LLMs como ju¨ªzes ou melhorar a explicabilidade por meio de sa¨ªdas CoT expl¨ªcitas. No momento em que escrevemos este texto, o Claude 3.7 Sonnet, um modelo de racioc¨ªnio h¨ªbrido, havia acabado de ser , sugerindo uma poss¨ªvel fus?o entre LLMs tradicionais e modelos de racioc¨ªnio.
-
44. Restate
¨¦ uma plataforma de execu??o dur¨¢vel, similar ao Temporal, desenvolvida pelas criadoras originais do Apache Flink. Em termos de funcionalidades, oferece workflows como c¨®digo, processamento de eventos com estado, o padr?o saga e m¨¢quinas de estado dur¨¢veis. Escrito em Rust e implantado como um ¨²nico bin¨¢rio, ele usa um log distribu¨ªdo para registrar eventos, implementado com um algoritmo de consenso virtual baseado no ; isso garante durabilidade em caso de falha de n¨®. H¨¢ kits de desenvolvimento de software (SDKs) dispon¨ªveis para as linguagens mais comuns: Java, Go, Rust e TypeScript. Ainda recomendamos evitar transa??es distribu¨ªdas em sistemas distribu¨ªdos, devido ¨¤ complexidade adicional e ao inevit¨¢vel aumento da sobrecarga operacional. No entanto, se voc¨º n?o puder evit¨¢-las no seu ambiente, vale a pena avaliar esta plataforma.
-
45. Supabase
O ¨¦ uma alternativa de c¨®digo aberto ao Firebase para a cria??o de backends escal¨¢veis e seguros. Ele oferece um conjunto de servi?os integrados, incluindo um banco de dados PostgreSQL, autentica??o, APIs instant?neas, Edge Functions, assinaturas em tempo real, armazenamento e embeddings vetoriais. O objetivo do Supabase ¨¦ simplificar o desenvolvimento de backend, permitindo que as desenvolvedoras se concentrem na cria??o de experi¨ºncias de frontend, aproveitando o poder e a flexibilidade das tecnologias de c¨®digo aberto. Ao contr¨¢rio do Firebase, o Supabase foi desenvolvido com base no PostgreSQL. Se estiver trabalhando em prot¨®tipos ou em um MVP, vale a pena consider¨¢-lo, pois ser¨¢ mais f¨¢cil migrar para outra solu??o SQL ap¨®s o est¨¢gio de prototipagem.
-
46. Synthesized
Um desafio comum no desenvolvimento de software ¨¦ gerar dados de teste para ambientes de desenvolvimento e de teste. Idealmente, dados de teste devem se assemelhar o m¨¢ximo poss¨ªvel aos dados de produ??o, garantindo, ao mesmo tempo, que nenhuma informa??o pessoalmente identific¨¢vel ou sens¨ªvel seja exposta. Embora isso possa parecer simples, a gera??o de dados de teste est¨¢ longe de ser trivial. ? por isso que estamos interessadas no ¡ª uma plataforma capaz de mascarar e criar subconjuntos de dados de produ??o existentes ou gerar dados sint¨¦ticos estatisticamente relevantes. Ele se integra diretamente aos pipelines de build e oferece mascaramento de privacidade, fornecendo anonimiza??o por atributo por meio de t¨¦cnicas irrevers¨ªveis de ofusca??o de dados, como hashing, randomiza??o e binning. Al¨¦m disso, o Synthesized pode gerar grandes volumes de dados sint¨¦ticos para testes de performance. Apesar de incluir os recursos obrigat¨®rios de GenAI, sua funcionalidade principal aborda um desafio real e persistente para as equipes de desenvolvimento, o que faz da plataforma algo que vale a pena explorar.
-
47. Tonic.ai
faz parte de uma tend¨ºncia crescente de plataformas projetadas para gerar dados sint¨¦ticos realistas e desidentificados para ambientes de desenvolvimento, testes e QA. Semelhante ao Synthesized, o Tonic.ai ¨¦ uma plataforma com uma ampla su¨ªte de ferramentas que endere?a diversas necessidades de s¨ªntese de dados, em contraste com a abordagem mais focada em bibliotecas do Syntethic Data Vault. O Tonic.ai gera dados estruturados e n?o estruturados, mantendo as propriedades estat¨ªsticas de produ??o de dados enquanto garante privacidade e conformidade por meio de t¨¦cnicas de privacidade diferenciadas. Seus principais recursos incluem detec??o, classifica??o e remo??o autom¨¢tica de informa??es sens¨ªveis em dados n?o estruturados, al¨¦m do provisionamento sob demanda de banco de dados atrav¨¦s do Tonic Ephemeral. Ela tamb¨¦m oferece o Tonic Textual, um data lakehouse seguro que auxilia desenvolvedoras de IA a aproveitar os dados n?o estruturados para sistemas de gera??o aumentada por recupera??o (RAG) e ajuste fino de modelos de linguagem de grande porte (LLMs). Equipes que querem acelerar velocidade da engenharia enquanto geram dados realistas e escal¨¢veis ¡ª cumprindo requisitos rigorosos de privacidade de dados ¡ª deveriam avaliar o Tonic.ai.
-
48. turbopuffer
O ¨¦ um mecanismo de busca multi-tenant e sem servidor que integra perfeitamente buscas de vetor e de texto em armazenamento de objetos. N¨®s gostamos de sua arquitetura e , especialmente por seu foco em durabilidade, escalabilidade e efici¨ºncia de custo. Ao usar o armazenamento de objetos como um log de escrita antecipada (write-ahead log) enquanto mant¨¦m seus n¨®s de consulta sem estado, ele ¨¦ adequado para cargas de trabalho de busca em larga escala.
Projetado para performance e precis?o, o turbopuffer entrega nativamente, at¨¦ mesmo para consultas complexas baseadas em filtros. Ele armazena em cache os resultados de consultas frias em SSDs NVMe e mant¨¦m os namespaces frequentemente acessados em mem¨®ria, permitindo buscas de baixa lat¨ºncia em bilh?es de documentos. Isso o torna ideal para recupera??o de documentos em , busca vetorial e gera??o aumentada por recupera??o (RAG) em aplica??es de IA. Entretanto, sua depend¨ºncia por armazenamento de objetos introduz compensa??es na lat¨ºncia das consultas, fazendo com que ele seja mais eficaz para cargas de trabalho que se beneficiam de computa??o distribu¨ªda sem estado.
O turbopuffer alimenta sistemas de produ??o de grande escala como o Cursor mas atualmente est¨¢ dispon¨ªvel apenas por .
-
49. VectorChord
¨¦ uma extens?o do PostgreSQL para pesquisa de similaridade vetorial, desenvolvida pelas criadoras do pgvecto.rs como sua sucessora. ? de c¨®digo aberto, compat¨ªvel com tipos de dados do pgvector e projetada para pesquisa vetorial de alto desempenho e com efici¨ºncia de disco. Ela emprega Inverted File Index (IVF) junto com quantiza??o para permitir uma busca vetorial r¨¢pida, escal¨¢vel e precisa, ao mesmo tempo que reduz significativamente as demandas de computa??o. Como outras extens?es do PostgresSQL neste espa?o, ela aproveita o ecossistema do PostgreSQL, permitindo a busca de vetores junto com opera??es transacionais padr?o. Embora ainda esteja em seus est¨¢gios iniciais, vale a pena avaliar o VectorChord para cargas de trabalho de busca de vetores.
Evite
-
50. Tyk hybrid API management
Observamos que v¨¢rias equipes t¨ºm enfrentado problemas com a solu??o . Embora o conceito de um plano de controle gerenciado e planos de dados autogerenciados ofere?a flexibilidade para infraestruturas complexas (como multi-cloud e h¨ªbrida), equipes relataram incidentes no plano de controle que foram descobertos internamente, e n?o pela Tyk, evidenciando poss¨ªveis lacunas de observabilidade no ambiente Tyk hospedado na AWS. Al¨¦m disso, o suporte para incidentes parece ser lento; a comunica??o via tickets e e-mails n?o ¨¦ ideal nessas situa??es. As equipes tamb¨¦m apontaram quest?es relacionadas ¨¤ maturidade da documenta??o da Tyk, frequentemente considerada insuficiente para cen¨¢rios e problemas mais complexos. Adicionalmente, outros produtos do ecossistema Tyk aparentam imaturidade ¡ª por exemplo, foi relatado que o portal para desenvolvedoras na vers?o empresarial n?o ¨¦ retrocompat¨ªvel e possui capacidades limitadas de customiza??o. Especialmente para a configura??o h¨ªbrida da Tyk, recomendamos cautela e continuaremos acompanhando sua evolu??o.
N?o encontrou algo que voc¨º esperava achar?
?
Cada edi??o do Radar inclui blips que refletem nossas experi¨ºncias nos seis meses anteriores. Talvez j¨¢ tenhamos falado sobre o que voc¨º procura em um?Radar anterior. ?s vezes, deixamos coisas de fora simplesmente porque h¨¢ muitas a serem abordadas. Tamb¨¦m pode faltar um t¨®pico espec¨ªfico porque o Radar reflete nossa experi¨ºncia, n?o se baseando em uma an¨¢lise abrangente do mercado.

