Os desenvolvedores agora podem depurar e avaliar agentes de IA localmente com a ferramenta de código aberto Workshop do Raindrop

Os desenvolvedores agora podem depurar e avaliar agentes de IA localmente com a ferramenta de código aberto Workshop do Raindrop

Novo código aberto da startup de observabilidade Raindrop AI, licenciado pelo MIT "Oficina" A ferramenta, lançada hoje, oferece aos desenvolvedores algo que eles provavelmente desejavam, talvez inconscientemente, desde que a era da IA ​​de agente começou para valer no ano passado: um depurador local e uma ferramenta de avaliação projetada especificamente para agentes de IA, permitindo que os desenvolvedores vejam todos os vestígios do que seu agente tem feito em um único e leve arquivo de banco de dados de linguagem de consulta estruturada (SQL) (.db)

Ele funciona como um daemon local e UI que transmite cada token, chamada de ferramenta e decisão para um painel local – normalmente hospedado em localhost:5899– no momento em que ocorre. Ao visitar seu host local, os desenvolvedores podem ver tudo o que seu agente estava fazendo – incluindo erros ou erros – e identificar o que deu errado, quando e, idealmente, discernir o porquê. Tudo é armazenado em um único arquivo .db, que ocupa relativamente pouca memória, de acordo com uma mensagem direta X que VentureBeat recebeu de Ben Hylak, cofundador e CTO da Raindrop (e ex-engenheiro da Apple e SpaceX).

Essa telemetria em tempo real elimina a latência da pesquisa tradicional e aborda uma preocupação crescente dos desenvolvedores em relação à privacidade do envio de rastreamentos locais para servidores externos.

A ferramenta está disponível para macOS, Linux e Windows. Ele pode ser instalado por meio de um comando shell de uma linha que automatiza o posicionamento binário e a configuração PATH para shells bash, zsh e fish. Para desenvolvedores que preferem construir a partir do código-fonte, o repositório está hospedado no GitHub e utiliza o tempo de execução Bun.

O produto: estabelecendo um ciclo de avaliação de autocura

O destaque da plataforma é o "loop de avaliação de autocura," que permite que agentes de codificação como Claude Code leiam rastreamentos, escrevam avaliações na base de código e consertem códigos quebrados de forma autônoma.

Numa aplicação prática, se um agente assistente veterinário não fizer as perguntas de acompanhamento necessárias, o Workshop captura a trajetória completa. Claude Code então lê esse rastreamento, escreve uma avaliação específica, identifica o erro lógico no prompt ou código e executa novamente o agente até que todas as asserções sejam aprovadas.

Compatibilidade e integração do ecossistema

O Workshop é compatível com uma ampla variedade de linguagens de programação, incluindo TypeScript, Python, Rust e Go.

Ele se integra a SDKs e estruturas populares, como Vercel AI SDK, OpenAI, Anthropic, LangChain, LlamaIndex e CrewAI. Ele também foi projetado para funcionar perfeitamente com vários agentes de codificação, incluindo Claude Code, Cursor, Devin e OpenCode.

Licenciamento e implicações comunitárias

O Workshop é lançado sob a licença MIT, garantindo que permaneça gratuito e de código aberto para todos os usuários. Este licenciamento permissivo destina-se a promover a contribuição da comunidade e permitir que os utilizadores empresariais mantenham a soberania dos dados.

Hylak observou no X que a ferramenta foi construída para fornecer um "são" maneira de depurar agentes localmente, mudando a forma como sua equipe e os primeiros clientes constroem sistemas autônomos.

Para comemorar o lançamento, a Raindrop ofereceu mercadorias físicas de edição limitada aos usuários que instalaram a ferramenta e executaram um determinado "pingar" comando.



Fonte ==> Cyberseo

Relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *