Depois da publicação da série O Fim das Squads, que gerou discussões intensas sobre estruturas organizacionais mais adaptativas à era da IA, percebi que muitos leitores se concentraram quase exclusivamente na proposta de pares ou trios em rede. Embora esse modelo tenha, de fato, se mostrado eficaz na prática, especialmente em contextos onde a integração entre humanos, copilotos e agentes inteligentes é cada vez mais simétrica, o que me motivou a escrever aquela série não foi apenas a proposta estrutural mas, sobretudo, a forma de chegar até ela.
Na FebrabanTech desse ano, que aconteceu na última semana em São Paulo, o Prêmio Nobel de Economia Paul Romer alertou com veemência que, aqueles que estão considerando investir em IA, não escutem deliberadamente os engenheiros e as empresas de tecnologia que estão interessadas em vender o que estão criando. A recomendação é para que cada empresa faça seus próprios experimentos, sempre de forma alinhada à ciência.

A série O Fim das Squads é, na verdade, exatamente sobre isso: considerando a inegável complexidade adicionada pela IA no nosso contexto organizacional e social, como fazer experimentação e sondagem de acordo com a ciência da complexidade. E aqui entra o que considero uma das peças mais fundamentais do nosso arsenal conceitual do ecossistema Cynefin: os Safe-to-Fail Probes.
Sobre práticas estabelecidas
Tenho dito que se alguém ainda não aprendeu sobre ciência da complexidade com a pandemia, terá que aprender agora com a chegada da IA. Afinal, você conhece alguém capaz de prever como estará o contexto dessa tecnologia daqui a 1 ano, 6 meses ou até 1 mês? Tudo pode acontecer da noite para o dia, literalmente.
Nas transformações, muitas vezes modelos são adotados como pacotes prontos, replicados em diferentes contextos sob a ilusão de que se trata de boas práticas livres de contexto. Isso se torna ainda mais perigoso quando espaço e tempo são complexos. Nesse caso, apenas tolos, mentirosos ou mesmo narcisistas afirmam conhecer a melhor prática.
Não é que boas ou melhores práticas não existam e que tenhamos que eternamente “reinventar a roda”, elas existem e são extremamente úteis. Mas isso, quando já tivermos clareza suficiente para definir novos padrões e que haja uma estabilidade contextual, o que no Cynefin® Framework chamamos de contextos ordenados (domínios Claro e Complicado).
No entanto, em ambientes complexos, onde a incerteza é explícita e causa e efeito só podem ser compreendidos em retrospecto, essa abordagem não só é ineficaz, como é perigosa. É aqui que o Cynefin® Framework oferece uma alternativa radical: parar de buscar previsibilidade e passar a criar condições para o surgimento de padrões úteis por meio de sondagem e experimentação.
No domínio Complexo do Cynefin, aquele em que a relação entre ação e resultado é ambígua, instável e sensível ao contexto, a estratégia recomendada não é “analisar para depois agir”, mas sim sondar (experimentar), sentir (observar padrões) e responder (ajustar com base no que emerge). É dentro desse ciclo que os Safe-to-Fail Probes se tornam não apenas úteis, mas indispensáveis. Eles não são protótipos no sentido tradicional, tampouco MVPs ou iniciativas piloto com ambições de escalabilidade previsível. São, antes de tudo, intervenções exploratórias com limites claros de impacto, estruturadas a partir da ciência da complexidade e desenhadas para permitir que o sistema nos surpreenda, positivamente ou negativamente, sem que uma falha comprometa sua integridade.

De “não falhar” ou “falhar rápido” para “seguro para falhar”
Uma sondagem é considerada “segura para falhar” quando cumpre alguns critérios fundamentais. Primeiro, ela precisa partir de uma hipótese, ainda que intuitiva, que direcione a ação inicial. Depois, deve haver critérios explícitos para identificar sinais de sucesso ou de fracasso — não necessariamente métricas rígidas, mas indicadores sensíveis o bastante para captar movimentos do sistema. O escopo deve ser limitado: um time, uma filial, um turno, uma comunidade, uma estrutura social. O experimento precisa ser monitorado de perto, e o seu desenho deve prever, desde o início, mecanismos de amplificação (caso algo comece a dar certo), estancamento (caso os sinais sejam negativos), decomposição e recombinação (caso ajustes estruturais precisem ser feitos) e exaptação (caso o experimento, ou parte dele, se mostre útil em outro lugar). A ideia não é apenas testar, mas testar de forma que qualquer aprendizado possa ser aproveitado — mesmo quando o resultado não for o esperado.
É importante destacar que Safe-to-Fail não significa “falhar por falhar”. Não se trata de celebrar o erro em nome da inovação, como algumas distorções do discurso do “fail fast” (muito popular no mundo das startups) acabam promovendo. Trata-se de reconhecer que, em ambientes complexos, o erro não é opcional mas sim inevitável. E se é inevitável, é melhor que ocorra em condições onde o impacto é contido e o aprendizado é maximizado. É por isso que preferimos falar em fail-fast no domínio ordenado, e safe-to-fail no domínio complexo. É uma inversão de filosofia: enquanto no primeiro o risco de suposição de causalidade é altíssimo já que se busca uma descoberta rápida dentro de condições pré-estabelecidas, no segundo, há um design ativo de experimentos que abre múltiplas possibilidades e caminhos.

A prática mostra que essa abordagem é poderosa justamente porque evita apostas únicas. Quando conduzimos um portfólio de Safe-to-Fail Probes, estamos explorando o sistema por múltiplos ângulos ao mesmo tempo. Essa simultaneidade é crítica. Em vez de seguir uma linha evolutiva única – que quase sempre está enviesada, contaminada ou mal ajustada ao contexto, multiplicamos as vias possíveis, criamos espaço para diversidade interpretativa e aceleramos a detecção de padrões emergentes. O sistema começa a responder e nos conta, em linguagem própria, o que parece promissor e o que deve ser interrompido.
Quando utilizar
No trabalho com clientes, costumamos usar Safe-To-Fail Probes em momentos de travamento estratégico – seja nos negócios, tecnologia, cultura ou modelos e estruturas de trabalho. Ou seja, nas situações quando – se formos honestos – admitiremos que não há clareza sobre o que fazer a seguir.
No estudo de caso mencionado anteriormente, substituímos o debate sobre “qual estrutura adotar” por uma sequência de sondagens em diferentes produtos, de forma contextualizada, testando alternativas de coordenação, formas de relacionamento com IA, combinações de papéis. Ao invés de nos debruçarmos em comitês ou grupos de trabalho, deixamos que o sistema nos mostrasse, com suas respostas reais, quais configurações ele tolerava, rejeitava ou amplificava. O resultado foi uma arquitetura emergente, progressiva e enraizada na realidade vivida.
É também por essa razão que Safe-to-Fail Probes não devem ser conduzidos de forma isolada ou descolados do contexto, e nem liderados por aqueles apaixonados por uma ou outra tese que precise ser sondada. Eles requerem uma preparação mínima: entender o terreno, escutar as histórias, captar sinais fracos. Dave Snowden, fundador da The Cynefin Co. e criador do Cynefin® Framework, costuma lembrar que é preciso aplicar “testes de coerência” antes de investir energia em uma ou outra sondagem. Isso significa verificar se a ideia é ética, plausível, bem desenhada, alinhada com o propósito e com o momento do sistema. Só então ela pode ser transformada em experimento. Isso evita que o entusiasmo com a experimentação gere mais ruído do que sentido.
Conclusão
Ao final, o verdadeiro valor das Safe-to-Fail Probes não está apenas naquilo que essas sondagens nos ajudam a descobrir, mas na cultura que elas instalam. Uma cultura onde falhar não é nem tabu nem glamour, mas uma possibilidade legítima; onde a aprendizagem não depende de retrospectivas tardias, mas acontece durante o percurso; onde a estratégia deixa de ser um plano fechado e passa a ser uma conversa contínua entre intenção e realidade. Nesse ambiente, agir sem garantias não é mais um risco descontrolado, é uma prática sofisticada de escuta ativa, humildade organizacional e adaptação real.
Em tempos de novos capítulos para a transformação, que muitos julgaram que seria finalizada com a implantação de squads e migração para cloud, nos deparamos com uma tecnologia que desafia nossas premissas mais básicas.
Nesse caso, talvez a maior ousadia não seja inventar um novo modelo, mas sim criar as condições para descobri-lo com segurança. E isso começa com um pequeno gesto: experimentar de forma alinhada à ciência da complexidade— não porque sabemos o que vai acontecer, mas precisamente porque não sabemos. E precisamos aprender.