Já publiquei muitas vezes sobre a questão da proverbial cauda longa. A primeira vez foi depois que vários de nós, incluindo Max Boisot, estivemos envolvidos em um workshop na Academy, em 2010. Um post convidado de Pierpaolo fornece uma base sólida sobre o tema, e há também uma apresentação no YouTube que utiliza a distinção entre distribuições Gaussianas e de Pareto no contexto de risco e resiliência. Eu provavelmente deveria atualizar isso, mas está tudo bem por enquanto.
Para encurtar a história, o uso de regras pressupõe uma correlação entre retrospectiva e prospectiva, permitindo-nos descobrir e analisar corretamente informações relevantes. Isso muitas vezes é verdade, pois o padrão de eventos passados tende a seguir uma distribuição Gaussiana, a onipresente curva em sino. Porém, em muitos casos, quando os eventos podem ser atribuídos a uma Lei de Potência, a distribuição é do tipo Pareto, e existe uma cauda muito “gorda” de exceções à regra. Nessas circunstâncias, embora os eventos no centro de qualquer uma das distribuições sejam previsíveis, na cauda longa eles não são; trata-se de complexidade, e a única coisa que podemos afirmar com certeza é que haverá consequências não intencionais. Esse é o domínio da antecipação (forethought) e, como veremos, da tomada de decisão distribuída.
Isso ficou muito claro para mim alguns anos atrás em um projeto com o SenseMaker®, que demonstrou que a principal causa de colapso mental entre trabalhadores dos serviços de emergência (Blue Light workers – motoristas de ambulância, bombeiros, esquadrões armados da polícia) eram as próprias regras de segurança. Essas regras haviam sido desenvolvidas para o centro de uma distribuição Gaussiana, mas a maior parte da vida desses profissionais se desenrolava nas caudas de uma distribuição de Pareto. Aliás, isso não terminou bem para nós. Um oficial de polícia de altíssimo escalão me informou que essa conclusão era inaceitável. Havíamos sido contratados para recomendar um programa de mindfulness, essencialmente uma forma de marcar uma caixa e devolver a responsabilidade à vítima. Evidência orientada por políticas, e não políticas orientadas por evidências – algo infelizmente muito comum no governo.
Há um lugar para regras, mas sua aplicação não é universal e, quando aplicadas no contexto errado, tornam-se um risco à vida e à integridade física.
Isso é compreensível, mas …
Existe um fascínio pelas regras: claras, escaláveis e tranquilizadoras; se algo dá errado, o infrator da regra pode ser responsabilizado. Regras prometem controle ao reduzir a ambiguidade. A maioria dos resultados se concentra nesses territórios previsíveis, mas o que está em jogo de verdade vive nas caudas longas: cenários dependentes do contexto em que prescrições rígidas falham, muitas vezes de forma catastrófica.
Regras não criam ordem; elas codificam aquilo que funcionou no passado. Em ambientes dinâmicos, um tipo diferente de estabilidade emerge a partir de interações que evoluem ao longo do tempo. Rituais, heurísticas e adaptações de papéis que as profissões desenvolvem com a prática. Aprendizados por meio de apprenticeship, por exemplo, treinam pessoas para improvisar dentro de princípios, não para obedecer cegamente. Ainda assim, organizações modernas frequentemente invertem essa lógica, tratando regras como alavancas causais, e não como registros frágeis de sucessos históricos.
O problema da codificação prematura
Este texto não é contra regras; é contra o fetichismo ingênuo das regras. Quando confundimos regras com governança eficaz, podemos nos meter em dificuldades reais. Entre elas:
1. Congelar o contexto
Ao assumir que o mundo é estático — quando exceções são a regra —, o excesso de restrições força funcionários a criar atalhos para conseguir realizar o trabalho. Na prática, muitas organizações dependem disso (incluindo o NHS), mas, de forma hipócrita, quando algo dá errado, o indivíduo é punido.
2. Incentivar jogos de conformidade
As pessoas passam a otimizar o cumprimento da regra, não a intenção por trás dela. Na educação, vemos professores ensinando para a prova em vez de educar; ou gestores batendo metas de diversidade por meio de contratações simbólicas. A variação de Marilyn Strathern sobre a Lei de Goodhart entra em ação: quando uma medida se torna um alvo, ela deixa de ser uma boa medida.
3. Obscurecer padrões reais
Ao focar em violações, perdemos de vista interações sistêmicas. Com frequência, culpamos o último ponto de falha, em vez das múltiplas falhas latentes — técnicas e de equipe — que a precederam.
4. Cegueira procedimental
Decorrente da complacência; listas de verificação às vezes aumentam o risco ao desviar a atenção de sinais contextuais. As pessoas cumprem controles explícitos enquanto deixam passar ameaças latentes.
5. Supressão da inovação
Ocorre quando regras rígidas impedem a experimentação. As equipes aprendem a esconder desvios — que deveriam ser críticos para a inovação — e o whistleblowing quase sempre tem consequências negativas. Por isso, só acontece em situações extremas e tarde demais (aliás, desenvolvemos novas capacidades no SenseMaker para relatos em estágio inicial e divulgação de padrões, para quem se interessar).
6. Teatro da conformidade
Resposta comum a falhas passadas, com camadas de papelada e auditorias de compliance. Com frequência, o foco está em preencher formulários, não no desempenho e no comportamento das pessoas sob estresse.
7. Erosão da confiança
Ocorre em muitos níveis, e punir a não conformidade pode levar à manipulação do sistema. Lembro de um projeto na Colúmbia Britânica em que a implementação de uma regra de “três faltas e exclusão” para violações de segurança por gestores levou trabalhadores a ocultar falhas. Se as regras não funcionam no contexto operacional, as pessoas contornam-nas, e esse comportamento se torna habitual.
Esses sistemas assumem que incidentes decorrem de quebra de regras, quando, na complexidade, interações imprevisíveis dominam. O resultado é que as regras parecem (ou são feitas para parecer) funcionar — até que deixam de funcionar, falhando de forma catastrófica.
Uma alternativa informada pela complexidade
Reiterando: não há nada de errado com regras em situações ordenadas e, até certo ponto, no domínio liminar do complexo no Cynefin. Assim, a primeira pergunta a ser feita é: isso é complexo ou ordenado? Como princípio geral, regras deveriam codificar boas práticas existentes, e não tentar criá-las do zero. Podemos usar regras como condições de contorno, criando um recipiente flexível em vez de um rígido. Isso pode significar que a regra entra em vigor ao cruzarmos um limite, ou que seja abandonada em outro contexto, substituída por uma abordagem diferente.
Então, quais são as alternativas?
1. Adaptar princípios de alta confiabilidade
Com foco em interações ritualizadas entre papéis, não em controle hierárquico. Tripulações (crews), não apenas equipes, são onde a prática é treinada e ritualizada. Pense em uma sala de cirurgia ou em um avião: as pessoas são treinadas em seus papéis e expectativas, e também existem algumas regras. Não é coincidência que áreas médicas e militares — inclusive organizações شبه-militares — utilizem tripulações.
2. Identificar decisões críticas
Para mapear onde as regras falham de forma consistente, evidenciando a “cauda longa” das distribuições de Pareto. Em seguida, substituir protocolos rígidos por heurísticas que, idealmente, codifiquem o que já existe. Nosso processo de knowledge mapping pode fazer isso pontualmente ou por varredura contínua no SenseMaker® Genba.
3. Simular a cauda longa
Por meio de modelagem (que pode utilizar IA para testar cenários raros, não apenas médias). Também desenvolvemos o processo de anthro-simulation, que conduz equipes por múltiplas soluções nas quais o fracasso é inevitável, registrando narrativas ao longo do caminho. Isso permite identificar onde regras são sustentáveis ou não, possibilita que heurísticas emerjam em ambientes seguros e, de forma crítica, quando executado regularmente, leva essas heurísticas a se tornarem reflexivas. O processo também cria bancos de piores práticas, que costumam gerar muito mais interesse do que as práticas “anódinas” da governança corporativa.
4. Transformar regras em declarações “do Case”
Definindo o que as pessoas devem fazer em todos os casos conhecidos (tente limitar a cinco) e, se nada disso se aplicar, convocar um grupo específico de papéis para decidir e documentar. Fiz isso uma vez ao escrever um documento ISO 9001, e o resultado foi um documento muito mais enxuto e com melhor adoção do que o livro de regras tradicional.
5. Distribuir a tomada de decisão e a alocação de recursos
Em redes. Este é um ponto grande. Vamos lançar um novo método — em desenvolvimento há uma década — como parte do framework WRAS (weaving risk and strategy). Ele será disponibilizado inicialmente para membros premium da rede e lançado publicamente no outono. Eu o antecipei em um post há dois anos. Estou muito entusiasmado com seu potencial, pois pode melhorar significativamente a qualidade e a velocidade da tomada de decisão, reduzindo custos de forma considerável. Confiança e auditabilidade estão embutidas no processo; não exigem admoestações éticas, simplesmente existem. Por ora, considere isso um placeholder — mais novidades virão, e provavelmente anunciaremos um clube de desenvolvimento para quem quiser conduzir experimentos.
6. Alertas antecipatórios
Chamam a atenção para questões que poderiam passar despercebidas; este é um uso legítimo de IA. Trabalhamos com o SenseMaker para gerar conjuntos de dados de treinamento a partir de casos simulados ou reais, utilizando sinais fracos iniciais que antes eram ignorados (tanto para sucesso quanto para falha). Conjuntos de dados de treinamento são cruciais para eficácia e aceitação. Esta é uma área de importância crescente.
7. Medir atitudes
Em relação à conformidade em segurança, cibersegurança, decisões éticas e outras áreas. Atitudes são indicadores antecedentes; conformidade é um indicador atrasado. O custo de intervir para mudar atitudes é menor do que o de impor conformidade e ocorre antes do problema, não depois. Facilitamos o início desse trabalho por meio das diversas ofertas QuickSense.
Essa lista não é exaustiva, e não tratei do uso adequado de modelos de apprenticeship, que continuam sendo a melhor forma de induzir hábitos de segurança e também ação moral — pense em Aristóteles, que deixou claro que não é possível escrever regras para todas as decisões morais; em vez disso, por meio da educação e do treinamento, deve-se formar a pessoa virtuosa.
A lição da complexidade
Bons comportamentos emergem com mais frequência de rituais e padrões habituais de ação do que de regras. Ao focar nas interações (humano-humano, humano-IA), construímos sistemas resilientes na cauda longa, onde a maioria dos desastres se esconde. O objetivo não é controle perfeito, mas capacidade adaptativa: a habilidade de reconfigurar papéis e heurísticas quando o imprevisível acontece.