Trilhas

Entre Mente, Corpo e Mundo: o Cynefin® Retreat Brazil 2025 mergulha nos dilemas da IA

Durante três dias, entre as montanhas da Serra da Mantiqueira, o Cynefin® Retreat Brazil 2025 reuniu especialistas e executivos de diversas áreas em Monte Verde (MG) para explorar um tema que desafia fronteiras entre disciplinas: Inteligência Artificial entre Mente, Corpo e Mundo.

O evento segue o formato original criado por Dave Snowden – o Triopticon – concebido para integrar diferentes disciplinas e perspectivas em um processo estruturado, voltado à interação multidisciplinar e à criação de sentido diante de debates de alta densidade.

Na abertura do primeiro dia, transmitida diretamente de Denver (EUA), Snowden contextualizou a escolha do tema, reforçando a importância de ir além do que é tecnologicamente possível para questionar o que é eticamente aceitável, uma lente que acompanhou toda a imersão.

Três especialistas foram convidados a lançar suas provocações sobre o tema, cada um a partir de um campo específico: Guilherme Brockington, Adriana Salles Gomes e Leandro Angelo.

Na sequência, apresentamos uma síntese das principais ideias trazidas por cada um deles.

Teorias da Consciência: panoramas e desafios

“A consciência está onde a atenção está”. 

A exposição do físico e neurocientista Guilherme Brockington conduziu os participantes a uma jornada em torno de um dos maiores mistérios da ciência: a consciência. Partindo de múltiplas abordagens, da biologia celular à mecânica quântica, passando por campos elétricos neurais e neurociência computacional, Brockington apresentou a distância entre a simulação feita pela IA e a experiência subjetiva que caracteriza a consciência. 

Casos como o reconhecimento de si por gralhas (magpies) diante do espelho, a emissão de sinais sonoros (gritos) por plantas para se comunicarem, ou ainda a possiblidade de existência de consciência em pessoas com Alzheimer, foram usados para provocar reflexões sobre o que constitui autoconsciência e emoção, dimensões que, segundo ele, permanecem inalcançáveis para as máquinas.

“A consciência não é computável. O nosso cérebro é analógico, ele não é digital. Ele é contínuo. O analógico, você imagina um tobogã. Ele é contínuo. O digital é uma escada, um degrauzinho. Sim, não, sim, não… Empatia, emoção, consciência, tudo isso não tem como a máquina ter.”

Mais do que apresentar limitações técnicas, Brockington apontou para o real risco: ao nos acostumarmos com modelos digitais binários, poderíamos nós mesmos começar a pensar de forma reducionista, perdendo a complexidade e nuance que caracterizam o pensamento humano.

“O grande drama é que a gente vai começar a pensar de maneira digital. Só sim e não. Preto e branco. E o mundo é cinza. A gente vai perder a nuance, a sutileza. Perder o que torna a gente, gente.”

Embora a consciência humana continue sendo um território inacessível à IA – como estabeleceu Guilherme –, outros participantes argumentaram que o foco exclusivo nessa fronteira pode nos afastar de questões mais práticas e urgentes. Para eles, o debate sobre “o que é ou não inteligência” corre o risco de se tornar uma distração, quando o que está em jogo é como essa tecnologia está, de fato, reconfigurando comportamentos, acelerando decisões e alterando a forma como pensamos, interagimos e aprendemos. A IA, mesmo limitada, já transforma experiências cotidianas e libera capacidade cognitiva, desde que usada com intenção, senso crítico e responsabilidade ética.

Informação e crise na era da IA

Na sequência, Adriana Salles Gomes, jornalista e consultora editorial da MIT Sloan Review Brasil, trouxe o olhar da informação para o centro da discussão.

Sua apresentação conectou os dilemas da inteligência artificial à crise contemporânea da reputação, da verdade e da confiança, elementos essenciais na validação crítica das informações que orientam decisões, reduzem incertezas e permitem agir em contextos complexos.

Adriana articulou conceitos como a Terra Dois, de Jorge Forbes, a policrise contemporânea, um mundo hiperconectado, não-linear e imprevisível, catalisado pela pandemia. A isso, somou a ideia do Cisne Vermelho, de Silvio Meira, posicionando a IA como um agente de disrupção sistêmica: redesenhando padrões, desqualificando competências humanas e adicionando uma nova camada de incerteza ao ambiente decisório.

Ela também apresentou os diferentes grupos que moldam as narrativas sobre IA: dos pós-humanistas (entusiastas incondicionais da tecnologia) aos biodefensores (que operam sob a lógica do medo), passando pelos realistas esperançosos (que acreditam na superioridade das capacidades humanas não algorítmicas), até chegar à maioria das pessoas, que ainda estão alheias sobre o que, de fato, a IA representa.

“O que falta para a IA? … na programação, no desenvolvimento, tem que ter framework filosófico. Não pode ficar assim. E no uso também. Em tudo tem que ter framework filosófico. Que é um outro jeito de falar: tem que ter pensamento crítico.”

Adriana propôs um novo equilíbrio: é preciso considerar a convivência e o entrelaçamento de três formas de inteligência – individual, social e artificial – para que nenhuma prepondere isoladamente. “Seria uma solução: juntá-las.”

“A IA pode ser aliada da informação, para que ela volte a fazer humanos reduzirem incertezas, resolver problemas e tomar decisões.”

Ao destacar os riscos informacionais e éticos da IA, Adriana chamou a atenção para uma crise real de reputação, atenção e profundidade. No entanto, como contraponto, alguns participantes lembraram que a reputação do jornalismo já vinha fragilizada antes do advento da IA, e que a definição do que é “informação válida” depende menos da intenção do emissor e mais do uso que o público faz dela. Em vez de conter a tecnologia, o desafio parece estar em como explorar seus potenciais sem abrir mão do senso crítico, resgatando o valor da ambiguidade e do pensamento complexo.

AI-First

No segundo dia, Leandro Angelo, executivo da CI&T, trouxe à discussão a perspectiva da indústria sobre a chamada AI-First Transformation. Compartilhou práticas adotadas pela empresa ao incorporar a IA internamente, como forma de coerência com aquilo que entrega ao mercado, onde a IA não é apenas uma ferramenta, mas parte central da estratégia de negócio.

Leandro provocou o grupo com uma escolha clara: diante de uma disrupção como a IA, não são apenas os modelos de negócio que se transformam, mas também os comportamentos dos consumidores. Cabe, portanto, às empresas decidirem se irão liderar a transformação ou se tornarão reféns dela.

Hoje, três grandes movimentos estão sendo profundamente impactados pela IA:
1. Eficiência – uso da IA para reduzir drasticamente o tempo e esforço em tarefas operacionais.
2. Hiperpersonalização – aplicação da IA para compreender melhor os consumidores e entregar experiências mais ajustadas.
3. Disrupção – transformação estrutural de mercados e instituições.

“Tem o terceiro ato, que a gente acha que ainda não chegou, que é o que vai disruptar os negócios. O modelo de negócio, como a gente entende hoje, ele vai mudar drasticamente … e tem um impacto na sociedade.”

Para Leandro, não se trata apenas de adotar tecnologia, ainda que isso tenha sua dose de urgência, mas de orquestrar sua aplicação com responsabilidade, envolvendo pessoas, processos e propósito.

“Se eu não encontrar o meu jeito, se eu não fizer o melhor uso dessa tecnologia, o meu concorrente vai. E eu não vou sobreviver no longo prazo.”

Essa visão pragmática, apresentada por Leandro, foi tensionada pelos outros participantes, que alertaram para os riscos da padronização das subjetividades e para a tendência das empresas em priorizar ganhos operacionais em detrimento da experiência humana. Destacaram, ainda, que decisões complexas não podem ser tomadas apenas com base em dados: elas são moldadas por emoções, relações e aspectos não computáveis, ou seja, por aquilo que nos torna humanos. Discutir IA sem contexto é desperdiçar energia; o verdadeiro desafio está em manter o equilíbrio entre inovação técnica e responsabilidade ética. Afinal, quem define os “fundamentos sólidos” dessas transformações, e com quais intenções?

Complexidade aplicada à cocriação

No último dia, os participantes assumiram o papel de criadores e construtores de caminhos possíveis. Aplicando frameworks como o PAGODA – que reúne seis princípios para orientar a gestão da mudança em contextos complexos (Proximidade, Anomalias, Granularidade, Obliquidade, Desintermediação e Abdução/Abstração) –, os grupos desenvolveram protótipos de soluções organizacionais para os dilemas levantados ao longo da imersão.

Entre as propostas elaboradas, destacaram-se:

  • Um programa para utilizar eficiência operacional como antídoto contra o medo (e o hype) em torno da IA.
  • Uma jornada estruturada de apoio a pessoas afetadas por demissões impulsionadas pela automação.
  • Ferramentas para empresas mensurarem o real impacto da IA na experiência de clientes e colaboradores.

Escuta, debate e sentido

Com os olhos voltados para a próxima edição em 2026, o Cynefin Retreat Brazil 2025 cumpriu o seu propósito de criar um espaço estruturado onde especialistas e participantes pudessem cocriar novos caminhos, saindo de suas bolhas e escapando das respostas prontas, diante de um tema tão urgente como a Inteligência Artificial entre Mente, Corpo e Mundo.

“A ciência conversou (e se entendeu) com o mercado – com debate, não com falsos apertos de mão.”

Em breve, serão divulgados materiais aprofundados sobre o que foi percorrido, discutido e proposto ao longo dos três dias de evento.

Explore a sua trilha para transformação

Juntos, descobriremos soluções contextualizadas e adaptaremos práticas para que sua organização e suas equipes sejam bem-sucedidas em todos os cenários de transformação.