Lembro com nitidez da primeira vez que entrei num BBS, em algum momento entre 1993 e 1994, no calor abafado de Belém do Pará. A tela preta, os textos carregando linha por linha, o chiado metálico do modem tentando se conectar. Tudo era novo, misterioso – e, acima de tudo, promissor. Era como descobrir uma porta secreta para um mundo que ainda estava sendo inventado. Hoje, décadas depois, ao abrir o ChatGPT ou experimentar um agente no Gemini, a sensação é a mesma: estamos novamente à beira de algo enorme. Como estivemos com a internet lá atrás.
É impossível não se encantar com muito do que crio junto a IA. A cada semana surgem novos recursos, novas possibilidades, novos choques de realidade. Mas também é impossível não rir de suas trapalhadas e erros ou se assustar com seus vieses muitas vezes questionáveis. Fato é que hoje, IA faz parte do meu dia a dia profissional. Trabalho com ela, aprendo com ela, crio com ela. E não, não me sinto menos humano por isso.
Voltando à origem dessa série de artigos, o desafio era esse: “queremos explorar ao máximo o uso da IA”. Mas aqui entra a pergunta: devemos mesmo fazer isso? Há, de fato, questões morais e legais que assustam em volta de tantas possibilidades que vão de utopias a distopias numa fração de segundos.
Nem vilã, nem salvadora
Pra ser sincero, nos meus estudos, tenho evitado leituras marcadamente enviesadas, tanto as que tratam a IA como a salvação de tudo, recheadas de “dados” que nem os próprios autores parecem acreditar, quanto as que anunciam sua ruína iminente e aceleração ao fim do mundo. Em ambos os casos, o que vejo são opiniões já formadas, usando o “estudo” apenas como instrumento de confirmação. Um padrão cada vez mais comum, aliás, nas discussões polarizadas que costumamos ver na política.
Tenho preferido as perguntas abertas e o o desconforto da dúvida. Prefiro reconhecer que IA não é uma coisa só. Que seu uso e sua consequência deve ser tratada de forma contextualizada, dependendo do propósito, da ética, da estrutura que a sustenta. Que não é sobre substituir humanos, mas que inevitavelmente irá redesenhar as relações entre humanos, máquinas e mundo.
A substituição diz mais sobre o trabalho do que sobre a IA
Dave Snowden tem dito que quando um trabalho é substituído por IA, isso primeiramente fala mais sobre o trabalho do que sobre a IA. E essa é uma verdade incômoda.
Tem muita gente fazendo trabalho ordinário a anos, e muitas vezes exaltando isso como se fosse extraordinário. Não estou falando de funções simples, mas de atividades que muitos habituaram a ser bem sucedidos simplesmente repetindo fórmulas, seguindo manuais, mantendo a engrenagem girando sem gerar valor real. São essas as principais funções que estão sendo desnudadas pela IA.
E, sinceramente, talvez isso seja bom.
Essa movimentação causada pelo hype da IA está nos forçando a olhar de frente para o que realmente importa. Está nos fazendo perguntar: o que é trabalho significativo? O que merece ser feito por humanos? Onde minha mente e corpo são decisivas no mundo?
Lógico, muitos irão abusar disso e vender mentiras, colocar IA pra fazer qualquer coisa, mesmo aquilo que não deveria, assim como já é feito com diversas outras tecnologias. Mas considerando o potencial de escala da IA, talvez isso deva ser lido como um chamado para fortalecermos cada vez mais nossas instituições e participar de discussões importantes como as sobre regulamentação.
Estruturas precisam mudar
Quero sim estar nesse jogo. Quero contribuir com as mudanças que serão necessárias para fazermos o melhor uso dessa tecnologia, com consciência, com contexto e com responsabilidade. Como alguém que se especializou em transformação e em complexidade aplicada, não faria sentido ficar de fora. Acredito este ser talvez um dos maiores momentos de virada estrutural que já vivenciei nas organizações. E justamente por isso, é agora que mais precisamos de pessoas que saibam navegar a transição, lidar com a ambiguidade e desenhar novas formas de operar.
Se queremos lidar bem com IA, precisamos de estruturas organizacionais mais dinâmicas, mais sensíveis ao contexto, mais abertas ao experimentalismo. É isso que tentei contribuir ao longo do projeto que narrei nessa série: formas de trabalhar que nos permitam pensar junto com a IA – e não apenas usá-la como uma ferramenta a mais.
O futuro que não se responde com hype – mas com discernimento.
Como aponta Robert Peckham em Fear, “o medo pode ter efeitos muito adversos, mas também pode ser uma força motivadora que foca a mente na questão necessária.”
Nesse sentido, é natural – e até desejável – que sintamos os efeitos do medo, da incerteza e do desconhecido ao explorar as possibilidades da IA. Esses sentimentos, longe de nos paralisar, são expressões autênticas da nossa humanidade. E talvez seja justamente ao nos permitirmos ser plenamente humanos que encontraremos as melhores respostas para o uso dessa tecnologia, inclusive nas estruturas organizacionais e modelos de trabalho.
Esse é o “puro suco” da antrocomplexidade, tão bem explorada no ecossistema Cynefin.
O futuro da IA precisa ser guiado por discernimento.
E isso, felizmente, ainda é um dom que só os humanos possuem.