Como um pouco de caos pode ajudar empresas a crescer

Uma boa estratégia de análise de dados pode se tornar vítima de seu sucesso - as melhores empresas "bagunçam as coisas " para obter os dados necessários

Há uma parábola que Eric Anderson, professor de marketing na Kellogg School, gosta de contar, que ele chama de “Paradoxo da análise”.

“Uma empresa recém-aberta já de cara começa cometendo muitos erros. Ansiosos para melhorar, os funcionários coletam muitos dados e criam novos modelos super legais”, diz ele.

“Com o tempo, esses modelos permitem que a jovem empresa encontre as melhores respostas e as implemente com grande precisão. A empresa então se torna madura, e uma das suas características é ser excelente em análises. Então um certo dia, os modelos param de funcionar. Os erros que alimentaram os modelos há tempos agora desapareceram e os modelos analíticos estão famintos”.

O paradoxo é que, quanto melhor o desempenho da empresa em obter informações a partir da análise (e agindo com base nessas informações), mais racionalizadas se tornam suas operações. Isso, por sua vez, faz com que os dados resultantes dessas operações sejam mais homogêneos.

Entretanto, com o passar do tempo, a homogeneidade torna-se um problema: dados variáveis ​​e, claro, os erros, permitem que os algoritmos continuem aprendendo e otimizando. À medida que encolhe a variabilidade nos novos dados, os algoritmos não têm muito mais com o que trabalhar.

O paradoxo leva a uma recomendação bastante surpreendente: “eventualmente, é preciso bagunçar as coisas de propósito”, diz Florian Zettelmeyer.

“Tem de projetar variação nos dados para poder obter informações a longo prazo”, explica Zettelmeyer, também professor de marketing na Kellogg.

Zettelmeyer e Anderson são diretores acadêmicos do programa de Educação Executiva da Kellogg em Leading with Big Data and Analytics (Liderança com Big Data e Dados Analíticos). Também estão escrevendo um livro sobre a ciência dos dados para líderes executivos.

Aqui, eles oferecem uma visão de como as melhores empresas encontraram maneiras de evitar o Paradoxo da análise.

Da otimização à estagnação

Até um certo ponto, o valor do big data reside em sua confusão, na variação muitas vezes inesperada de como os eventos se desenrolam e as inúmeras formas como esses eventos ajudam a formar conexões entre variáveis ​​que podem ajudar as pessoas a tomar melhores decisões.

“Em teoria, o melhor gestor de análise é aquele que entra no escritório todas as manhãs e joga cara ou coroa para tomar todas as decisões”, diz Anderson. “Pois, se tomar todas as decisões aleatoriamente, irá gerar os melhores dados possíveis para seu mecanismo de análise”.

“O problema”, ele acrescenta, “é que, em todas as empresas, o gestor que joga cara ou coroa é demitido rapidinho. Os que sobrevivem são os que são realmente bons em implementar decisões com grande precisão”.

Para entender como as melhores equipes podem se deparar com operações otimizadas demais para seu próprio bem, Anderson oferece o seguinte exemplo hipotético.

“No momento, sua empresa oferece entrega de dois dias, e alguém diz para você: “Gostaria que você consultasse as informações e analisasse os dados históricos. Diga-me se deveríamos ter serviço de entrega de dois dias ou passar para serviço de entrega de um dia. Com os dados que têm, é possível responder a essa pergunta?”

Se o processo de entrega estiver sendo supervisionado por uma equipe de alto desempenho, focada em eficiência, você provavelmente não tem capacidade de responder a esta pergunta com dados.

“Se você é realmente bom em entregas, se administra as operações de forma eficiente, quantos dias são necessários? Dois dias”, diz Anderson.

“A pessoa que estava bagunçando tudo e levando quatro dias para entregar um pacote foi demitida. O que às vezes entregava em três dias e outras vezes em um dia foi demitido. Você fica com todos os gestores que entregam em dois dias. Você construiu uma organização tão boa em entregar coisas que quase sempre acontece em dois dias”.

Paralisado pelo seu próprio sucesso, você não tem dados para saber se existe uma melhor estratégia de entrega, ou como se pode mudar com sucesso para um novo modelo.

“Se eu eventualmente não fizer o que é errado, nunca vou saber se o que acho  ser o melhor ainda é o melhor”, diz Zettelmeyer.

O que as melhores empresas estão fazendo

É claro que as empresas têm boas razões para não querer recompensar a incompetência, ou promover gestores cuja tomada de decisões parece limitada a jogar cara ou coroa.

Ao contrário, as principais empresas adotaram uma estratégia fundamentalmente diferente para pensar em big data.

“As melhores empresas agora investem fortemente na criação e projeção de dados”, diz Anderson. “Estão intencionalmente injetando variabilidade nos dados”.

Seja experimentando para ver quantos dias se necessita para entregar um pacote, como definir preços ou como fazer a melhor manutenção a uma frota de veículos usados, essas empresas de elite entendem que a experimentação e a variabilidade precisam ser incorporadas no DNA da organização.

“Apenas uma fração minúscula de empresas” fazem isso, “talvez cinco por cento”, diz Anderson.

Assim, o que a maioria dos gestores precisa fazer de forma diferente?

“Quando você toma uma ação de negócios, precisa ter em mente qual é o efeito sobre a utilidade dos dados que surgirão dele”, diz Zettelmeyer.

Isso requer previsibilidade para entender as perguntas que talvez queira responder no futuro, bem como disciplina para trabalhar retroativamente a partir dessas perguntas,  para assim garantir estar pronto para obter dados ricos e úteis.

Uma empresa que lança uma campanha publicitária em âmbito nacional, por exemplo, pode decidir ajustar a campanha de formas específicas apenas em determinados mercados, ou escalonar a implantação por região. Embora possa haver custos no curto prazo, em termos de eficiência e otimização, os dados resultantes têm o potencial de ensinar a empresa a avançar.

Não relegue a ciência de dados aos cientistas de dados

A previsibilidade que se deseja não pode ser competência de um único funcionário ou equipe em uma organização, enfatizam os professores. Isso porque as decisões sobre como se fazer experimentos devem ser tomadas tendo em mente problemas específicos.

“Atinge toda a organização, e por isso, precisa ser uma mudança cultural na forma como pensamos sobre nossas operações do dia a dia”, diz Anderson.

A chave, diz Zettelmeyer, é “transportar-se para a situação em que você se encontrará no futuro”. Quais dados seriam úteis para tomar a próxima decisão, e a seguinte? Qual relação entre as variáveis ​​se deseja demonstrar? E, considerando seus recursos e restrições atuais, como você poderia projetar um experimento para demonstrar essa ligação?

Tenha em mente que a infraestrutura que se precisa pode ser muito diferente do que é necessário para gerenciar grande parte do big data que circula em uma organização.

Por exemplo, os painéis de alto nível com que os líderes seniores estão acostumados talvez não sejam capazes de distinguir as muitas diferenças sutis, ainda que importantes, tal como quando se lançou uma campanha ou como se criou uma rota de entrega.

“É um processo de raciocínio muito diferente em termos de como você realmente criaria um sistema de TI para apoiar a experimentação”, diz Anderson.

Assim, ao invés de tentar terceirizar este trabalho para uma equipe de ciência de dados dedicada — ou pior ainda, para um único software — Anderson e Zettelmeyer recomendam que as empresas treinem os gestores em como pensar e fazer perguntas sobre dados.

“Isso exige um conhecimento prático de ciência de dados“, diz Zettelmeyer. “É necessário que os gestores tenham estas habilidades para poder ter consciência de que precisam se responsabilizar por esse aspecto da organização”.

Texto originalmente publicado no site da Kellogg School of Management.