A caixa preta e o avental branco

O Princípio da Caixa-Preta.
Autor: Matthew Syed.
Editora Objetiva: 360 páginas

———————-

David Cohen

Em maio do ano passado, a Justiça absolveu os três acusados pelo pior acidente aéreo em território brasileiro – a queda do Airbus da TAM, no aeroporto de Congonhas, em São Paulo, que matou 199 pessoas em 2007. A procuradoria havia pedido a condenação a 24 anos de prisão de dois então executivos da TAM e da então diretora da Agência Nacional de Aviação Civil, por terem autorizado o pouso em condições inadequadas, mas o juiz encarregado do caso não aceitou a denúncia. Em maio de 2011, os dois pilotos americanos envolvidos no desastre do avião da Gol no norte do Mato Grosso, que matou 154 pessoas em 2006, foram condenados a quatro anos e quatro meses de detenção, mas sua pena foi substituída por prestação de serviços comunitários em órgãos brasileiros nos Estados Unidos. O dois pilotavam o jato Legacy que voava numa rota não autorizada quando raspou no Boeing da Gol e cortou-lhe a fuselagem.

Esses dois casos são, para muita gente, exemplos de impunidade e de falhas da Justiça. Mas representam o procedimento padrão da indústria aeronáutica em relação ao fracasso: em vez de buscar culpados, aprender com os erros para evitar que eles se repitam.

No caso do desastre da TAM, o relatório do Centro de Investigação e Prevenção de Acidentes Aeronáuticos fez 83 recomendações de segurança operacional para a fabricante, os aeroportos, companhias aéreas, pilotos e a agência de fiscalização. No caso do acidente da Gol, as investigações concluíram que o sistema de prevenção de colisões do Legacy foi inadvertidamente desligado, o que levou a recomendações de adequações no aparelho (para alertar quando estiver desligado) e novas instruções a todos os pilotos.

É fácil dizer que as pessoas devem aprender com os erros. O que quase ninguém considera é o custo, especialmente psicológico, de fazer isso. Quando acontece algo tão horrendo quanto um desastre com dezenas de mortes, a reação natural é querer encontrar e punir os responsáveis. Mas a satisfação desse desejo de desforra impede que o sistema como um todo melhore.

Este é o argumento central do livro O Princípio da Caixa-Preta, do jornalista britânico Matthew Syed, que está sendo lançado no Brasil agora. A caixa-preta dos aviões – que já não é mais preta, é laranja, para tornar mais fácil sua localização (algo que aprenderam com o fracasso) – serve para facilitar investigações, em caso de acidente.

Os doutores da teimosia

O contraponto é a profissão médica. Não é só que não haja câmeras em salas de cirurgia. Os médicos são tradicionalmente avessos a questionamentos, até mesmo de outros médicos. É amplamente difundida a opinião de que muitos cirurgiões sofrem de uma espécie de “complexo de Deus”. A medicina é um bom ponto de partida para entender nossa resistência a admitir fracassos, mas nossa incapacidade de aprender com os erros aparece em todas as ocupações. Este é um campo razoavelmente bem mapeado. Boa parte dos conceitos que Syed apresenta já serão do conhecimento de qualquer leitor interessado na psicologia comportamental, como o viés de confirmação e a dissonância cognitiva. Para quem quer uma introdução ao tema, a caixa-preta de Syed é uma aprazível porta de entrada, no estilo dos livros de Malcolm Gladwell, que misturam histórias jornalísticas com pesquisas acadêmicas.

A história que abre e fecha o livro, do piloto que perdeu a mulher por causa de um erro médico e fundou uma ONG para evitar que casos assim se repitam, pode fazer você molhar algumas páginas. Para os mais pragmáticos, interessados em como aplicar essas conclusões no mundo dos negócios, há umas poucas orientações. Mas o principal são os alertas de que ninguém está imune a fechar os olhos para seus erros. Um dos casos saborosos é o dos economistas que publicaram uma carta aberta advertindo que a emissão de dinheiro para conter os efeitos da crise financeira, em 2008, levaria a uma alta da inflação. Alguns anos mais tarde, procurados para opinar ante a constatação de que a inflação não subira, eles se aferraram ainda mais às suas opiniões – num caso clássico de “quando os fatos contradizem as minhas opiniões, danem-se os fatos”.

Os aviões que não voltaram

A mensagem principal do livro, algo singela, é “aprenda com seus erros”. Se for possível, aprenda com os erros dos outros – mas para isso é necessário criar sistemas em que os erros são relatados e investigados. E, para que isso aconteça, você tem que evitar o jogo da culpa. E isso não é nada fácil. Não é uma grande novidade. É assim que a ciência avança, como elucidou o filósofo Karl Popper. A ciência é feita de teorias construídas para negar outras teorias. Os fracassos são imprescindíveis para o sucesso. Isso é o que distingue, aliás, o pensamento científico. Segundo Popper, só é científica uma afirmação que pode ser submetida a um teste – e se provar falsa.

Hoje em dia está em voga aprender com o sucesso. Especialmente na literatura de negócios, pipocam as pesquisas de companhias que se deram bem. Mas há um ponto cego nessas fórmulas, e ele é bem exemplificado pela história do matemático Abraham Wald. Durante a Segunda Guerra, Wald trabalhava para o esforço militar dos Estados Unidos, onde tinha se asilado. Ele fez parte de uma equipe que analisava formas de blindar os aviões de bombardeio – quase metade dos pilotos morriam. Ao observar os aviões que retornavam, havia um claro padrão nas marcas de balas: elas se distribuíam por todo o corpo, menos na cabine e na cauda. Todos concordaram em reforçar as partes mais atingidas. Wald discordou. “Ele percebeu que os chefes tinham deixado de considerar um dado-chave: só estavam pensando nos aviões que voltavam. Não estavam levando em conta os aviões que não voltavam (os que foram abatidos).” A análise do fracasso é que permitiu colocar a blindagem nos locais certos – a cabine e a cauda.