Os modelos matemáticos são usados para reforçar ou substituir as tomadas de decisões pelos seres humanos desde a invenção da calculadora e graças à ideia de que máquinas não cometem erros. Contudo, muita gente é avessa ao uso de algoritmos, preferindo em vez disso confiar em seus instintos na hora de tomar uma série de decisões. Uma nova pesquisa de Cade Massey e Joseph Simmons, professores do departamento de operações, informações e decisões da Wharton, e Berkeley J. Dietvorst, da Universidade de Chicago, constatou que o controle é um elemento fundamental para a tomada de decisões. Se dermos a quem toma decisões um certo controle sobre o modelo, é grande a probabilidade de que esse indivíduo venha a usá-lo. Massey e Simmons conversaram com a Knowledge@Wharton sobre as implicações da sua pesquisa.
Segue abaixo a versão editada da entrevista.
Knowledge@Wharton: Você poderia fazer um resumo da pesquisa? Ela complementa alguma coisa que vocês fizeram recentemente, certo?
Joseph Simmons: Estamos estudando um fenômeno chamado “aversão ao algoritmo”, que é a tendência que as pessoas têm de não querer seguir regras específicas baseadas em evidências quando tomam decisões, embora muitas pesquisas mostrem que é exatamente dessa maneira que se devem emitir juízos e fazer prognósticos. Muita gente quer apenas confiar em seus instintos ou fazer as coisas do jeito que acha que devem ser feitas. Não querem confiar em regras coerentes baseadas em evidências ─ embora devessem fazê-lo.
Já faz alguns anos que estamos estudando por que, ou em que circunstâncias, as pessoas preferem não confiar nos algoritmos. Nosso segundo estudo consistiu em descobrir como fazer para que as pessoas se tornem mais propensas a confiar nos algoritmos. Descobrimos basicamente que se você disser às pessoas: “Você pode confiar em um algoritmo que lhe dará conselhos, ou pode confiar em sua própria opinião”, e então perguntamos a elas: “O que você quer fazer?” ─ elas não terão problema algum em dizer: “Vou usar o algoritmo.”
Contudo, a partir do momento que você dá a elas alguma prática e deixa que vejam o desempenho do seu algoritmo, de repente elas decidem que não querem mais usá-lo. Isto se explica pelo fato de que as pessoas veem o algoritmo cometendo erros. No momento em que veem o algoritmo ou o computador cometendo erros, preferem não usá-lo mais, embora o algoritmo ou o computador cometam erros menores ou menos frequentes do que elas.
Knowledge@Wharton: Os algoritmos deveriam ser perfeitos.
Simmons: Correto. As pessoas querem que os algoritmos sejam prefeitos e esperam que sejam, embora nosso desejo é que sejam um pouco melhor do que os humanos. Nosso primeiro estudo é um tanto pessimista e mostra que no momento em que as pessoas veem o algoritmo em ação, elas não querem mais usá-lo. Nosso segundo estudo mostra que é possível fazer com que as pessoas usem os algoritmos, contanto que você lhes dê um certo controle sobre eles. Você diz a elas: “O algoritmo diz que tal pessoa terá um GPA [média geral das notas] de 3.2. Qual será o GPA dela em sua opinião?” Elas simplesmente não querem aceitar o 3.2 que o algoritmo previu. No entanto, se você disser: “Você pode fazer um ajuste de 0,1”, aí a resposta será: “Tudo bem, então vou usar o algoritmo.” Desde que você dê às pessoas um pouco de controle sobre essas coisas, é mais provável que venham a utilizá-las. Isso é muito bom e foi o que descobrimos.
Cade Massey: Trabalhamos em um contexto experimental, mas somos motivados pelo contexto do mundo real. Algumas das primeiras ideias para esta pesquisa têm origem no trabalho que fizemos com empresas para onde levávamos modelos de tomada de decisão sobre contratações e recrutamento de novos empregados. Com base em muitos anos de dados válidos e analíticas muito boas, tínhamos certeza de poder oferecer a melhor consultoria possível. Contudo, essas empresas relutavam em usar os modelos porque queriam confiar em sua própria intuição.
Isso é muito comum na contratação, na avaliação de desempenho, é comum, inclusive, e cada vez mais, em alguns campos em que a tomada de decisão é automatizada, por exemplo, a gestão um fundo de hedge ou a previsão de vendas de algum produto. Todas essas são situações em que previsões ou conselhos cada vez mais automatizados se encontram disponíveis. Chamamos a esse procedimento de algoritmo. Quem toma a decisão final tem a liberdade de ação para ouvir conselhos, usar seus instintos ou uma combinação das duas coisas.
Knowledge@Wharton: Sua principal conclusão foi que as pessoas são menos avessas a usar algoritmos se puderem ter algum controle sobre eles. Há, porém, uma conclusão que o surpreendeu em relação ao grau de controle que era preciso conceder às pessoas para que se sentissem melhor. Fale sobre isso.
Massey: Não sabíamos ao certo que grau de controle seria necessário para que aceitassem a ideia. A desvantagem de dar controle a elas é que elas começam a fazer pouco do algoritmo. Na maior parte dos segmentos, elas não são tão boas quanto o modelo. Quanto mais elas introduzem sua opinião num domínio qualquer, pior é o seu desempenho. Em certo sentido, gostaríamos de dar a elas o mínimo possível de controle e ainda assim fazer com que aceitem o algoritmo. Não sabíamos qual seria a resposta a isso. Tínhamos evidências desde o início que não haveria uma resposta muito significativa. Começamos então a testar os limites da ideia e descobrimos que podíamos conceder a elas um pouco de controle apenas. Alguma coisa em torno de 5% aproximadamente, de modo que se interessassem mais em usar o algoritmo. Se você der a elas mais do que isso, não fará nenhuma diferença. Se der um pouco, é quase a mesma coisa que se desse a elas uma influência moderada.
Simmons: O interessante é que elas ajustam o algoritmo, elas o tornam pior. No entanto, se o ajustarem só um pouco, o dano será pequeno. E uma vez que elas se acham mais propensas a usá-lo desse modo, seu julgamento final acabará sendo quase que perfeitamente correlato ao do algoritmo. É impossível fazer com que as pessoas usem 100% o algoritmo, mas podemos fazer com que usem 99%, e isso melhora substancialmente seu julgamento.
Knowledge@Wharton: No caso de um dono de empresa ou de alguém que ficará incumbido de usar um algoritmo, como é possível aplicar sua pesquisa na vida real?
Massey: Descobrimos que você simplesmente não pode impor um modelo monolítico ou do tipo caixa preta e dizer: “É assim que você vai fazer seus julgamentos. É assim que você deveria codificar sua tomada de decisão.” As pessoas reagirão contra isso. O melhor é deixar que tenham seus critérios. Dependendo do lugar, a forma como isso se dará será diferente. Pense em uma escola de pós-graduação que está analisando possíveis admissões ─ ela faz uma classificação dos candidatos e, em algum momento, traça uma linha e abre exceções. Ela mexe com as pessoas. É possível automatizar parte desse processo. Mesmo que você leve em conta parte da opinião das pessoas no modelo, é possível usar um modelo automático e diga: “São estas as pessoas que deveríamos admitir.”
Por um lado, podemos dizer: “Aqui está o modelo. Veja o que ele diz; aceite ou não. Vamos automatizar o processo.” Certamente haverá uma revolta. Se, porém, você disser: “Aqui está um modelo para consulta. Sugerimos que você o leve em conta. Se quiser fazer mudanças para que ele funcione, faça.” Trabalhamos com escolas exatamente dessa maneira. No início, há um certo ceticismo. Elas recorrem um pouco ao modelo e, com o tempo, estão praticamente usando o modelo todo, do jeito que é, embora esteja a critério das pessoas mudá-lo tanto quanto quiserem.
Knowledge@Wharton: Acho que seria importante na apresentação que as pessoas soubessem que têm esse controle.
Simmons: Creio que o importante é evitar uma estrutura do tipo ou tudo ou nada ─ por exemplo, ter de aceitar o algoritmo 100% das vezes. Se as pessoas raciocinam da maneira como você descreveu, haverá relutância. No entanto, se você apresentar o seguinte quadro: “Vamos usar o algoritmo em 99% das vezes, mas você tem a opção de mudá-lo ou de não segui-lo num determinado momento”, isso fará com que as pessoas se tornem mais receptivas ao seu uso.
Outro contexto em que isso talvez seja importante é o de carros autônomos. É possível imaginar o desconforto das pessoas em um carro autônomo se não tiverem controle algum sobre ele. Se, porém, você disser: “Bem, você pode fazer tal coisa. É um pouco difícil e fora do comum, mas você pode fazer tal coisa para controlar o carro em circunstâncias nas quais você talvez precise fazê-lo. Descobrimos que as pessoas nunca precisam fazê-lo, mas a opção existe” ─ nessa circunstância, as pessoas se sentem bem mais receptivas ao acesso a um carro autônomo porque há algum controle disponível. Geralmente, o piloto automático é muito mais seguro do que o piloto real, mas as pessoas querem um piloto no local, embora inúmeros acidentes aéreos se devam a erros do piloto. Elas se sentem melhor desse jeito. Nossa pesquisa toca um pouco nesse ponto.
Knowledge@Wharton: Há outras histórias no noticiário que se apliquem à pesquisa?
Massey: Que tal os prognósticos eleitorais?
Simmons: Sim. Em novembro do ano passado, tivemos uma eleição presidencial que surpreendeu o mundo. Havia muita gente fazendo previsões, com base em informações de pesquisas, sobre o resultado das eleições. Talvez o caso mais famoso seja o de Nate Silver, que escreve para o FiveThirtyEight.com. Ele disse que havia 70% de chances de Hillary Clinton ganhar a eleição e 30% de chance de Donald Trump vencer. É claro que Trump ganhou. Houve muita reação contra Nate Silver no final. Ele estava errado, as pessoas pensaram, em parte porque o modelo estava errado. O fato é que o modelo não estava necessariamente errado porque 30% é um percentual que ocorre 30% do tempo. Quando um especialista vem a público e diz que uma coisa vai acontecer, a reação não é tão grande quanto uma pessoa que usa estatística e um algoritmo erra ─ aí as pessoas esperam que ela esteja 100% certa. Creio que a reação contra Nate Silver está de acordo com o que observamos anteriormente.
Massey: Tudo volta à primeira pesquisa, em que as pessoas são mais duras com os modelos e algoritmos quando eles erram do que com outros seres humanos. Elas apenas perdoam mais. Já tratamos um pouco disso, mas a conclusão é que os modelos e algoritmos ocupam um patamar superior.
Knowledge@Wharton: Mas isso faz sentido? Não há pessoa ou coisa que seja perfeita.
Massey: Achamos que as pessoas agem assim por diversos motivos. Um deles é que elas podem melhorar ao longo do tempo, ao passo que um modelo é relativamente fixo. Essas duas coisas não necessariamente verdadeiras. Os modelos podem melhorar com o tempo, mas as pessoas não melhoram necessariamente com o tempo. A psicologia dessa ideia é convincente, mas não necessariamente correta. Certamente há alguns cenários em que as pessoas podem melhorar mais do que o modelo, mas achamos que essa intuição que as pessoas têm não deveria ser tão forte quanto é.
Knowledge@Wharton: Existe alguma coisa que diferencia essa pesquisa de outro trabalho nessa área?
Massey: Não somos os primeiros a falar da diferença entre o julgamento de um modelo e o julgamento humano. Já se sabe há décadas que os modelos são muito bons. Nosso relativo pioneirismo consistiu em tentar compreender a razão disso e como reparar as percepções a esse respeito.
Simmons: Pouca gente documentou anteriormente as razões pelas quais as pessoas são avessas ao uso de algoritmos. Sempre houve relatos, textos do porquê as pessoas não gostam dessas coisas, mas ninguém havia examinado sistematicamente o assunto antes.
Massey: Voltamos à motivação. A motivação foi que trabalhamos com empresas, queremos que usem mais modelos, precisamos saber como romper esse preconceito. Não se pode prescrever coisa alguma até que se compreenda melhor por que tal coisa existe.
Knowledge@Wharton: Qual o próximo passo da sua pesquisa?
Massey: Continuamos a lidar com alguns fatores que possam contribuir para entendermos a relutância das pessoas em usar algoritmos, mas queremos também fazer mais testes no mundo real. Se trabalharmos com profissionais com dinheiro real em risco, será que eles também se encaixariam nesses mesmos preconceitos? Será que há meios de ajudá-los? Existem algumas empresas com as quais conversamos ao longo do tempo e que estão interessadas em fazer experiências com seus empregados ou clientes para ver se o que vemos no laboratório acontece no plano real.