Ir para conteúdo

Biblioteca

Encontro de Avaliadores

Encontro de Avaliadores



Inferência em aleatorizações imperfeitas

Encontro de Avaliadores com Sergio Firpo (Cátedra Instituto Unibanco - Insper)

Ir para a transcrição do vídeo

Transcrição

00:00 a 00:08 (Vinheta de abertura)

Imagem: Vinheta de abertura. No cabeçalho, tarja retangular com degradê da esquerda para a direita, a partir da cor rosa até a cor laranja. No canto superior direito, a logomarca do Itaú Social. No rodapé, ilustrações de uma cidade composta de casas, prédios e árvores, cada elemento com uma tonalidade da cor laranja, ou mais clara ou mais escura. Na parte central da tela, fundo branco com os seguintes dizeres, escritos em azul escuro: “Encontro de Avaliadores”. O texto se dissolve, dando lugar ao texto seguinte: “Inferência em aleatorizações imperfeitas”.

Áudio: trilha animada com guitarra e percussão.

00:09 a 13:57 (Sérgio Firpo, Cátedra Instituto Unibanco Insper)

Imagem: Sérgio Firpo, da Cátedra Instituto Unibanco Insper, está em pé, segurando um microfone e apresentando as telas de conteúdo para uma plateia, dentro de uma sala de aula.

Áudio: Quando se faz este teste para verificar o desbalanceamento, o interesse final é apenas uma etapa intermediária. O nosso interesse real é estimar o efeito médio de tratamento (ATE). E como fazemos isso se, por exemplo, detectarmos que alguns dos seus estratos estão desbalanceados? O que se deve fazer? Retirá-los? E quais as consequências de se fazer isso? Esta questão é o que discutimos neste trabalho. Tudo permanece igual aqui. E agora, com um pouco mais de cuidado. Temos “Y (1)”, que é o potencial de ser tratado; “Y (0)”, de não ser tratado. Mudei uma notação aqui. Então, “Ps” significa a importância de cada estrato. Resultado observável é “Y” e o que se observa é “Y”, “T”, “X” e o estrato que temos. Então, digamos que possamos computar e estimar consistentemente “betas”, que é ATE para o estrato dado. Então, como fazemos isso? Rodamos uma regressão de “Y” e “T”, para um “X” dado. Ou só pegamos a diferença entre “Y” pra tratados e “Y” para controles. Mas aí, obtemos a média disso. Então, “theta” é o seu parâmetro de interesse. Assim, a forma de prosseguirmos é construir alguns “thetas” aqui, usando “betas” e a relevância de cada estrato. Assim, a nova hipótese escrita em termos de resultados potenciais pode ser escrita desta forma, o que significa basicamente que, para cada “X” dado, qualquer estrato dado, “T” é totalmente aleatório. É o resultado da aleatorização. Então, outra forma de dizer que nosso “H (0)” é válido, que isto aqui permanece, esta igualdade permanece. Vamos fazer o seguinte! Permitam-me definir este “delta” grande, que é o indicador de que isto aqui na população é exatamente verdadeira. E permitam-me definir este “delta” pequeno, dizendo que tenho algum critério estatístico que diz que algum estrato “S” está bem balanceado. Então, eu tenho algum critério aqui. No trabalho anterior, havia muitos testes estatísticos diferentes, mas digamos que o que temos aqui é somente estatística “F”, certo? E que temos algum “Fc”. Digamos que 5%! Vocês ficarão satisfeitos em dizer que não há desbalanceamento do estrato “S” se este “F” para todos os “Ss” for maior do que “Fc”, certo? Então, este “delta” pequeno é o indicador. Então, o “delta” pequeno indica se os estratos “S” passaram no teste de balanceamento. Enquanto, este “delta” grande indica se este estrato está balanceado ou não na população. Portanto, estas duas coisas são diferentes. Então, o que se está tentando identificar, quando retiramos esses estratos de tal forma, é que o “delta” pequeno é zero. Pensem em diferentes parâmetros de interesse! O ATE, óbvio! Este ATE para a subpopulação desconhecida balanceada. Ou este ATE, para a população balanceada na amostra. Então, tipicamente o queremos fazer é perguntar a esta pessoa aqui, certo? O primeiro. Quero dizer, não se quer definir o parâmetro de interesse dependendo dos seus dados, que são estes aqui. E acho que isto não é o que se quer fazer para definir o parâmetro de interesse dependendo para esta subpopulação desconhecida balanceada. Não se sabe qual estrato tem esta propriedade aqui. Então, o último destes projetos é uma função aleatória dos dados, como eu disse. Uma vez que esse “delta” pequeno não é o degenerador de todos estes estratos, de tal forma que não há desbalanceamento. Então, isto aqui tem uma distribuição, certo? E o segundo, como eu disse, está se definindo algo para uma subpopulação arbitrária, que não sabemos qual é. Portanto, neste trabalho, dizemos que os pesquisadores devem ter interesse no ATE. Mas, a maior parte dos resultados que se têm permanecem válidos quando o pesquisador tem interesse em estimar este ATE para a subpopulação desconhecida. Então, como eu disse, este “delta” pequeno vai convergir para esta distribuição aqui. Haverá um Bernoulli com a probabilidade de 1 menos “alfa” ser igual a 1. À medida que o tamanho da amostra aumenta, para aqueles estratos que estão desbalanceados, a mesma coisa aqui, também deveria convergir para 0. Em termos de inferência, o que precisamos fazer aqui? Então, suponha que se tenha isto aqui e se saiba como se comporta. Sabemos como computar esse “beta” e sabemos como é a distribuição assintótica disto. Digamos que temos este viés assintótico aqui, que é o 0. Ou que seja consistente. Qualquer coisa! Não sabemos exatamente qual é o viés que estamos fazendo, em termos de ter este estrato desbalanceado. Porque não sabemos exatamente como as diferenças nas covariâncias afetam a estimação do ATE dentro desse estrato. Poderíamos ter um modelo e assim por diante! Mas, vamos adotar a visão de que não queremos comprometer, não queremos dizer nada sobre como ”X” afeta “Y”. Sabemos que pode produzir um viés. Não sei como exatamente. Mas, então é por isso que fazemos o teste em “X” para verificar desbalanceamentos. Então, o que as pessoas normalmente fazem? Removem o estrato desbalanceado da análise. Porque sabemos que, se mantivermos esse desbalanceamento uma vez, é possível que gere um viés. E o que acontece com o seu estimador do ATE que somente usa esta subpopulação do estrato que sobreviveu o teste do balanceamento? Então, quem sobreviveu a este pré-teste? Vamos chamá-lo de “theta”. Em que este “lâmbida”, que são estes pesos... são basicamente o peso para que se constrói, certo? É preciso dividir por esta soma aqui, para aqueles estratos que têm “delta” tal que seja igual a 1. Então, lembre-se que o “delta” é 1 ou 0. E “delta” indica que passou no teste de balanceamento. E “Ps” é a proporção de cada estrato. Portanto, este é o estimador final aqui. Então, quais são as propriedades disto? Assim, fazendo este tipo de decomposição aqui e não multiplicando pela raiz quadrada de “n”, que seria o procedimento normal a seguir. Então, o que as pessoas normalmente fariam seria multiplicar pela raiz quadrada de “n” a fim de dizer que isto convergiria para uma nova distribuição com um desbalanceamento dado. O que mostramos é que as taxas de convergência não são a raiz quadrada de “n”! Por causa disso aqui. Por causa dessa diferença entre “lâmbida” e “P”. Então, permitam-me ser mais preciso. Então, a primeira parte aqui, a convergência desta taxa. Se multiplicarmos pela raiz quadrada de “n”, isto vai convergir em distribuição. Então, estará limitado em probabilidade. Porém, este elemento aqui a esta taxa, sem multiplicar pela raiz quadrada de “n”, tem uma distribuição por si mesma. E este é o problema! Não é somente o caso de se estar ignorando algo em termos de variância. A coisa exatamente convergindo devagar é algo que não se leva em conta na análise. Isto tem a ver com o fato de que algum estrato pode ou não, de forma aleatória, acabar aparecendo na sua amostra final. E não se está levando isso em consideração. Então, a principal mensagem deste trabalho não é uma questão de corrigir a variância! É, na verdade, estar fazendo algo que é totalmente errado porque o que importa é esta primeira parte aqui. Se “n” for super grande, isto aqui descerá para 0 muito mais rápido do que a segunda parte aqui. Vai convergir para uma distribuição. Então, esta é a conclusão principal. Isto aqui vai estourar, se multiplicarmos pela raiz quadrada de “n” aqui. Assim, isto aqui aumenta sem limites. Então, o que as pessoas normalmente estão fazendo não está correto. Sim, esta é uma outra forma de pensar. Esta intuição aqui! À medida que o tamanho da amostra aumenta, consegue-se, em parte, resolver o problemas de incerteza deste problema aqui. Porém, ainda se mantém o problema da incerteza aqui. É como dizer: “isto converge em probabilidade para zero”. Tudo bem, neste ponto. Mas isto aqui vai convergir em distribuição. Aí, o que fizemos? Em outras amostras, tínhamos mais certeza sobre quais estratos fariam parte da análise do que tínhamos sobre as diferenças nos resultados médios entre tratados e controle. O que se deveria fazer? No fim das contas, é o seguinte: o pré-teste e a retirada dos estratos desbalanceados induzem o indicador do ATE resultante a ser realizado em uma subpopulação aleatória. A incerteza na primeira etapa não desaparece assintoticamente e predomina na incerteza da estimação do ATE à medida que o tamanho da amostra aumenta para qualquer “alfa” fixo. Uma solução para este problema seria deixar “alfa” ir para 1 à medida que o tamanho da amostra aumenta. Isto significa que, à medida que o tamanho da amostra aumenta, fica-se mais rigoroso em tentar detectar o desbalanceamento.

13:58 a Fim (Vinheta de Fechamento)

Imagem: Vinheta de fechamento. Tela retangular com degradê da esquerda para a direita, a partir da cor rosa até a cor laranja. Ao centro, a logomarca do Itaú Social. No rodapé, ilustrações de uma cidade composta de casas, prédios e árvores, cada elemento com uma tonalidade da cor laranja, ou mais clara ou mais escura.

Áudio: trilha animada com guitarra e percussão.