L'objectif du cours est de présenter aux étudiant-e-s les méthodes statistiques les plus répandues d’évaluation des politiques publiques en sciences économiques. L’étudiant-e apprend à mesurer les effets des politiques sur des variables qui sont liées aux objectifs politiques. Par exemple, si l’État finance la formation professionnelle de travailleurs avec de faibles qualifications, il veut aussi savoir si cette formation augmente de manière substantielle les qualifications, le salaire ou l’emploi des individus en formation. Ou si l’État subventionne certaines firmes de manière à ce qu’elle augmente la productivité tout en réduisant la pollution, on voudrait savoir si ces objectifs sont atteints.

L'approche suivie s’inscrit dans l’analyse des effets de traitement. Les individus ou les firmes sont « traitées » par les politiques et nous cherchons à estimer les effets de ces traitements. Chaque méthode est illustrée avec des exemples empiriques qui présentent les méthodes dans un contexte approprié. Tous les estimateurs sont d’abord illustrés en n’utilisant que des moyennes, ceci est fait pour des fins pédagogiques mais en même temps, cette simplicité est utile pour une compréhension fondamentale des méthodes vues en classe.

Près de la moitié du cours est consacrée à de la mise en pratique sur logiciel. Nous visons à ce que les étudiant-e-s puissent faire une évaluation de politiques et aussi qu’ils (elles) puissent critiquer des évaluations de politique en comprenant les hypothèses qui sont nécessaires pour l’obtention d’estimés crédibles des politiques publiques.

Bibliographie indicative

- Abadie A., Drukker D., Leber Herr J. and Imbens G. W. (2004), "Implementing matching estimators for average treatment effects in Stata", The Stata Journal, vol. 4, n°3 : 290-311.

- Abadie A., and Imbens G. W. (2011), "Bias-Corrected Matching Estimators for Average Treatment Effects", Journal of Business and Economic Statistics, vol. 29, n°1 : 1-11.

- Abadie A., and Imbens G. W. (2016), "Matching on the estimated propensity score", Econometrica, Vol. 84, n°2: 781-807.

- Abadie A., S. Athey, G. W. Imbens et J. Wooldridge (2017), "When Should You Adjust Standard Errors for Clustering?", Working Paper.

- Angrist J. D. et J.-S. Pischke (2009), Mostly Harmless Econometrics", Princeton University Press.

- Cameron, A. C., et D. L. Miller (2015), "A Practitioner’s Guide to Cluster-Robust Inference." Journal of Human Resources 50(2) : 317-372.

- Conley, T. G., et C. R. Taber (2011), “Inference with ‘Difference in Differences’ with a Small Number of Policy Changes.” Review of Economics and Statistics 93(1) : 113-125.

- Dehehia R. H., and Wabba S. (1999), "Causal effects in non-experimental studies: Re-evaluation of the evaluation of training programs", Journal of the American Statistical Association, vol. 94 : 1053-1062.

- Imbens G. W. (2015), "Matching Methods in Practice : three examples", The Journal of Human Resources, vol. 50, n°2 : 374-419.

- Imbens, G. W., et D. B. Rubin (2015), "Causal Inference in Statistics, Social, and Biomedical Sciences, Cambridge University Press.

- Imbens, G. W., and M. Kolesár (2016), “Robust Standard Errors in Small Samples: Some Practical Advice.” Review of Economic and Statistics, vol. 98, n°4 : 701-712.

- Lalonde R. J. (1986), "Evaluating the econometric evaluations of training programs", American Economic Review, vol. 74, n°4 : 604-620.

- Webb, M. D. (2014), “Reworking Wild Bootstrap Based Inference for Clustered Errors.” Queen’s Economics Department Working Paper No. 1315.