Archives de l’auteur : eollion

Contrat doctoral / PhD Positions 2021

Contrat doctoral de 3 ans en sociologie, 2021-2024

[English below]

CREST, ENSAE-Ecole Polytechnique-CNRS, Institut Polytechnique de Paris

 

Le CREST (Centre de Recherche en Economie et STatistique) propose pour la rentrée de septembre 2021 des contrats doctoraux destinés aux étudiant.e.s titulaires d’un diplôme de Master ou équivalent dans l’une des disciplines du laboratoire ou dans une discipline connexe. La thèse est (co-)encadrée par un membre permanent du CREST.

Le Pôle de sociologie du CREST invite les personnes qui pourraient être intéressées à prendre contact, dès à présent avec l’un des membres de l’équipe enseignante susceptible d’encadrer leur recherche, ou avec la personne en charge du suivi de ce dossier (Étienne Ollion, etienne.ollion [at] polytechnique.edu), afin d’être conseillés dans le processus.

Les candidat.e.s devront joindre à leur demande un CV et projet (4 à 5 pages, en format PDF), rédigé en français ou en anglais. De manière conventionnelle, il présentera i) la question de recherche, ii) se situera dans la littérature pertinente, iii) décrira les matériaux empiriques qu’il compte utiliser et iv) indiquera la ou les méthodes privilégiées à ce stade du projet.

Les dossiers finalisés doivent être déposés avant le 15 mai 2021.

La rémunération mensuelle dans le cadre du contrat doctoral est actuellement de 1 769 € bruts, lorsque la doctorante « non cumulante » exerce exclusivement des activités de recherche.
Si des activités complémentaires d’enseignement s’ajoutent aux activités de recherche, la rémunération mensuelle de la « doctorante cumulante » est fixée à 2075.70€ bruts.

Pour être recevable, le projet de thèse doit nécessairement comporter une partie quantitative ou computationnelle.

 

———————————————————————————————————————————-

Doctoral fellowships in Sociology, 2021-2024

CREST, ENSAE-Ecole Polytechnique-CNRS, Institut Polytechnique de Paris

The Centre for Research in Economics and Statistics (CREST) offers 3-year doctoral fellowships, starting in the fall of 2021, in each of its core disciplines: economics, finance, sociology and statistics.

The CREST sociology group invites interested students with a Master’s degree in sociology or a related discipline to submit a project outline (4 to 5 pages), a CV, letters of recommendation and a grade transcript before May 15, 2021. The project outline should state the research question, the methods and data envisioned to address it, along with the relevant literature.

Doctoral fellows are supervised by permanent CREST researchers. Candidates are therefore strongly encouraged to contact the potential supervisor beforehand (list available here). General questions can be addressed to Étienne Ollion (etienne.ollion [at] polytechnique.edu).

Please note that projects need to rely at least partly on quantitative or computational methods to be eligible.

SASE Workshop – AI: Articulated Intelligence

Here are the slides of my SASE lecture on July, 20th 2020 on AI.

SUMMARY: The rising visibility of artificial intelligence (AI) has triggered as many hopes as criticisms. In science only, the machine learning techniques are praised for their flexibility, and recent success in translation, prediction or pattern recognition (image or sound) are often hailed. But their limits have also, as often, named: predictive rather than explanatory, lacking strong mathematical foundation, or dependent on a high volume of data, AI is described by some researchers as largely inferior to standard quantitative methods.

The goal of this course is reflect on what AI can do for, but also to, the (social) sciences. Through a comparison with the now « classic methods » and empirical examples, we will present the gist of this approach. Largely non-technical, the presentation defends the idea that due to a radically different approach to quantification, AI is unlikely to root out the now termed « classic » quantitative methods. But the use of AI could serve our disciplines in several ways. One is the (welcome) addition of complexity to our quantitative approaches. Another, more important one, is the production of new data from heterogeneous sources (images, sounds, digital traces).

scrapetest1

Figure 3, which shows the most cited authors, further details this dual reception. Émile Durkheim received 2018 citations and Pierre Bourdieu 1863. Bruno Latour received 662 references, which puts him in an intermediate position between the first two and the following 6 authors, who each received more than 100 (from 220 for Tocqueville to 112 for Mauss). Beyond this elite group, the numbers drop abruptly. Two dozens authors are cited more than thirty times, but the others get less. After that, the numbers plummet towards zero.

The frequency of citation over time also varies greatly from one author to another. Focusing once again on the most cited authors, Figure 4 shows that the reference to Durkheim is stable over time in absolute numbers. This is not the case for Bourdieu, and to a lesser extent for Latour, who both have a strongly positive growth rate. Conversely, Boudon, Crozier and Touraine are now less cited than previously. The trend is particularly clear for Crozier. References to this author peaked in the 1980s, in the aftermath of the publication of the Bureaucratic Phenomenon, and then dropped continuously.

The previous analyses can be refined according to the varying forms of visibility. Table 1 features both the number of journals in which a given author is cited, and the journal that contributes most to his or her visibility. Some authors are present in all outlets, but although not dominating any particular outlet. That is the case for authors like Bourdieu and Durkheim. Other are less cited, and, more importantly, in a more local way. This is the case for Crozier, 30% of whose references come from Organization Studies. This is also the case for Boudon, whose work is mentioned in general journals and in those specialized in the sociology of education, but is absent from fully ten other journals. Such authors are not identified with one subfield only, but remain somewhat marked by what made them famous originally. Finally, others are heavily cited but only in a single sphere. This is the case for Callon, whose reception has remained minimal outside of science studies journals. 60% of the references to his work come from one journal, Social Studies of Science. Thus, while his work is not much cited in the discipline, it is absolutely central in this subfield.

% of journals citing this author Journal that most cites this author % of author’s total cites coming from this journal
Durkheim 100 Am Journal of sociology 11.4
Bourdieu 97 15.4
Tocqueville 94 Am Soc Review 11.8
Latour 82 Soc Studies Science 56.4

From Ollion & Abbott, « French Connections. The Reception of French Sociologists in the USA », in European Journal of Sociology, 2016.

SICSS-Paris 2020

Du 23 juin au 2 juillet prochain, l’ENSAE accueillera une école d’été en sciences sociales computationnelles. Déclinaison française du Summer Institute in Computational Social Sciences (SICSS) initié en 2017 à Duke et à Princeton University, SICSS-Paris rassemblera 20 à 25 jeunes chercheuses et chercheurs intéressées à développer leurs compétences et leurs collaborations dans le domaine des méthodes computationnelles.

Cliquer ici pour candidater

Collecter de données depuis internet, nettoyer et augmenter une base de données, extraire de l’information depuis un corpus textuel, analyser les réseaux sociaux, mais aussi réaliser des expérimentations en ligne, mettre en place une collaboration de masses voire pratiquer de la « citizen science » … : depuis un peu plus d’une décennie, les possibilités de recherche augmentée par ordinateur se sont multipliées.

L’objectif de cette école d’été est de proposer une formation à ces méthodes numériques, mais aussi d’offrir une réflexion sur l’apport et les limites de ces (plus ou moins) nouvelles approches pour mener des recherches en sciences sociales. Les cours magistraux alterneront avec des applications pratiques, et des travaux collaboratifs. En fin de journée, des invité·e·s extérieur·e·s viendront présenter leur recherche et échanger avec les participant·e·s.

L’école d’été en sciences sociales computationnelles aura lieu à l’ENSAE, sur le plateau de Saclay au sud de Paris. L’école d’été est entièrement gratuite, l’hébergement (en chambre individuelle) et la plupart des repas sont pris en charge par l’organisation. Une prise en charge des frais de déplacement est aussi possible, si le département d’origine (ou l’employeur) n’est pas en mesure de l’assurer.

L’école est prioritairement destinée aux jeunes chercheuses et chercheurs (master avancés, en thèse ou ayant soutenu depuis quelques années seulement), ainsi qu’aux personnes qui ont professionnellement à travailler activement avec des données numériques sur des problématiques de sciences sociales. La participation se fait sans restriction de discipline ou de pays d’origine. L’objectif de SICSS est en effet de permettre les rencontre entre personnes d’horizons disciplinaires, intellectuels et professionnels variés.

Les candidatures des personnes issues de groupes sous-représentés dans le domaine des sciences sociales computationnelles sont activement recherchées.

Les informations relatives au programme, au processus de candidature ou à la localisation sont disponibles à cette adresse, qui fournit d’autres d’informations. Le site est en anglais, mais les cours seront principalement dispensés en français.

L’école d’été SICSS-PAris est rendue possible par le financement de l’ENSAE, de la Russell Sage Fundation, du CREST, et du Labex ECODEC.

AAC-IA2020

Qu’est-ce qui échappe à l’intelligence artificielle ?
Les limites de la rationalité calculatoire : épistémologie et politique

Appel à communication – Colloque international
Organisé par François Levin (École polytechnique – philosophie) & Étienne Ollion (CNRS – sociologie)

Paris – 18 et 19 Juin 2020

Depuis plusieurs années, l’intelligence artificielle a fait l’objet d’analyses qui insistent sur son caractère contraignant. Elles peuvent viser à démontrer, à partir d’une relecture des textes cybernétiques, “l’essence totalitaire” du dispositif technologique, qui réduit les individus à devenir des éléments formatés et programmés, objets d’un calcul universel (Vioulac, 2018). L’analyse peut aussi porter sur les effets d’individuation nouveaux induits par les algorithmes, que ce soit via la production d’une nouvelle forme d’individualité constituée par “la société de ciblage” (Chamayou, 2015) ou encore via la mise en valeur des effets de “court-circuitage” algorithmique de l’attention et des volontés individuelles (Citton, 2017). Plusieurs travaux ont opéré une reprise conceptuelle de la notion foucaldienne de gouvernementalité pour l’appliquer aux usages algorithmiques de la statistique et aux nouvelles formes de normativité qui s’y expriment (Rouvroy et Berns, 2013). Les effets destructeurs des algorithmes sur les savoirs et les désirs ont enfin fait l’objet d’investigations, par exemple autour du concept de « société automatique » (Stiegler, 2015).

Analysée comme l’aboutissement de la rationalité calculatoire, l’IA est largement pensée sur le registre du calcul et de ce qu’il produit. Ce colloque interdisciplinaire (philosophie, sciences humaines et sociales, informatique, statistiques, mais aussi art) se propose de revenir sur ce présupposé. Par contraste avec ces travaux, son but est de réfléchir sur les formes et sur les limites de ces calculs. En d’autres termes, il s’agit de s’interroger sur ce qui, dans l’intelligence artificielle, échappe au calcul.

Plusieurs pistes pourront alors être explorées :

Des communications pourront porter sur ce que l’IA ne parvient pas, ou ne parvient qu’imparfaitement, à calculer. Ainsi, pour les voitures autonomes, ce qui relève de la négociation non-verbale entre conducteurs.trices échappe encore largement aux algorithmes ; plus généralement l’impossibilité pour l’IA de saisir le contexte (Dreyfus, 1992), ou encore l’ensemble des “réflexes sémantiques” acquis durant l’expérience d’une vie (French, 1990) et même, plus globalement, les valeurs sémantique et non uniquement syntaxiques (Searle, 1980) sont des critiques traditionnelles qui sont faites aux algorithmes.Ce faisant, si les algorithmes d’intelligence artificielle relèvent bien d’une rationalité calculatoire, toute une partie du monde leur échapperait – soit qu’elle n’est pas mise en donnée, soit qu’elle n’est pas calculable. Le non-calculable constituerait alors la/une borne de l’intelligence artificielle. Dans cette perspective, les discours (enthousiastes ou inquiets) sur l’intelligence artificielle surestimeraient son champ d’application possible et donc la capacité à produire les effets qui lui sont attribuées. Une telle hypothèse, qui devrait être étayée, ouvre alors vers d’autres interrogations. Comment définir ce non-calculable, entendu comme limite ? L’est-il circonstanciellement – c’est-à-dire qu’il pourrait être sans cesse repoussé par les avancées en intelligence artificielle – ou absolument ? Peut-il être défini de manière normative (la loi informatique et libertés dispose ainsi qu’une décision administrative faisant grief ne peut être prise de manière exclusivement automatisée) et suivant quels critères ? Est-il constitué positivement, comme une classe d’objets définis, ou bien négativement, simplement comme la conséquence des limites des dispositifs techniques (erreurs, bugs, puissance limitée) ? Poser ainsi la question permet de réinscrire cette interrogation dans celles sur la non-calculabilité  qui a gouverné les mathématiques depuis leur fondements (Gödel, 1931 ; Turing, 1936 ; Chaitin, 2004).

À cette limite externe s’en ajoute une autre, cette fois liée à la méthode et que l’on peut qualifier d’interne. La critique classique du caractère “opaque” des algorithmes d’intelligence artificielle pourra ici être évoquée. Dans quelle mesure la critique de l’inexplicabilité, ou celle de l’absence de démonstration exacte (Boelaert et Ollion, 2018 ; Schubbach, 2019), est-elle toujours d’actualité ? En quoi cette inexplicabilité renvoie-t-elle à ce qui, dans l’IA, échappe au calcul ? Les développements récents destinés à développer l’explicabilité de l’IA, ceux destinés à favoriser l’identification causale (Athey, 2017) offrent-ils des moyens “d’ouvrir la boîte noire de l’IA”, et si oui à quelles conditions, et pour quels résultats? Des communications pourront être proposées dans ce sens, qui pourront aussi rappeler certains des débats relatifs à l’histoire du domaine, où la question de l’explicabilité, et de la calculabilité, ont été centraux – par exemple dans les querelles entre les paradigmes connexionnistes et symboliques (Crevier, 1997; Cardon et al., 2018). Des présentations relatives à la place de la prédiction en sciences (en général, ou par rapport à l’explication) pourront utilement éclairer ces débats.

Une troisième ligne d’interrogation pourrait porter sur les conditions de production des dispositifs d’IA, et ainsi interroger les discours totalisants qui les décrivent comme des systèmes automatisés fondés sur la seule puissance du calcul. La plupart des algorithmes sont en effet entraînés par des individus dont on oublie d’évoquer l’activité de préparation, de nettoyage et d’alimentation des données. L’apprentissage automatique est largement nourri par le travail invisible de milliers de personnes, ces “travailleurs du clic” (Casilli 2018) payés peu ou parfois pas à entraîner les algorithmes. Loin d’être un système entièrement automatisé, l’apprentissage machine actuel repose sur des interventions humaines récurrentes. Les communications pourront alors porter sur ce travail humain d’entraînement des machines. L’IA peut-elle y échapper (par exemple en développant des mécanismes de cumulativité via des procédés de transfer learning), ou est-elle condamnée à s’appuyer toujours sur ce travail de l’ombre? On pourra aussi s’interroger sur les effets de cet entraînement toujours particulier sur les résultats que proposent les algorithmes, et sur les situations qu’ils ne peuvent pas prendre en compte (invitant ainsi prolonger les réflexions classiques sur les biais et sur leurs origines afin de les mettre en discussion avec la thématique de la journée d’étude). On pourra encore se demander ce que les critères d’évaluation des algorithmes de learning, largement organisés autour de l’amélioration de performances prédictives sur quelques jeux de données devenus classiques (MNIST, ImageNet), a fait à la logique calculatoire de l’IA, à la fois en termes d’établissement d’un langage commun, mais aussi en termes de limites pour appréhender des cas qui différerait de l’étalon commun.

D’autres réflexions pourront être explorées. La capacité auto-productive de certains algorithmes (de type apprentissage par renforcement) ne remet-elle pas en cause la vision de l’IA comme application stricte d’une rationalité algorithmique contenue dans ses données d’entraînement – aussi biaisées soient-elles. Les exemples d’œuvres d’art produites à partir de réseaux de neurones de type generative adversarial networks ne sont-ils pas une invitation à reposer la question de l’automatisation, tout en s’interrogeant sur la conséquence de cette capacité productive ?

Parmi les intervenant.es qui ont déjà confirmé leur venue : Michèle Sebag, directrice du laboratoire de recherche en informatique ; Antonio Casilli, chercheur sur le digital labor, auteur de En attendant les robots (2019) ; David Bates, chercheur à Berkeley, ancien directeur du Berkeley Center for New Media.

Les propositions de communication, qui peuvent émaner de disciplines aussi diverses que la philosophie, les SHS, l’économie, le droit ou l’art mais peuvent également provenir de spécialistes en machine learning seront à envoyer avant le 1er mars 2020 à l’adresse suivante : francoislevin01@gmail.com (une page maximum). Les réponses seront données dans le cours du mois de mars.

 

Bibliographie indicative

Susan Athey, “Beyond Prediction: Using Big Data for Policy Problems,” Science, February 3, 2017 David Bates, “Automacity, Plasticity and the deviant Origins of artificial intelligence”, In Plasticity and pathology : On the Formation of the Neural Subject, pp.194-218, ed. Fordham University, 2015

Julien Boelaert, Étienne Ollion, “The Great Regression. Machine Learning, Econometrics, and the Future of Quantitative Social Sciences”, Revue française de sociologie 2018/3 (Vol. 59), p. 475-506.

Dominique Cardon, Jean-Philippe Cointet, Antoine Mazières, “La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle”, Réseaux, 2018/5 (n° 211)

Antonio Casilli, En Attendant les robots, Seuil, 2018 Gregory Chaitin, “Leibniz, Randomness and the Halting Probability”, 2004

Grégoire Chamayou, “Avant-propos sur les sociétés de ciblage”, revue Jef Klak, 2015 Yves Citton, “Le court-circuitage néolibéral des volontés et des attentions”, Multitudes n°68, 2017

Hubert Dreyfus, What Computers Still Can’t Do: A Critique of Artificial Reason, The MIT Press, 1992

Robert French, “Subcognition and The Limits of the Turing Test”, Mind, 1990, 99, pp. 53-66.

Kurt Gödel, “Sur les propositions formellement indécidables des Principia Mathematica et de systèmes apparentés”, 1931

Catherine Malabou, Que faire de leur cerveau bleu ?, Puf, 2017 Luciana Parisi, “La raison instrumentale, le capitalisme algorithmique et l’incomputable”, Multitudes, 2016

Antoinette Rouvroy et Thomas Berns, “Gouvernementalité algorithmique et perspectives d’émancipation”, Réseaux, 2013

Arno Schubbach, “Judging machines: philosophical aspects of deep learning”, Synthese, 2019 J. R. Searle, “Minds, Brains and programs”, The Behavioral and Brain Sciences, vol. 3, Cambridge University Press, 1980

Bernard Stiegler, La Société automatique, tome I, Fayard, 2015 Alan Turing, “On Computable numbers”, 1936

Jean Vioulac, Approche de la criticité, PUF, 2018