Jump to content

Anton_K

Membre Actif
  • Content Count

    5532
  • Joined

  • Last visited

  • Days Won

    17

Everything posted by Anton_K

  1. Dans Paterson de Jim Jarmush aussi il est très bon.
  2. Damn. Sinon (je sais, je passe vite, mais que dire de plus...), pourquoi ce relooking à la con?
  3. It also sounds like it. « OOOODAAAA ». Je blague, tout le monde sait qu’il n’y a jamais eu de Renaissance outre-manche.
  4. D'ailleurs j'aurais du dire dont la connaissance "doit être générée", n'ayant à la réflexion pas spécialement envie de me reposer sur la valeur normative du terme connaissance. Merci pour la ref de l'essai de Hadamard et Poincaré, je vais lire ça, et je vais aussi aller voir ce que je crois pouvoir retrouver chez Pascal sur ces sujets d'épistémologie rogue. D'ailleurs dans le texte que j'avais posté il est somme toute assez proche de l'esprit analytique : remplacer l'idée de ce qui est défini par la définition pour assurer la correction du raisonnement. Et lui ne parle pas que de correction de la trace écrite, il parle visiblement de direction de l'esprit.
  5. Si, c'est exact, et c'est même dans La Philosophie comme Science Rigoureuse, donc je suis d'autant plus ingrat de ne pas l'avoir mentionné. Je pense que dans un interprétation charitable du projet kantien c'est vrai, au sens où c'est une manière d'interpréter la tentative de faire une étude de la raison par la raison seule. Ce que je dis c'est que Kant a, je trouve, une approche assez cognitiviste de la raison, en termes de différentes fonctions produisant des jugements. Mais là je pense qu'il serait très très intéressant de retrouver précisément les passages à interpréter comme une tentative d'éviter le psychologisme. Si tu l'as sous la main... Je regarderai un peu ce soir aussi. Un jugement analytique consiste à tenir pour vrai ce qui procède de la seule bonne compréhension d'un concept. Donc c'est littéralement déduire des propriétés à partir d'une définition, l'analogie me semble parfaite. Synthétique et inductif... là ça se discute peut-être un peu. L'induction au sens empiriste du terme consiste à former un jugement à partir des données des sens. Je pense que pour les empiristes c'est vraiment lié au fait de former une représentation à partir des données de l'expérience, données comme telles et pas comme représentations. Chez Kant c'est la formation d'une représentation d'un objet à partir de celles de caractères d'autres... Donc ça ne se passe pas forcément dans l'expérience, heureusement puisqu'on a besoin de synthétique a priori de l'expérience pour les maths, chez Kant. Donc là il est vrai que l'analogie n'est pas parfaite. C'est parce que tu as une bonne compréhension de Kant. Pour Kant il y a une intuition a priori de l'espace dans laquelle on opère des jugements synthétique géométriques, et une intuition a priori du temps dans laquelle on opère des jugements synthétiques arithmétiques. Kant n'arrivait pas à penser que l'arithmétique et la géométrie pouvaient être déductives, pas seulement dans le choix des axiomes mais même dans la découverte des résultats. Evidemment le développement des méthodes axiomatiques en mathématiques lui a donné tort, du moins du point de vue la philosophie analytique classique (je fais cette nuance à dessein, comme vous le verrez plus tard), qui, du coup, ferait de Kant un type qui pense que les mathématiques sont inductives, et se font dans une sorte "d'expérience interne". Là on on voit pourquoi dans un cadre très rigide avec a priori ~ analytique ~ déductif et a posteriori ~ synthétique ~ inductif, il est difficile de comprendre les positions kantiennes. Dire au moins que analytique ~ déductif et synthétique ~ inductif et mettre la question de l'a priori sous le tapis (car pas super bien définie : c'est vrai quoi, quand je raisonne en mathématiques, est-ce que je fais pas une sorte d'expérience interne? Bon, aller trop fortement par là ce serait jouer au con, j'avoue) permet d'obtenir une chose très précieuse. Un cadre épistémologique simple pour une méthodologie rigoureuse des mathématiques. La connaissance mathématique comme faite de jugements analytiques, c'est-à-dire de preuves écrites sur papier et donc objectives et vérifiables. Donc ce n'est pas non plus une étroitesse d'esprit injustifiée. Ce que je répondrais, c'est que les méthodes axiomatiques en mathématiques nous ont donné une manière totalement analytique de justifier la connaissance mathématique, c'est-à-dire de montrer, à partir d'une trace écrite du raisonnement, que le raisonnement est correct. Mais qu'est-ce que cela nous dit de la manière dont cette connaissance devrait être générée ? D'où la nuance apportée plus haut à la disqualification apparente de la théorie kantienne par la fondation axiomatique de la géométrie et de l'arithmétique. Mais cette nuance ne sauve Kant que si ce dernier n'était pas en train de faire une théorie de la connaissance qui soit une théorie normative de la justification des jugements. Mais dans ce cas que faisait-il? Ce qu'il essayait de faire amène-t-il nécessairement à la psychologisation (là les fregéens fulminent déjà) de l'épistémologie des mathématiques? Well I don't know, it's complicated Bref, des nuits et des nuits de réflexions passionnantes, mais revenons à Pascal.
  6. alors voyons plus ambitieux, c'est sûr. les distinctions sont claires, intéressantes, et trouvent toutes leur place dans l'approche transcendantaliste. Le problème c'est que cette approche transcendantaliste je suis incapable de dire quel genre de science c'est, en termes épistémologiques contemporains. La première grosse charge qui a été faite historiquement a été celle de logiciens qui voulaient laver le transcendantalisme de son psychologisme (Frege, Carnap surtout, le premier Wittgenstein aussi). Et ce à quoi ils sont arrivé, qui est plus ou moins mainstream dans la philosophie analytique maintenant : on plaque la distinction analytique/synthétique sur la distinction déductif/inductif, et la distinction a priori/a posteriori... on la plaque sur la précédente ou on la réinterprète (Saul Kripke est bien connu pour ce genre d'exercices de styles rigolos). Pour être honnête, la plupart des autres distinctions kantiennes et la justification du cadre transcendantaliste lui même comme étude "de la raison" comme phénomène proprement cognitif me semble perdue maintenant, la psychologie du raisonnement a trouvé sa place d'une part, la méthodologie sa place d'autre part. Enfin, quand je dis que le transcendantalisme "me semble perdu", je veux dire que je n'en entends pas parler non plus, mais je suis pas spécialiste des néo-kantiens contemporains, je suis sûr qu'ils existe et si ça se trouve ils ont des choses intéressantes à dire. Mais pour autant que mon intuition des correcte, cela nous ramène à une manière moderne, pré-kantienne de voire les choses, que Descartes et Pascal auraient sûrement bien compris. Par contre, beaucoup de réflexions qui me semble plus particulièrement modernes (que je trouve assez intéressantes, je dois dire) sur le rôle de la volonté dans la poursuite de la connaissance chez Descartes, sur la différence entre intuition/induction et finesse chez Pascal, qui sont particulièrement pertinentes pour des mathématiciens je trouve, me semblent aussi un peu tombées en désuétude - mais là encore si vous avez des sources, ça m'intéresse - et là c'est encore à cause de gens comme Frege ou Carnap qui, sauf mon immense respect pour ces génies, ont eu une tendance peut être excessive à vouloir analyticiser totalement le travail mathématique pour leur donner le niveau maximum de clarté, et à considérer que le seul rôle souhaitable pour l'induction et l'intuition était de juger des prémisses, des axiomes, éventuellement du bien fondé des règles. Beaucoup de mathématiciens diraient que si c'est bien sûr une norme désirable, on ne peut pas dire que ça ait été la manière de faire la plus fructueuse, et la preuve formelle est à juste titre vue soit comme un travail de pure vérification, pas comme une méthode génératrice de résultats. Les résultats naissent dans l'intuition que l'on a des objets mathématiques (on ne teste pas tous les arbres de preuve possibles sur son sa conjecture jusqu'à ce que ça marche), pourtant on ne parle jamais de quelle serait la meilleure manière d'user de son intuition. Tout se passe comme si, étant donné que la norme analytique est nécessaire et suffisante pour s'assurer de la validité des résultat, il n'y avait pas vraiment lieu de faire l'épistémologie de "ce qui se passe avant" Et là en bon fregéen j'aurais envie de distinguer l'épistémologie normative de ce qui se passe avant, qu'on ne fait pas, et la descriptive, que, je crois, certains psychologues du raisonnement mathématique font un peu, mais ça reste ultra primitif de ce que j'en sais. Un transcendantaliste ne ferait peut-être pas cette distinction, et c'est un autre aspect de l'héritage kantien a été "assaini". Et si le lieu de la preuve formelle, de la justification analytique est l'article publié, qu'en est-il des résultats dits "folkloriques", partiellement écrits?
  7. Non, lui. Sa page pointe directement vers celle de Stéphan Tomassé (et ils sont co-auteurs), cela dit.
  8. Haha oui le prof pour le cours duquel je lis le bouquin que j’ai pris en photo nous a raconté celle là quand on a parlé de ce problème.
  9. Voir aussi De l'esprit géométrique et de l'art de persuader, très intéressant sur le lien entre l'origine de la connaissance et moyens d'argumenter. A comparer avec les idées de Descartes (dans les Méditations et La recherche de la vérité par les lumières naturelles), Leibniz (Nouveaux essais) sur les mêmes sujets, et Kant plus tard bien sûr, dont la formulation en terme de "jugements synthétiques et jugements analytique" a été conservée jusqu'à nous (avec quelques réorganisation des disciplines mathématiques selon ces distinctions en chemin). C'est dans ces débats et sur ces thèmes que la modernité philosophique rayonne le plus, je trouve.
  10. My two cents : que ce soit à l’université, chez certains artistes, ou d’autres gens qui écartent a priori l’éventualité d’une carrière dans « le privé », j’ai souvent vu, parfois exprimée explicitement, la peur de la compétition (ça recoupe donc l’option 1). Je ne sais pas exactement à quel point cela explique des préférences politiques anticapitalistes, mais ça amène ces personnes à faire des choix qui les rendent dépendantes du système étatique, et on mord rarement la main qui nourrit. (Dans le cas des universitaires, le réveil est difficile après la thèse, quand l'université devient tout aussi, voire plus compétitive que le privé, j'en vois des exemples chaque jour).
  11. Le morceau laisse à désirer, mais putain ce clip :
  12. Cela dit cela nous permet de tester la résistance des universités française à ce genre de stresses, et dans le cas présent on est agréablement surpris.
  13. Ça fait un moment qu’un livre de philo ne m’a pas vrillé la tête. Je n’en suis pas fier d’ailleurs, mais c’est comme ça.
  14. Le terme « se présenter » n’est pas assez précis dans ce contexte. Il y a une différence entre s’inscrire (to file), ce qui est accessible à tous les membres, et être nommé par le parti. Les nominations n’ont pas encore eu lieu. « As of January 2019, seventeen individuals have filed with the Federal Election Commission to run for President in 2020 as a Libertarian. However, only candidates recognized by the Libertarian National Committee will be eligible for the nomination at the national convention. For a candidate to be recognized by the Libertarian Party, they must: have a campaign website; be a dues-paying member of the party; meet all U.S. Constitutional requirements to serve as President; and not simultaneously be a candidate for another political party. The Libertarian National Committee has not yet recognized any candidate for President in 2020. However, the following notable individuals have announced their intention to seek the Libertarian Party nomination and have established a formal campaign. » https://en.m.wikipedia.org/wiki/2020_Libertarian_Party_presidential_primaries
  15. Comme le chroniqueur l’indique presque clairement, cette candidature ne fait pas l’objet d’une validation par le parti, le type a revendiqué d’autres affiliation dans le passé. Ce qui craint c’est que la chronique s’attarde sur ce type à l’occasion d’un sujet sur les libertariens. Ça ressemble quand même pas mal à une tentative de décrédibiliser les libertariens en créant cette association... comme souvent (late shows, John Oliver, Quotidien, etc) l’info-tainment fait le sale boulot sous couvert de lolz.
  16. Incroyable tube familial d'un groupe par ailleurs bien hard :
  17. @Vilfredo Pareto un conseil général en tout cas, tester avec des différentiels de taux de fécondité plus petits, et en général des taux de fécondité plus proches de 2, sinon le modèle est beaucoup plus soumis aux explosions exponentielles de population et donc au hasard.
  18. Haha 4.9, là je pense que le modèle ne prend pas en compte assez de conditions matérielles sur la mise en contact de ces deux populations pour avoir quelque chose de nuancé. Personnellement je partais sur 1.8 white et 2.2 non-white, et dans la V2, cela ne suffit pas à créer un "remplacement" par explosion démographique de la population fertile au delà des capacités de l'environnement, il faut au moins dépasser 0.6 ou 0.7 de différence de fécondité. Avec un taux de 4.9 le modèle, comme tous les modèles démographiques trop simples, est trop susceptible d'explosions exponentielles. Juste pour être sûr, as-tu bien compris que cette variable mesure le seuil de whiteness (resp. de non-whiteness) qu'il faut avoir pour être considéré comme white (resp. non-white) ? La raison pour laquelle je mettais plutôt 70 et 30 (le contraire) est qu'il me semblait (pur pifomètre culturel) qu'on considérait plus facilement comme non-blancs des gens qui sont légèrement métis. Dans mon experience so-far de la V2 il faut une préférence plus élevée pour qu'elle joue vraiment (genre 75-80), sinon le nombre de rencontres permises par une répartition aléatoire fait qu'il y aura quand même, qualitativement, "métissage". Autre raison à mon avis (en plus de celle de la nécessiter de gérer les grands différentiels de fécondité) pour travailler sur des obstacles à la rencontre, améliorer l'aspect spatial (arriver à simuler la discrimination spatiale notamment, et il y a pas mal de modèles fameux sur ce plan que je pourrais exploiter). Pour l'instant dans le modèle il y'a très peu de chances que la répartition des sexes diverge, et il y en aurait encore moins si j'avais bien fait les choses (si j'avais fait en sorte qu'il y ait des sexes différent au sein d'une portée). En fait j'ai ajouté cet indicateur pour vérifier un doute que j'avais pendant le développement du modèle, j'avais fait une erreur de design qui amenait à la disparition progressive des femmes. Visiblement tu n'as pas monté suffisamment les seuils ici pour faire aussi décliner le nombre de personnes étiquettées "blanches". Par contre les effets sur le métissage de la catégorisation ont un aspect asymétrique : si les seuils sont bas, les métis appartiennent au deux races et ne sont donc jamais soumis au critère de préférence réciale. Si les seuils sont hauts, au contraire ils sont toujours soumis à ce critère, et donc la préférence raciale peut jouer à leur encontre, ce qui est très discutable. En fait la question est un peu de savoir si les gens veulent un partenaire de la même race qu'eux ou évitent un partenaire d'une race différente. J'imagine que ça ce serait possible de le mesurer dans une étude. A priori c'est purement un jeu de l'aléatoire et dû au fait que les portées sont mono-sexe. Pourtant ce devrait être le cas puisque dans ce cas les individus ont plus de chances de s'étiquetter "de race différente" les uns les autres, et donc de se soumettre au critère de préférence raciale. C'est peut-être aussi parce qu'à moins que tu sois allé changer cette variable globale qui est dans le code et pas dans les sliders, les purs "non white" commencent à seulement 10% de la population. Mais oui ton observation est juste : comme ils sont davantage a l'origine, il est normal qu'à fécondité égale ils soient avantagés. Pour modifier cet aspect il faut aller à cette ligne " ifelse who < (initial-pop / 10)", c'est le test qui, dans l'énumération des tortue, détermine le numéro de celle à partir de laquelle on change d'affectation de trait. Donc si tu mets "2" à la place de "10", tu partiras avec une répartition égale au départ. C'est bien ça. Même si ces métis sont "quasiment blanc", comme la "blancheur" nécessaire pour être "vu comme blanc" est de 100%, eh bien il n'y a "plus de blancs". Dans ce modèle, la race n'est pas une réalité objective Oh si, toute chose égale par ailleurs ça change quelque chose, ça influe sur la tendance au métissage dans la population, peu importe la valeur des sliders de catégorisation raciale puisque justement si cette préférence est faible, ils ne sont pas soumis à ce test. Question qui va rester sans réponse a mon avis. Si on veut aller voir du côté des dynamiques d'asymétrie sexuelle il faudrait introduire deux choses : les individus peuvent avoir plusieurs partenaires, éventuellement rester plus ou moins ensemble. Niveau code ça risque de devenir hairy parce que d'une part il faut totalement redéfinir la fécondité (qui ne serait plus juste le nombre d'enfants produit par un rapport) et cela introduirait pas mal d'asymétrie dans les rôles de tortue, donc des fonctions différentes. Mais bon, pourquoi ne pas relever ce défi ! Glad you like it.
  19. Très bonne question. Pour l'instant la réponse est non. On pourrait mixer le critère de catégorie raciale avec un critère de perception des différences de traits elles mêmes, une critère de "similarité", selon lequel les individus auraient un degré de similarité les uns avec les autres. On pourrait même se demander ce qui influencerait le mix entre les deux critères, je crois que j'en parle un peu dans la notice, je suis pas totalement sûr de vouloir faire beaucoup d'hypothèse psychologique (même si là j'en fais une en quelque sorte en supposant qu'un critère discret de catégorisation raciale entre en jeu... bon c'est la prémisse du modèle, il faut dire). ... au fait, la V2 est là ! Je vous laisse voir la notice pour les modifications. En gros deux sexes sont maintenant distingués, la complémentarité est nécessaire pour la reproduction, et les individus meurent après la reproduction, donc avec un taux de fécondité inférieur à 2, une population peut disparaître ! Plus exactement, à moins que le modèle soit saturé et que les limites environnementales tuent les individus, une population peu féconde va tendre à 0 ou 1 seul individu suivant la parité initiale, mais lentement, comme les individus ne meurent pas "de vieillesse", ils vont juste avoir de moins en moins de chance de se croiser et se reproduire... donc de mourir. La notice contient mes premières observations dans la simulation, je n'en ai pas fait beaucoup, je compte sur @Vilfredo Pareto pour beta-tester ! Substitutions Formidables v2.nlogo
  20. Ce phénomène de disparition m'a aussi intrigué (alors même le compte ne change pas et que cela semble incohérent avec le modèle). En fait ce qui se passe c'est que les tortues (je dis tortues car dans le langage un agent est désigné par ce mot) deviennent noires (invisibles sur fond noir), et il semble que ça ne se passe que pour des tortues qui sont au maximum d'un des deux traits. Manifestement cela vient d'une bêtise dans mon calcul de la couleur. (edit : c'est corrigé) Remarque que par construction, les traits qui influencent la catégorisation raciale sont bornés entre 1 et 100 et somment à 100. Donc déjà, si les deux sliders ont une valeur supérieure à 50, un certain nombre d'individus métissés seront toujours soumis au test de préférence raciale et donc si le seuil est élevé, se reproduiront moins souvent. Donc des seuils élevés devraient amener à des outcomes moins métissés (après quelques tests on dirait que c'est ce qui se passe, les masses d'individus se croisent sans se mixer et ce sont les plus dynamiques qui gagnent). Maintenant comparativement, j'avoue que mon intuition n'est pas claire : si le seuil de "seen as white" est plus élevé que le seuil de "seen as nonwhite", je dirai que le modèle devient sensible au hasard : si un peu de métissage se produit, alors ces individus seront davantage des partenaires potentiels pour les "nonwhite" que pour les "white"... Oui, en fait il n'y a pas de dynamique liée à la variation de la population dans ce modèle, car la population initiale est égale à la capacité, les individus ne font que se "remplacer" pour le coup. C'est quelque chose qu'il faut que j'améliore. Je viens de comprendre ça en essayant de répondre à ta question sur les seuils de catégorisation. En fait si la préférence raciale et au max et les seuils de perception raciale au max aussi, comme le test qui détermine la compatibilité demande que le partenaire ait un score strictement supérieur au seuil... eh ben c'est impossible. Donc personne ne se reproduit, c'est pourquoi la population est constante au max. Comme personne ne se reproduit, personne ne meurt, et je pense que comme les agents ne peuvent pas occuper la même parcelle en même temps, eh bien ils se bloquent les uns les autres bêtement. Dans le cas normal, c'est la disparition de les congénères qui leur permet de bouger, d'ailleurs tu peux le débloquer en diminuant la population max... En tout cas si on remplace l'inégalité stricte par une égalité large dans le test, il n'y a plus de blocage...
  21. @Vilfredo Pareto je te réponds demain sur tout (ma réponse est presque finie mais j’ai du sortir et j’aurai pas le temps ce soir). Pour ta toute dernière question sur les taux de fécondité inférieurs à 2 cf. la notice, c’est du au modèle que j’ai pris pour base mais c’est la première modif sur la liste.
×
×
  • Create New...