Jump to content
Sign in to follow this  

About This Club

"An approximate answer to the right problem is worth a good deal more than an exact answer to an approximate problem." -- John Tukey

  1. What's new in this club
  2. Effets aléatoires *même cerveau cosmique *
  3. Ok je vois ce que tu veux dire, même si je ne suis pas sûr de ranger Deepfake dans la case "réalité augmentée". Et pour l'instant, il me semble que les app qui te permettent de visualiser un canapé, un pokemon, ou autre n'utilisent pas trop de ML, d'ou ma remarque. Ceci dit, je suis d'accord que c'est quelque chose qui va venir, mais pour l'instant, j'ai plutôt l'impression qu'on en est au step 1, que le step 2 ne sont pas fait avec des modèles type ML, que le step 3 n'est pas du tout au point pour l'instant (pour le rendu du moins, les GAN font encore des trucs moche quand ce n'est pas un visage).
  4. Un exemple très explicite : Deepfake Après en retail le step 1 c'est la recherche d'image par similarité (j'aime bien ce truc je cherche un truc pareil dans le catalogue qui a la même tête). Le step 2 c'est comment ce canapé irait ben dans mon salon. Le step 3 c'est "comment je pourrais créer une ambiance wabi sabi dans mon jardin à partir des trucs au catalogue Leroy Merlin" (à ma connaissance le step 3 n'est pas encore en prod nulle part) Sinon si j'ai posté ce lien c'et plutôt pour avoir des retours sur mon article de blog à tout prendre. Sinon ML/DL et réalité augmentée : https://www.adma.com.au/resources/retail-trends-machine-learning-augmented-reality ( les mots clefs deep learning augmented reality renvoient beaucoup de réponses)
  5. Quel rapport fais-tu entre réalité augmentée et ML ? Je demande parce que à ma connaissance, il n'y a pas trop de ML la dedans. Si tu as des exemple ou ce n'est pas le cas, je veux bien une ou deux refs.
  6. Tiens ben en vérifiant mes maj des softs adobe je suis tombé sur ça: https://www.adobe.com/fr/sensei.html
  7. 8 Jan Comment le deep learning a stimulé l’IA – La série de l’IA épisode 2 POSTED AT 17:37H IN ARTICLES BY MARCOM L’apprentissage profond (deep learning) a révolutionné notre capacité à aborder des problématiques complexes. La reconnaissance d’images, de visages, de sons et le traitement du langage sont maintenant des tâches automatisables avec d’excellents taux de conformité alors que ce n’était qu’un rêve il y a seulement quelques années. Mieux encore, les outils permettant de réaliser ces actions sont devenus extrêmement simples à utiliser et se démocratisent. Les réseaux de neurones ont permis cette révolution grâce des ordinateurs plus puissants qui permettent enfin de répondre à leur appétit dévorant en terme de calculs. Les frameworks modernes comme Keras permettent de les exploiter de manière simple et rapide. Un exemple ? Imaginez que vous souhaitiez laisser entrer dans votre maison uniquement les personnes souriantes devant votre interphone. Avec Keras, en utilisant les réseaux de convolution, vous pouvez le programmer en moins de 50 lignes de code. Votre porte ne s’ouvrira qu’aux personnes souriantes. Quelque soit le business, l’analyse des images permet d’apporter une connaissance plus fine des process ou des clients et de créer de nouveaux usages. L’imagerie médicale a naturellement fait des progrès et les diagnostics sont de plus en plus précis. Les véhicules voient leur environnement et deviennent autonomes. En retail l’expérience client est renouvelée : il est maintenant possible de visualiser un nouveau canapé ou une nouvelle décoration dans son salon en réalité augmentée ou de rechercher une paire de chaussures sur un site e-commerce à partir d’une photographie. Les réseaux récurrents ont grandement amélioré notre capacité à traiter le langage et les séquences. Un programme peut apprendre Shakespeare pour générer des poèmes « à la façon de » , les applications sont nombreuses, comme avec la musique par exemple. Les chatbots ou agents conversationnels peuvent interagir pour apporter une réponse à un client ou servir un employé. Vous souhaitez catégoriser automatiquement une réclamation client, c’est possible. Traduire une langue à l’oral ? Possible aussi. Résumer un document ? Possible également. La gestion des projets d’apprentissage profond demande des spécificités et l’entrainement des réseaux neuronaux réclame une attention particulière. Il faut veiller à bien couvrir fonctionnellement la problématique à traiter en tenant compte des biais éthiques qui se manifestent. La communication entre les équipes de data scientists et des experts du métier concernés est primordiale pour la réussite des projets. Les prototypes de projets d’IA sont relativement rapides à mettre en place lorsque la problématique est bien cernée et la data nécessaire bien identifiée. https://blog.aid.fr/2019/01/18/comment-le-deep-learning-a-stimule-lia-la-serie-de-lia-episode-2/
  8. https://dms.licdn.com/playback/C4E05AQHFFq2rHWJZ5w/f0e31ef4e9bb40b3b2cd6fa46c8b7731/feedshare-mp4_3300-captions-thumbnails/1507940147251-drlcss?e=1548147600&v=beta&t=VZQEbdh5w6yNpEQv6Rcwh2nCJ6f7X1mJ92C25RNWgaw
  9. Tutut pa de remise. (mais oui je dois étudier la variance rééchantillonnée pour environ 500 tirages)
  10. Oui je comptais tester comme ça, sachant que la condition "n jours par gugusse" est plus importante que "n jours par semaine au global". Le problème mineur c'est qu'en R en faisant comme ça c'est long un tirage. (plusieurs centaines de secondes contre quelques dixièmes le sampling simple) J'vais p'être devoir y aller en rcpp (api c++ dans r) et ça me déprime. (quoique je n'ai pas testé avec SAS)
  11. Tu peux pas faire l'inverse ? Tu sélectionnes tout, tu classes comme tu veux, tu définis tes quotas pour chaque catégorie et ensuite tu jètes des éléments au hasard tant que tu tes quotas sont pas ce que tu attends.
  12. Est-ce qu'on est sûr qu'au moins une solution existe ? Si non, ça peut commencer à devenir intéressant de faire N tirages valables au niveau local et de déterminer une mesure de la distance par rapport à un tirage équilibré au niveau global. Si des tirages sont valables aussi au niveau global on en prend un au hasard, sinon on en prend un au hasard parmi les plus proches. Selon ce qui est mesuré on peut même envisager de faire du bootstrapping
  13. Ah je pensais que le but était justement de tester quand ils étaient là ou pas. Du coup oui il faut rajouter des exceptions et ça fout le bordel au niveau global et c'est chiant.
  14. Le truc c'est que : 1 les gens ne sont pas là tous les jours 2 il faut que mon tirage global soit équilibré en jours nommés et semaine La condition 2 fait chier, sinon je m'en tirais avec des sample_n() de dplyr.
  15. Bah si j'ai bien compris du coup on a un dataframe comme ça : Id W D 1 1 1 * 1 1 2 1 1 3 1 1 4 1 1 5 1 2 1 1 2 2 * 1 2 3 1 2 4 1 2 5 1 3 1 1 3 2 1 3 3 * 1 3 4 1 3 5 1 4 1 1 4 2 1 4 3 1 4 4 * 1 4 5 1 5 1 1 5 2 1 5 3 1 5 4 1 5 5 * 2 1 1 2 1 2 * 2 1 3 2 1 4 2 1 5 2 2 1 2 2 2 2 2 3 * 2 2 4 2 2 5 2 3 1 2 3 2 2 3 3 2 3 4 * 2 3 5 2 4 1 2 4 2 Et si on contrôle là où il y a les étoiles (sujet 1 = semaine 1 jour 1, semaine 2 jour 2, semaine 3 jour 3..., sujet 2 = semaine 1 jour 2, semaine 2 jour 3, semaine 3 jour 4...) ça respecte les contraintes à la fois sur le tirage global et par individu. C'est généralisable à un nombre arbitraire de sujets mais pas forcément de semaines (la flemme de tester avec 10 pour voir mais à vue de nez je dirais que ça marche en doublant le nombre de tirages et en continuant la série). Reste à randomiser en reparamétrant pour assigner à chaque semaine/jour un nouveau nombre aléatoire. Mais bon, c'est vendredi soir, je suis fatigué, je loupe sûrement un truc
  16. Spontanément, j'irai dénombrer le nombre de possibilités P par individu et pour chaque individu sampler 1/P. Ensuite le dénombrement est assez dégueulasse. Ca doit être un truc du genre, avec S le nombre de semaines : (n parmi S)(n parmi S-5)(n parmi S-10)...(n parmi S-20) - (coefficient de dénombrement lié aux impasses) Le deuxième terme me semblant un peu galère.
  17. Ha ben lubridate pour les dates oui bien sûr. (fonctions weekdays() et week() )
  18. Déjà pour faire le ménage je convertirais les dates en un format non horrible. > strptime("03/09/2018", "%d/%m/%Y", tz="GMT") [1] "2018-09-03 GMT" Ensuite je rajouterais des colonnes avec le numéro de la semaine et le jour puisque c'est important. # Week of the year as decimal number (00–53) using the first Sunday as day 1 of week 1 > strftime("2018-09-03 GMT", format = "%U") [1] "35" # Abbreviated weekday name in the current locale. (Also matches full name on input.) > strftime("2018-09-03 GMT", format = "%a") [1] "lun." Cf. http://www.astrostatistics.psu.edu/su07/R/html/base/html/strptime.html pour les options.
  19. J'ai un challenge pour vous messieurs mesdames. J'ai une base avec des individus qui des jours sont là, des jours sont pas là. J'ai y jours par individus. LEs données se présentent de la forme Id date 1 03/09/2018 1 04/09/2018 1 07/09/2018 1 11/09/2018 2 17/10/2018 2 30/10/2018 2 17/11/2018 Je veux tirer au hasard n jours par individus. n est un multiple de 5. On ne garde pas les week-ends. Je veux que le tirage global : équilibre le nombre d'observation par semaine (numero iso de la semaine) équilibre le nombre de jours nommés (c(lundi, mardi, mercredi, jeudi, vendredi) Et je veux que le tirage par individu : comporte n/5 lundi, n/5 mardi... ai au moins n semaines différentes Pour la simplicité on ne garde que les individus présents au moins 2 jours nommés de chaque. (2 lundi, 2 mardi...) et présents au moins n semaine. Si vous avez un programme R ou SAS, ou un algo qui fait ça, je suis tout ouïe.
  20. Je ne veux pas faire mon national-socialiste de la grammaire mais on dit "memetique" et pas "memestique"
  21.  
×
×
  • Create New...