Aller au contenu

WBell

Utilisateur
  • Compteur de contenus

    2 455
  • Inscription

  • Dernière visite

  • Jours gagnés

    2

Tout ce qui a été posté par WBell

  1. Toi, tu as voulu apprendre à faire du yoyo de compétition, mais tu n'a jamais trouvé le bon prof !
  2. @pankkake : c'était une demi-vanne, que je balançais . Blague à part, je pense réellement qu'on peut apprendre n'importe quoi à n'importe quoi, à deux conditions : que la personne ai envie d'apprendre ladite chose, et que son cerveau fonctionne normalement (à peu près dans la norme. Par exemple, donner des cours de judo à des personnes trisomiques, c'est plus compliqué). Après, suivant le pli et le fonctionnement de chacun, ce que quelqu'un apprendra sans aucun effort, quelqu'un d'autre mettra dix fois plus de temps. Et ce temps, il a un cout (pour l'élève et le prof). Mais pour moi, à partir du moment où le prof a la "bonne méthode"tm pour délivrer la compétence à acquérir, ça marche. Et c'est ça aussi qui peut prendre beaucoup de temps. La bonne méthode pour apprendre une langue n'est pas la même que pour apprendre à danser, etc...
  3. J'ai l'impression que dans les CV qu'on m'envoie, je ne récupère que les informaticiens qui feraient d'excellents boulangers...
  4. Tiens, pour une fois je vais doubler H16 ! En fait l'application existe bien, c'est WordLens, sur iOS (http://questvisual.com/fr/). La détection se fait pour l'espagnol, l'anglais, l'allemand et le français, avec remplacement du texte en overlay sur le texte suivi (par contre dans la vie de tous les jours, l'overlay est beaucoup moins beau car c'est rare que l'on puisse contrôler l'environnement lumineux de l'endroit dans lequel on est). Pour ceux qui veulent s'en créer un petit avec OpenCV, je peux filer les étapes (j'avais voulu en faire un moi-même il y a quelques mois, mais j'ai été rattrapé par le travail). En gros : 1) on prend l'image, et on n'en garde que les contours (filtre de Canny - Stroke Width Transform, etc...) => ça permet de redresser les plans sur lesquels se trouvent un texte éventuel, car on ne filme pas forcément un texte parallèle au smartphone. Pour détecter des plans : transformée de Hough. 2) on prend l'image, et on cherche des descripteurs (SURF, SIFT, ORB, ce que vous voulez - pour les informaticiens), qui ressemblent à des descripteurs de caractères imprimés dans l'image => permet de savoir s'il y a du texte dans l'image 3) un petit OCR sur l'image (ça, c'est l'étape la moins propre, parce que de bonnes bibliothèque d'OCR, robustes, et qu'on puisse charger sur un smartphone, il n'y en a pas beaucoup. Regarder du coté d'ABBYY pour du commercial, ou Tesseract pour du libre). 4) une fois le texte reconnu, on tape dans un dico, et on remplace les mots (ou on envoie tout à Google Translate, par leur API). 5) la SWT de l'étape 1 permet de reconnaitre le type de police, et on peut extraire la couleur de la police. 6) on réécrit le texte traduit à l'aide du dico avec la bonne police/couleur 7) on transforme l'image du texte nouvellement écrit par l'inverse de la matrice de déformation du plan de l'étape 1 (un plan regardé en perspective, c'est une homographie. En annulant l'homographie, on a une image plane. Donc en prenant l'inverse, on retrouve notre image en perspective). Je vous avais dit que je cherchais des stagiaires ?
  5. En fait, si tu changes de voiture tous les 3 ans (pour garder un véhicule sous les 80 000/100 000 kms, on va dire), pour un véhicule de 10 000+, c'est à peu près le même budget chaque mois.
  6. WBell

    Papauté, Kebab & Confiture

    Si le futur pape quitte le conclave avec la papamobile, un peu sous pression, ça sera un autoclave.
  7. J'ai vu pour l'histoire de l'assurance, ça devra entrer en compte pour le calcul total (pareil pour la limite de kilométrage). Le truc qui m'intéresse, c'est que les pannes multiples sont à la charge de la société qui loue (et des mauvaises surprises avec des pannes j'en ai eu une paire, avec la route - ou alors c'est l'A1 qui est une autoroute toute pourrie). L'autre chose qui m'intéresse, c'est que le véhicule est insaisissable, puisque tu n'en es pas le propriétaire .
  8. J'ouvre ce fil car je pense bientôt changer de voiture (la petite grandit et la voiture devient vieille). En regardant les options possibles, je redécouvre la Location avec Option d'Achat (le bon vieux leasing voiture pour les entreprises), qui est possible également pour les particuliers. Alors qu'il y a beaucoup d'infos sur le net pour les entreprises, j'ai assez peu de retour pour le leasing quand on est un particulier. Y en a-t-il ici qui y ont recours ? Quels sont les avantages et les inconvénients (sachant que je roule beaucoup, je passe entre 2h et 3h/jour sur la route) ?
  9. C'est bien que ça soit SCM qui se le soit farsi.
  10. Qu'ils choisissent une solution à leur problème en fonction des informations qu'ils connaissent déjà. "Probabilité de (A) sachant (B)". Ça fait un peu fumiste de mettre Bayes qui n'avait rien demandé là dedans .
  11. WBell

    Jeux vidéo

    "J'ai un plan pour conquérir le monde !"
  12. . En fait c'est plusieurs jeux à intégrer dans une box commune.
  13. @pankkake : en fait, je n'ai pas la main finale sur le choix des technos utilisées sur notre produit. Je dois donc intégrer, sur une base Linux custom, du travail qui est fait en C/C++ et du travail fait sous Flash. Plus du HTML5 dans quelques temps (youpi, je vois bien le tableau d'ici...). Ajouté à ça du matériel exotique (Kinect, PrimeSense), j'ai de sueurs froides certains soirs.
  14. WBell

    Jeux vidéo

    Les geeks qui ont poussé au développement des consoles Android sont tout excités. "On a une console custom à nous !" "On emm*rde Big N, Sot ny, M$ et les autres !" "Maintenant, on va avoir plein de jeux géniaux dessus, les gamedevs sont libérés de la tyrannie des 3 !" Et quelques mois plus tard "Ah zut, on a que les jeux smartphones dessus, aucun studio ne vient !" Ne pas payer une licence MS, Sony ou Nintendo, ce n'est pas un argument suffisant pour faire venir les studios de gamedev. C'est comme tout. Il y a une demande pour des jeux en tactile. Il y a donc des gens qui vont trouver des mécanismes pour répondre à cette demande. Voilà. Et les RTS ou les SimCity-like existent aussi sur console (alors qu'avec un pad, c'est terrible à jouer).
  15. WBell

    Jeux vidéo

    En fait la Wii a vraiment bien aidé Nintendo au moment de sa sortie. Si ça n'avait pas été le cas, en sortant une console beaucoup plus limité techniquement que ses concurentes, Nintendo aurait connu la situation périlleuse qu'il vont connaitre maintenant. Cette situation aurait juste eu lieu 5 ans avant.
  16. Un truc qui me fait râler, dans les tâches que je répartis pour l'équipe, c'est la différence de workflow pour debugger sous Windows vs. Linux. On repasse du code sous Windows pour trouver certains problèmes code & matos, avant de le remettre sous Linux, parce que sous Linux, c'est la misère. (Je précise que le contexte et bien particulier : studio de gamedev 3D PC, qui doit parler à du matériel exotique, Kinect notamment).
  17. Animal à sang froid.
  18. WBell

    Les coQilles des journaux

    Sur Wikipedia, les parts d'audience pour BFM TV sont de 2,5%. Je ne trouve pas ceux de BFM radio.
  19. Tu sais quoi ? Ils trouveront le moyen. C'est la force du génie humain. Quand j'étais dans un labo, une des méthodes pour faire rentrer des fonds, c'était de répondre à des projets ANR. S'ils n'avaient pas existé, on aurait du trouver l'argent ailleurs. Dans une société socialiste coincée comme la France, ce n'est pas possible, parce que tu ne peux pas avoir la flexibilité et la réactivité que tu as dans d'autres pays (anglo-saxons, par exemple). Passe une semaine sur un site comme HackerNews, tu vas voir la multitude de méthodes inventés par les geeks pour monétiser leurs projets, passions, jeux, logiciels, activités diverses. A partir du moment où un être humain a besoin de quelque chose, et qu'un autre a accès à cette ressource, il trouvera un moyen pour réaliser l'échange.
  20. Comme disait H16, "l'algo" d'apprentissage du cerveau est le même répété à plein d'endroits différents. Il y a juste certaines structures qui ont été "sélectionnées" par l'évolution. Ainsi, l'algo de reconnaissance d'objets par la vue est aidée par le fait que la chaine d'éléments visuels (les aires V1 à V6) profite de certaines couches qui "boostent" la reconnaissance (ainsi, dans le cerveau humain, il y a une couche qui favorise les éléments visuels qui sont constitué d'une tache sombre près d'une tache claire, ça aide à construire les "bords" des objets). Un autre organisme (non mammifère) aurait pu choisir autre chose avec l'évolution. On se rend compte quand même que nos outils mathématiques, pour certains, existent depuis très longtemps (avant les découvertes neurobiologiques de ce siècle), et approximent bien ce qui se passe dans le cerveau. Par exemple, la fameuse zone visuelle dont je parlais qui sélectionnait des taches sombres/lumineuses, c'est exactement une implémentation en cellulaire des fonctions de Gabor : Filtre de Gabor : Réponses des cellules de la zone visuelle concernée : En gros, pour résumer mon blabla : - l'approche bottom-up de la nature a autorisé l'utilisation du même algo partout - l'évolution a sélectionné certains "boosts" pour différentes couches - les outils mathématiques, physiques et chimiques existent parfois depuis plusieurs siècles, pour faire la même chose que fait la nature, dans une vision "top-bottom".
  21. WBell

    Matos & autres

    En fait, ça va te couter moins cher d'acheter une vraie caméra thermique. A savoir : dans certaines municipalités, tu peux t'en faire preter une, ou en louer une moins chère (argent gratuit destiné à tout ce qui est écolo-thermo-BBC-et-gnagnagna). Un capteur CCD/CMOS capte en visible et proche IR, l'IR thermique est trop éloigné.
  22. WBell

    Jeux vidéo

    Pour ne pas trop en dire, on essaye d'améliorer les depthmaps.
  23. WBell

    Jeux vidéo

    M'en parle pas. Il y a des gars de mon équipe en ce moment qui "essayent" de transformer ce qui est un gadget ludique en vrai outil, c'est de l'arrachage de cheveux... En fait, l'article ne présent pas les choses dans l'ordre. La piste de réflexion est la suivante : l'ANR propose chaque année de l'argent pour des projets de recherche (plus ça peut être appliqué vite à des problématiques du privé, plus il y a de chances que le dossier passe). L'INRIA (si tu veux tout savoir, je connais le gars qui est cité dans l'article) est placé sur le créneau "passage des projets de recherches dans des partenariats public-privé". Leurs dossiers passent plus facilement. Ça fait une paire d'années que les éditeurs de jeux vidéos ont saturé le marché. Après les pré-ados, les ados, les adultes, les femmes, les tout-petits, les maisons de retraites (Wii par exemple), il n'y a plus grand monde à transformer en nouveaux joueur. Et contrairement à ce qu'on peut lire dans les magazines, les éditeurs se sont rendus compte très vite que le mobile et les jeux sur le net (facebook) allaient leur tailler des croupières. Donc quand tout le monde a une console, et que tu sais que tu ne vendras pas le modèle "720++", qui est juste le modèle précédent avec plus de CPU, de RAM, et de GPU, avec seulement ça comme argument, il faut "innover". On a donc eu la WiiMote, le PS Move, la Kinect (je sais pas si c'est de sexe féminin ou masculin. Quoi qu'il y a un fil qui pend ), le stylet de la DS, puis son écran autostéréo, etc... Les BCI, c'est la suite logique. Coup de bol, ça fait une paire de décennies que l'INRIA et d'autres sont dessus. Mais ça coûte trop cher à développer en interne, même pour Nintendo, Sony, ou MS (tous les technos, de la WiiMote à la Kinect présentées au paragraphe précédent ont été achetés, parfois avec la boite qui les a conçus). Donc tu as d'une pierre trois coups. 1) L'INRIA se fait financer du dev sur lequel il bosse déjà 2) l'ANR peut arroser un dossier (l'argent sera de toutes façons dépensé, si ce n'est pas ce projet là, c'est un autre) 3) les studios de gamedev et de console vont profiter d'ici 5 à 10 ans d'une génération d'électroniciens et de gamedev qui auront été formé à ça. 4) la durée de vie d'une console étant de 3 à 5 ans (ça tire sur les 7 ans maintenant), ça sera pile parfait pour servir de gadget pour vendre la génération prochaine (dont la Xbox "720", la WiiU, et le machin de chez Sony-qui-n'a-pas-encore-de-nom n'en profiteront pas encore Avec 3 millions d'€, tu fais vivre une (petite) équipe INRIA pendant 2 ou 3 ans.
  24. Assure-toi que le téléphone que tu tripotes soit bien sur le présentoir et pas déjà dans une poche d'un ou d'une client(e). Sinon, surprise !
  25. WBell

    Jeux vidéo

    Pour avoir travaillé avec des BCI, je vais pouvoir la ramener ! (Avec le NIA d'OCZ, notamment). Ça existe depuis un moment en médical, mais c'est très récent pour le grand public. Il a fallu notamment attendre que les progrès sur les fibres de carbones permettent de faire des électrodes "froides" (qui n'ont pas besoin de gel conducteur spécial pour fonctionner). Sur la plupart des BCI (interfaces cerveaux machines), il y a un EMG, qui permet de détecter l'activité électrique des muscles du visage (clins d'oeil, contraction maxilaire, recul des oreilles, etc)... C'est assez facile à actionner, et on peut mesurer le niveau de contraction. Avec un peu de pratique, on sait par exemple presser la langue plus ou moins fort sur le palais, et ça suffit à activer le capteur EMG. En utilisant juste ça, ça permet de faire le mapping entre une valeur continue (le potentiel électrique musculaire), avec une autre valeur continue (par exemple le déplacement du curseur de la souris sur l'axe horizontal). Le problème, c'est que c'est difficile, voire impossible d'avoir plusieurs capteurs EMG distincts sur le visage sans qu'il n'y ait de la corrélation croisée (avec un casque entre 100$ et 200$, les capteurs plus perfectionnés seraient trop chers). Pour la détection de l'activité du cerveau, le principe est différent. On capte toujours un potentiel électrique, qu'il faut d'ailleurs nettoyer (virer l'activité de l'EMG présenté précédemment, nettoyer les 50 Hz ou 60 Hz du secteur, etc...) Les échanges électriques au sein du neocortex "s'additionnent" pour donner une fréquence globale. Cette fréquence correspond aux fameuses fréquences "alpha", "beta", "gamma", etc... Lorsqu'on dort, les fréquences enregistrées sont principalement des "deltas" (jusqu'à 4Hz). "alpha" (8Hz-13Hz) : relaxation. "beta" (13Hz-30Hz) : concentration, etc... Il faut réussir à se calmer, et à penser à quelque chose qui vous permette de se mettre dans l'état d'esprit correspond. C'est dur. Et c'est comme l'apprentissage de la marche, à 10 mois, ça met 6 mois à fonctionner (tout le monde laisse tomber avant d'y arriver). Il faut également imaginer ça comme un lac dans lequel tombent des cailloux : il y a des vaguelettes qui se développent sur la surface du lac. Quand une autre pierre tombe, les vagues entrent en conflit avec les ondes précédentes, mais ne les annulent pas forcément, etc... C'est aussi long et imprévisible que ça. La dernière technique, c'est de prendre un IRM, et d'enregistrer l'activité du cerveau lorsque la personne pense à quelque chose. Après une petite série de scènes visualisée, on fait passer un algo d'apprentissage sur les données collectées. A l'avenir, lorsque l'utilisateur va penser à quelque chose, l'algo vous donnera la "scène" la plus proche de celles déjà connues. Mais un IRM, c'est énormément de données à la minute (et ça coûte cher).
×
×
  • Créer...