Jesrad Posté 5 mars 2013 Signaler Posté 5 mars 2013 Des émetteurs de bruit blanc sur les fréquences utilisées par ces appareils.
Malky Posté 11 mars 2013 Signaler Posté 11 mars 2013 http://creativegood.com/blog/the-google-glass-feature-no-one-is-talking-about/ Gogole Glass, ça fait peur. Vite, interdisons les armes : elles peuvent tuer. Vive les squelchers. 'Jammers' plutôt, je suppose.
pankkake Posté 11 mars 2013 Signaler Posté 11 mars 2013 Vite, interdisons les armes : elles peuvent tuer.Une arme dans la poche ça ne me gène pas. Une arme braquée sur moi, je tire le premier.
Malky Posté 11 mars 2013 Signaler Posté 11 mars 2013 Un appareil photo braqué sur moi, je photographie le premier. Et ?
Jaimepasmonpseudo Posté 12 mars 2013 Signaler Posté 12 mars 2013 Pour le cousin fauché de Lucilio : http://ibuzzyou.fr/poche-a-alcool-ou-comment-boire-en-boite-de-nuit-gratuitement.html
Gil_Grissom Posté 14 mars 2013 Signaler Posté 14 mars 2013 Je suis tombé là-dessus. Je ne pense que ce soit un fake. Impressionnant ce qu'on peut être capable de faire maintenant, quand même. Si quelqu'un en sait un peu plus...
h16 Posté 14 mars 2013 Auteur Signaler Posté 14 mars 2013 C'est un fake. Mais l'idée de base est en cours de développement, oui.
Brock Posté 14 mars 2013 Signaler Posté 14 mars 2013 si l'appareil voit le texte ca lui devient facile de le tracker. Par contre pour que ce soit lisible/visible c'est mieux de faire un sous titre, vu que l'appareil ne va pas remplacer le texte avec son fond, et que surimposer va rendre l'image illisible.
h16 Posté 14 mars 2013 Auteur Signaler Posté 14 mars 2013 si l'appareil voit le texte ca lui devient facile de le tracker. Par contre pour que ce soit lisible/visible c'est mieux de faire un sous titre, vu que l'appareil ne va pas remplacer le texte avec son fond, et que surimposer va rendre l'image illisible. Oui, voilà. C'est qui est en cours de dev : le sous-titrage des textes. Le sous-titrage des sons, c'est aussi en cours (Google).
Noob Posté 15 mars 2013 Signaler Posté 15 mars 2013 Très pratique pour éclairer le jour, en revanche la nuit ...
Nirvana Posté 15 mars 2013 Signaler Posté 15 mars 2013 Très pratique pour éclairer le jour, en revanche la nuit ... Donc ça ne sert strictement à rien ?
Freezbee Posté 15 mars 2013 Signaler Posté 15 mars 2013 Donc ça ne sert strictement à rien ? Pas encore, mais attends que Hollande termine son mandat...
WBell Posté 15 mars 2013 Signaler Posté 15 mars 2013 Je suis tombé là-dessus. Je ne pense que ce soit un fake. Impressionnant ce qu'on peut être capable de faire maintenant, quand même. Si quelqu'un en sait un peu plus... C'est un fake. Mais l'idée de base est en cours de développement, oui. Tiens, pour une fois je vais doubler H16 ! En fait l'application existe bien, c'est WordLens, sur iOS (http://questvisual.com/fr/). La détection se fait pour l'espagnol, l'anglais, l'allemand et le français, avec remplacement du texte en overlay sur le texte suivi (par contre dans la vie de tous les jours, l'overlay est beaucoup moins beau car c'est rare que l'on puisse contrôler l'environnement lumineux de l'endroit dans lequel on est). Pour ceux qui veulent s'en créer un petit avec OpenCV, je peux filer les étapes (j'avais voulu en faire un moi-même il y a quelques mois, mais j'ai été rattrapé par le travail). En gros : 1) on prend l'image, et on n'en garde que les contours (filtre de Canny - Stroke Width Transform, etc...) => ça permet de redresser les plans sur lesquels se trouvent un texte éventuel, car on ne filme pas forcément un texte parallèle au smartphone. Pour détecter des plans : transformée de Hough. 2) on prend l'image, et on cherche des descripteurs (SURF, SIFT, ORB, ce que vous voulez - pour les informaticiens), qui ressemblent à des descripteurs de caractères imprimés dans l'image => permet de savoir s'il y a du texte dans l'image 3) un petit OCR sur l'image (ça, c'est l'étape la moins propre, parce que de bonnes bibliothèque d'OCR, robustes, et qu'on puisse charger sur un smartphone, il n'y en a pas beaucoup. Regarder du coté d'ABBYY pour du commercial, ou Tesseract pour du libre). 4) une fois le texte reconnu, on tape dans un dico, et on remplace les mots (ou on envoie tout à Google Translate, par leur API). 5) la SWT de l'étape 1 permet de reconnaitre le type de police, et on peut extraire la couleur de la police. 6) on réécrit le texte traduit à l'aide du dico avec la bonne police/couleur 7) on transforme l'image du texte nouvellement écrit par l'inverse de la matrice de déformation du plan de l'étape 1 (un plan regardé en perspective, c'est une homographie. En annulant l'homographie, on a une image plane. Donc en prenant l'inverse, on retrouve notre image en perspective). Je vous avais dit que je cherchais des stagiaires ?
h16 Posté 15 mars 2013 Auteur Signaler Posté 15 mars 2013 Tiens, pour une fois je vais doubler H16 ! En fait l'application existe bien, c'est WordLens, sur iOS (http://questvisual.com/fr/). La détection se fait pour l'espagnol, l'anglais, l'allemand et le français, avec remplacement du texte en overlay sur le texte suivi (par contre dans la vie de tous les jours, l'overlay est beaucoup moins beau car c'est rare que l'on puisse contrôler l'environnement lumineux de l'endroit dans lequel on est). Pour ceux qui veulent s'en créer un petit avec OpenCV, je peux filer les étapes (j'avais voulu en faire un moi-même il y a quelques mois, mais j'ai été rattrapé par le travail). En gros : 1) on prend l'image, et on n'en garde que les contours (filtre de Canny - Stroke Width Transform, etc...) => ça permet de redresser les plans sur lesquels se trouvent un texte éventuel, car on ne filme pas forcément un texte parallèle au smartphone. Pour détecter des plans : transformée de Hough. 2) on prend l'image, et on cherche des descripteurs (SURF, SIFT, ORB, ce que vous voulez - pour les informaticiens), qui ressemblent à des descripteurs de caractères imprimés dans l'image => permet de savoir s'il y a du texte dans l'image 3) un petit OCR sur l'image (ça, c'est l'étape la moins propre, parce que de bonnes bibliothèque d'OCR, robustes, et qu'on puisse charger sur un smartphone, il n'y en a pas beaucoup. Regarder du coté d'ABBYY pour du commercial, ou Tesseract pour du libre). 4) une fois le texte reconnu, on tape dans un dico, et on remplace les mots (ou on envoie tout à Google Translate, par leur API). 5) la SWT de l'étape 1 permet de reconnaitre le type de police, et on peut extraire la couleur de la police. 6) on réécrit le texte traduit à l'aide du dico avec la bonne police/couleur 7) on transforme l'image du texte nouvellement écrit par l'inverse de la matrice de déformation du plan de l'étape 1 (un plan regardé en perspective, c'est une homographie. En annulant l'homographie, on a une image plane. Donc en prenant l'inverse, on retrouve notre image en perspective). Je vous avais dit que je cherchais des stagiaires ? Oh ? je ne savais pas que c'était si avancé. Effectivement, je suis tout doublé et tout surpris. Great. Mais bon, comme tu le soulignes, dans la vraie vie, ça ne doit pas être toujours lisible pour le moment, je pense.
Gil_Grissom Posté 16 mars 2013 Signaler Posté 16 mars 2013 En fait l'application existe bien, c'est WordLens, sur iOS (http://questvisual.com/fr/). La détection se fait pour l'espagnol, l'anglais, l'allemand et le français, avec remplacement du texte en overlay sur le texte suivi (par contre dans la vie de tous les jours, l'overlay est beaucoup moins beau car c'est rare que l'on puisse contrôler l'environnement lumineux de l'endroit dans lequel on est). Ok, Merci pour le lien et la confirmation.
Nirvana Posté 17 mars 2013 Signaler Posté 17 mars 2013 Le principe d'incertitude d'Heisenberg remis en question par la première mesure directe des états quantiques de la lumière http://www.bulletins-electroniques.com/actualites/72572.htm Une équipe de chercheurs menée par Robert Boyd, titulaire de la Chaire d'excellence en recherche du Canada sur l'optique non linéaire quantique à l'Université d'Ottawa et professeur d'optique et de physique à l'Université de Rochester, vient de faire une découverte révolutionnaire. Le groupe est le premier à mesurer directement les états de polarisation du photon, soit les directions dans lesquelles oscillent les champs de lumière électriques et magnétiques. Ses travaux remettent également en question l'un des grands fondements du principe d'incertitude d'Heisenberg. Les résultats de ces travaux, publiés dans Nature Photonics (en anglais), montrent pour la première fois qu'il est possible de mesurer directement des variables clés, appelées "variables conjuguées", d'une particule ou d'un état quantique. Cette percée remet en question le principe d'incertitude selon lequel lorsque l'on mesure avec précision certaines propriétés d'un système quantique, la mesure des autres propriétés connexes ne sera pas aussi précise. Le contexte L'équipe de Robert Boyd a mesuré la polarisation des états de la lumière c'est-à-dire les directions dans lesquelles oscillent les champs électriques et magnétiques. Elle a ainsi découvert qu'il était possible de mesurer directement les variables - ou conjugués - d'un état ou d'une particule quantique. Ces états binaires de la lumière sont les vecteurs actuellement proposés pour coder l'information en informatique quantique. "La capacité à réaliser des mesures directes de l'état ondulatoire quantique a des implications majeures pour l'avenir de l'informatique quantique," explique Pr. Boyd. "Les travaux réalisés dans notre équipe s'intéressent aux applications de cette technique à d'autres systèmes tels que la mesure d'un groupe mixte d'état quantique." Jusque très récemment, on n'était parvenu qu'à mesurer indirectement les états quantiques de la lumière, par exemple par la tomographie quantique, long processus nécessitant un post-traitement massif de données. En mesurant directement, les équipes de recherche obtiennent les mêmes renseignements qu'avec la tomographie quantique, mais beaucoup plus rapidement. L'expérience Lorsque la lumière traverse un cristal bifringent, ses composantes polarisées verticales et horizontales divergent. Pour une mesure faible (bas du dessin) les deux composantes sont peu perturbées par le passage dans le système et permettent une seconde mesure suffisamment précise. Pour une mesure forte (haut du dessin), les deux composantes sont entièrement séparées. Crédits : Jonathan Leach La technique de mesure directe fait appel à une petite astuce : il s'agit de mesurer la première propriété de sorte que le système ne sera pas perturbé, et qu'il sera encore possible d'obtenir de l'information sur la deuxième propriété. Cette technique repose sur une mesure "faible" de la première propriété, suivie d'une mesure "forte" de la seconde propriété. La mesure "faible" a été décrite il y a 25 ans, elle consiste à coupler l'échantillon mesuré et le système de mesure elle-même de manière à ce que ce dernier ne perturbe pas le processus de mesure. La limite de cette technique est qu'une seule mesure produit une petite quantité d'information et il faut donc répéter l'expérience à de multiples reprises pour obtenir une moyenne suffisamment précise. Boyd, et al. ont utilisé la position et le moment de la lumière comme témoin de l'état de polarisation. Pour laisser un degré de liberté spatial à la mesure de la polarisation, ils ont utilisé des cristaux bifringents qui sépare spatialement la lumière en fonction de sa polarisation. Par exemple si la lumière est faite d'une combinaison de composantes polarisées verticalement et horizontalement, chacune de ces composantes va se séparer en un rayonnement spécifique de sa polarisation. L'épaisseur de ce cristal joue sur la force "faible" ou "forte" de la mesure et détermine un degré de séparation petit ou grand. Dans cette expérience, Boyd et ses collègues ont fait passer de la lumière polarisée à travers deux cristaux de différentes épaisseurs : un premier très fin qui mesure "faiblement" la polarisation verticale ou horizontale; et le second, bien plus épais, qui mesure "fortement" les états de polarisation diagonaux et anti-diagonaux. La première mesure faible perturbe suffisamment peu le système pour que la deuxième valeur reste valable. L'expérience a été réalisée plusieurs fois pour permettre des statistiques précises. En ajoutant tous ces résultats, on peut caractériser complètement et directement les états de la lumière. Les autres membres de l'équipe sont le chercheur associé Jonathan Leach et les étudiants de premier cycle de l'Université d'Ottawa Jeff Z. Salvail, Megan Agnew et Allan S. Johnson, ainsi qu'Eliot Bolduc, étudiant diplômé. Ce travail a été financé par le Programme de Chaires d'Excellence en Recherche du Canada avec le soutien du programme DARPA InPho. http://www.zmescience.com/science/physics/new-technique-bypasses-heisenbergs-uncertainty-principle/ Lien vers la publication originale : http://www.nature.com/nphoton/journal/vaop/ncurrent/full/nphoton.2013.24.html
Nirvana Posté 17 mars 2013 Signaler Posté 17 mars 2013 Pentagon weapons-maker finds method for cheap, clean waterBy David AlexanderWASHINGTON | Wed Mar 13, 2013 1:15am EDT (Reuters) - A defense contractor better known for building jet fighters and lethal missiles says it has found a way to slash the amount of energy needed to remove salt from seawater, potentially making it vastly cheaper to produce clean water at a time when scarcity has become a global security issue. The process, officials and engineers at Lockheed Martin Corp say, would enable filter manufacturers to produce thin carbon membranes with regular holes about a nanometer in size that are large enough to allow water to pass through but small enough to block the molecules of salt in seawater. A nanometer is a billionth of a meter. Because the sheets of pure carbon known as graphene are so thin - just one atom in thickness - it takes much less energy to push the seawater through the filter with the force required to separate the salt from the water, they said. The development could spare underdeveloped countries from having to build exotic, expensive pumping stations needed in plants that use a desalination process called reverse osmosis. "It's 500 times thinner than the best filter on the market today and a thousand times stronger," said John Stetson, the engineer who has been working on the idea. "The energy that's required and the pressure that's required to filter salt is approximately 100 times less." Access to clean drinking water is increasingly seen as a major global security issue. Competition for water is likely to lead to instability and potential state failure in countries important to the United States, according to a U.S. intelligence community report last year. "Between now and 2040, fresh water availability will not keep up with demand absent more effective management of water resources," the report said. "Water problems will hinder the ability of key countries to produce food and generate electricity." About 780 million people around the world do not have access to clean drinking water, the United Nations reported last year. "One of the areas that we're very concerned about in terms of global security is the access to clean and affordable drinking water," said Tom Notaro, Lockheed business manager for advanced materials. "As more and more countries become more developed ... access to that water for their daily lives is becoming more and more critical." PRODUCTION CHALLENGE Lockheed still faces a number of challenges in moving to production of filters made of graphene, a substance similar to the lead in pencils. Working with the thin material without tearing it is difficult, as is ramping up production to the size and scale needed. Engineers are still refining the process for making the holes. It is not known whether Lockheed faces commercial competition in this area. But it is not the only one working on the technology. Jeffrey Grossman, an associate professor at the Massachusetts Institute of Technology who has done research on graphene membranes for filtration, said he was not familiar with details of Lockheed's work. But he said finding a way to produce graphene sheets with nanometer-sized holes could produce a major advancement in desalination efficiency. "If you can design a membrane that's completely different than what we use today, then there's a chance for more than two orders of magnitude (100 times) increase in the permeability of the membrane," Grossman said. Stetson, who began working on the issue in 2007, said if the new filter material, known as Perforene, was compared to the thickness of a piece of paper, the nearest comparable filter for extracting salt from seawater would be the thickness of three reams of paper - more than half a foot thick. "It looks like chicken wire under a microscope, if you could get an electron microscope picture of it," he said. "It's all little carbon atoms tied together in a diaphanous, smooth film that's beautiful and continuous. But it's one atom thick and it's a thousand time stronger than steel." Thickness is one of the main factors that determines how much energy has to be used to force saltwater through a filter in the reverse osmosis process used for desalination today. "The amount of work it takes to squeeze that water through the torturous path of today's best membranes is gone for Perforene," Stetson said. "It just literally pops right through because the membrane is thinner than the atoms it's filtering." Notaro said Lockheed expects to have a prototype by the end of the year for a filter that could be used as a drop-in replacement for filters now used in reverse osmosis plants. The company is looking for partners in the filter manufacturing arena to help it commercialize Perforene as a filter in the 2014-2015 time frame, he said. Lockheed officials see other applications for Perforene as well, from dialysis in healthcare to cleaning chemicals from the water used in hydraulic fracturing, or "fracking," of oil and gas wells. (Editing by Warren Strobel and Jackie Frank) http://www.reuters.com/article/2013/03/13/us-usa-desalination-idUSBRE92C05720130313
E.T. bleu Posté 18 mars 2013 Signaler Posté 18 mars 2013 la polarisation des états de la lumière c'est-à-dire les directions dans lesquelles oscillent les champs électriques et magnétiques.
Gilles Posté 18 mars 2013 Signaler Posté 18 mars 2013 La remise en cause d'Heisenberg, ça m'a l'air un peu vendeur, je trouve. Dire qu'ils l'ont contourné me paraît plus juste, vu qu'au final ils le prennent quand même en compte dans l'expérience.
E.T. bleu Posté 18 mars 2013 Signaler Posté 18 mars 2013 Ils cherchent a buzzer ces chercheurs, comme l'autre qui met sa decouverte au nom de son fils.
Gilles Posté 19 mars 2013 Signaler Posté 19 mars 2013 De quoi faire sacrément rager plein de petits franchouillards: Bientôt des armes à feu imprimées en 3D et vendues aux USA Je ne me doutais pas que ce type de conception était avancée à ce point, c'est impressionnant.
Brock Posté 19 mars 2013 Signaler Posté 19 mars 2013 interessant mais il va falloir arreter avec le piano pseudo-romantique sur les videos pseudo-creatives qui sentent l'anglo starbuck apple de MES COUILLES
Brock Posté 19 mars 2013 Signaler Posté 19 mars 2013 rah putain le mec qui cause dans la vid je lui claquerais la gueule avec plaisir
jamkan Posté 19 mars 2013 Signaler Posté 19 mars 2013 Pourquoi il mette de la musique pendant qu'il parle ? Sinon oui, juste à cause de son pull.
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant