Aller au contenu

Linux est mort, vive OS X


Calembredaine

Messages recommandés

Mais lol, les discussions sur linux sur le desktop, linux sur le desktop c'est pour les masochistes, les masochistes qui se pleignent de souffrir, ça me fait marrer.

Il y a deux cas crédibles d'utilisation d'un GPU sous linux:

  • Android: Ohh, ça marche sans probleme
  • Nvidia Tesla: Ohh, ça marche sans probleme

Il y a un cas totalement ridicule et pas crédible d'utilisation d'un GPU sous linux:

  • Faire tourner X.Org: Ohh, c'est chiant, comme faire tourner X11 l'a toujours été…

Lien vers le commentaire

Ecoute si toi ça te plait de rester sur un vieux noyau libre

J'utilise des drivers libres donc je suis sur le dernier noyau de ma distribution. Ça marche et je n'ai pas à me poser de questions.

Et oui on a chacun eu une expérience différente, la belle affaire hein.

Non, ton expérience se confine à déformer la réalité pour avancer une idée débile, complètement irréfléchie que tu colporte.

Merci mon prince !

Sarcasme bien mal placé, tu ferais mieux de t'interroger.

Mais lol, les discussions sur linux sur le desktop, linux sur le desktop c'est pour les masochistes

Non.

les masochistes qui se pleignent de souffrir, ça me fait marrer.

Sauf que ceux qui se « pleignent » ne sont pas les mêmes, mais des mecs qui ne comprennent rien à rien et feraient mieux d'aller sur Mac OS et arrêter de vouloir détruire Linux, cf. cette discussion.

Lien vers le commentaire

Non, ton expérience se confine à déformer la réalité pour avancer une idée débile, complètement irréfléchie que tu colporte.

vouloir détruire Linux

Ecoute c'est pas mon idée, c'est pas moi qui suis vendeur de hardware ou qui me suis fait envoyer bouler par les développeurs du noyau parce que je voulais introduire une API noyau stable.

Moi je dis juste que ces vendeurs avaient l'envie de bien mieux supporter Linux et que simplement ça n'a pas été possible à cause de ces deux camps opposés.

Un temps, même Google discutait avec AMD et NVIDIA pour pouvoir améliorer la situation.

A titre personnel je ne pense pas que les arguments de Kroah-Hartmann soient très solides.

Typiquement expliquer que maintenir un driver fermé pour toute les architectures que supporte Linux serait impossible, c'est juste répondre à côté, vu que personne n'a l'intention de le faire, ni l'intention d'utiliser un gpu du marché actuel sur autre chose que du x86.

Mais tu as raison neuneu2k, d'une certaine façon le problème n'est pas vraiment là. Dans la mesure ou vouloir faire fonctionner proprement un bureau sous Linux c'est toujours une histoire de compromis qui font passer les gpus/ou d'autres périphérique top notch du jour pour être aussi efficace que des vieilleries de presque 5 ou 6 ans.

Lien vers le commentaire
Non.

Si si, c'est choisir un OS fait par des gens qui s'en tapent totalement du desktop et/ou ont des idées franchement bizarres sur le desktop… pour faire du desktop.

Sauf que ceux qui se « pleignent » ne sont pas les mêmes, mais des mecs qui ne comprennent rien à rien et feraient mieux d'aller sur Mac OS et arrêter de vouloir détruire Linux, cf. cette discussion.

Tu vois, par exemple, toi, tu est masochiste, tu t'exclus volontairement d'une grande quantité de l'offre logicielle existante (moins q'un utilisateur de OSX quand meme…), mais tu ne te plains pas, c'est cohérent, noob est un masochiste, il utilise un desktop linux et il chouine :D

Lien vers le commentaire

Accessoirement, ce n'est pas du tout un problème de ne pas avoir une ABI stable, une API stable suffit, et elle est globalement stable, un 'driver' open source qui charge un blob propriétaire, c'est complètement utilisable par n'importe qui qui change son noyau manuellement (si c'est le problème de la distrib, ce n'est pas un problème, elle règle son cycle de livraison a son cycle de tests et de support).

Une ABI stable, c’est pour les gens qui veulent ne pas recompiler le noyau, changer de noyau régulièrement, et charger des modules propriétaires non distribués par leur upstream (alors que le binaire du noyeau l’est… whatever…), je doute de leur existence.

En même temps, j’ai déjà du mal à comprendre comment on peut choisir d’utiliser un linux sur le desktop quand on n’est pas extrêmement contraint par les ressources et le budget. (eg : quand on n’est pas dans un pays du tiers monde), alors le sous ensembles qui souhaite faire tourner un GPU récent (eg : pas du tout contraint en ressources et en budget), et le sous-ensemble du sous-ensemble qui souhaite faire tourner un GPU récent et ne pas avoir un kernel ‘tainted’…globalement je sais bien qu’on s’adresse aux minorités les plus extrêmes a partir du moment ou on est un forum libéral, mais la ca deviens une minorité homéopathique et lolesque, on va parler de quoi ensuite, de la discrimination envers les furrys ?

Lien vers le commentaire

Accessoirement, ce n'est pas du tout un problème de ne pas avoir une ABI stable, une API stable suffit, et elle est globalement stable,

Oui tout à fait sauf que ce n'est apparemment pas valide pour les drivers de GPU. Il faudrait que je mette la main sur un driver proprio dans une machine Linux pour détailler précisément les dépendances de ces drivers, mais de mémoire ils fournissent eux même leurs propres mise en oeuvre de libdrm.

Mais +1 pour le reste, si j'étudias actuellement j'aurais certainement profiter de n'utiliser Linux que dans une VM.

Lien vers le commentaire

Si si, c'est choisir un OS fait par des gens qui s'en tapent totalement du desktop

Sauf que c'est faux.

et/ou ont des idées franchement bizarres sur le desktop… pour faire du desktop.

Et c'est là le summum de la débilité infinie que je critique. Le desktop Linux, c'est pas une Solution Pour Tous, pour ça tu as Mac OS, où tout le monde est malheureux mais justifie les choix qu'ils n'ont pas faits.

Les « idées bizarres » c'est bien ce qui attire les développeurs et utilisateurs actuels, et copier bêtement les compétiteurs n'apportera rien. Surtout si c'est pour copier leurs erreurs.

Tu vois, par exemple, toi, tu est masochiste, tu t'exclus volontairement d'une grande quantité de l'offre logicielle existante (moins q'un utilisateur de OSX quand meme…), mais tu ne te plains pas, c'est cohérent, noob est un masochiste, il utilise un desktop linux et il chouine :D

J'utilise Linux parce que la concurrence ne fait pas tout un tas de trucs dont j'ai besoin. Ce qui inclut en plus des fonctionnalités « mon matériel ne se retrouvera pas déprécié unilatéralement ».

Lien vers le commentaire

En même temps, j’ai déjà du mal à comprendre comment on peut choisir d’utiliser un linux sur le desktop quand on n’est pas extrêmement contraint par les ressources et le budget.

Voilà, c'est un bon d'exemple de mec complètement à côté de la plaque.

If the GNOME developers decided to ignore that part of the ethos, like they've ignored the power users who like 2D virtual desktops, and point to focus, and the ability to change fonts without having to use whacky registry hacks, that's their problem, and it is completely unfair to lay that at the feet of the kernel devs.

Why Ubuntu, rather than say Macs or Windows? Well you can run those too. Bushnell said, “Googlers [Google employees] are invited to use the tools that work for them.. If Gmail doesn't want work for them, they can use pine [an early Unix shell character-based e-mail client] that's fine. People aren't required to use Ubuntu.” But, Goobuntu use is encouraged and “All our development tools are for Ubuntu.”
Yes, that's right. Google doesn't just use Ubuntu and contribute to its development, Google is a paying customer for Canonical's Ubuntu Advantage support program.
Our desktop users are all over the map when it comes to their interfaces. Some use GNOME, some use KDE, some use X-Window and X-Terms. Some want Unity because it reminds them of the Mac. We see Mac lovers moving to Unity.” There is no default Goobuntu interface.

http://www.zdnet.com/the-truth-about-goobuntu-googles-in-house-desktop-ubuntu-linux-7000003462/

Voilà des mecs qui eux ont compris.

Lien vers le commentaire
Il faudrait que je mette la main sur un driver proprio dans une machine Linux pour détailler précisément les dépendances de ces drivers, mais de mémoire ils fournissent eux même leurs propres mise en oeuvre de libdrm.

Tout à fait, au moins le driver nVidia remplace certaines librairies et je suis bien content d'être débarrassé de ce genre de cochonneries (heureusement quand ils sont installés via un package manager, cette action nuisible n'est que temporaire ; utiliser un installeur c'est réservé aux pauvres âmes qui n'ont rien compris à la vie).

Lien vers le commentaire

Mais tu as raison neuneu2k, d'une certaine façon le problème n'est pas vraiment là. Dans la mesure ou vouloir faire fonctionner proprement un bureau sous Linux c'est toujours une histoire de compromis qui font passer les gpus/ou d'autres périphérique top notch du jour pour être aussi efficace que des vieilleries de presque 5 ou 6 ans.

Compromis beaucoup, beaucoup plus élevés pourtant sur Mac OS.

Quant aux drivers binaires, je vais me répéter en disant que avant que Microsoft prenne les choses en main avec la signature des drivers et WHQL, c'était n'importe quoi et bien une des plus grandes raisons d'écrans bleus. Multiplier les drivers propriétaires sous Linux c'est s'ouvrir à ce genre de problèmes et devoir créer ce même genre de mauvaise solution.

Lien vers le commentaire
Compromis beaucoup, beaucoup plus élevés pourtant sur Mac OS.

Pas faux, si pour une raison inconnue, je choisissais de prendre un OS sous-optimal sur un desktop, entre deux desktops minoritaires, je n'hésiterai pas une seconde à installer linux plutôt qu'OSX, de toute façon, Office sur Mac est pourri et usurpe abusivement la réputation et le nom de MS Office…

Maintenant, qu’on s’entende bien, sous optimal ne signifie pas inutile, mais je n’ai jamais rien trouvé en utilisation desktop que je ne puisse pas faire sous Windows et que je puisse faire sous un unix (le contraire par contre, c'est certain), sans parler d’une couche jolie mais restrictive au-dessus d’un Unix bridé (évidemment, on parle de desktop, si on s’éloigne un tant soit peu du concept du desktop classique, Windows n’a pas franchement su montrer l’adaptabilité de linux).

Et je rejoins pankakke, Google a parfaitement raison, ce n’est pas parce que je trouve que les gens qui utilisent linux sur le desktop sont un peu zarbi et ont probablement des critères non objectifs hérités d’une époque révolue, qu’ils ne sont pas productifs et efficaces dans leur travail, si ils ont des goûts bizarre mais qu’ils font leur taf, aucun souci, or le taf de Google, c’est le web, avoir plein de terminaux web hétérogènes dans la maison, ça AIDE à faire le taf.

Lien vers le commentaire

Ca, c'est pour les nihilistes adeptes de la tabula rasa qui refusent de voir qu'ils sont juchés sur les épaules du code de leurs prédécesseurs. wink.gif

Ouais, mais vu que tu es dans le métier tu as du aussi en croiser des développeurs qui vont toujours trouver à critiquer le code des autres et n'ont généralement confiance que dans leur propre code (qui est censé ne souffrir d'aucun défaut). Et bien ce genre de personnes trouve parfois un terrain d'expression propice dans le monde de l'OSS.

Sinon intéressant ce lien G+, j'ai pas le temps de tout lire, mais le commentaire d'Alan Cox m'a bien fait sourire :

That made me laugh. There was KDE and Miguel then came along and created the very confusion he's ranting about. He was also core to ramming CORBA down peoples throats which then had to be extracted slowly back out of the resulting mess that blighted Gnome 2.x and occupied vast amounts of developer time.

He's dead right about the way the Gnome people keep breaking their compatiblity eveyr time not just with the apps but with the UI, with the config (which is still worse now than in Gnome 1.x !) and so on.

However it's not an Open Source disease its certain projects like Gnome disease - my 3.6rc kernel will still run a Rogue binary built in 1992. X is back compatible to apps far older than Linux.

En gros il dit un peu la même chose que moi: il y a eu plein de temps de perdu avec des choix douteux, certains aiment bien tout péter, et non ce n'est effectivement pas une fatalité de l'OSS, mais c'est quand même bien répandu.

Lien vers le commentaire
Ouais, mais vu que tu es dans le métier tu as du aussi en croiser des développeurs qui vont toujours trouver à critiquer le code des autres et n'ont généralement confiance que dans leur propre code (qui est censé ne souffrir d'aucun défaut).

C'est mon cas, je fais ainsi de façon instinctive. Sauf que j'ai fini par faire mienne la loi de Sturgeon : quel que soit le domaine, 90 % de ce qu'on y trouve est toupourrÿ. Y compris mon propre code.

Sinon, les gens comme ça ont deux places dans l'open source : au centre (mais il faut être un génie, genre du niveau d'un Fabrice Bellard), ou dehors.

Lien vers le commentaire
Quant aux drivers binaires, je vais me répéter en disant que avant que Microsoft prenne les choses en main avec la signature des drivers et WHQL, c'était n'importe quoi et bien une des plus grandes raisons d'écrans bleus. Multiplier les drivers propriétaires sous Linux c'est s'ouvrir à ce genre de problèmes et devoir créer ce même genre de mauvaise solution.

Mais je ne vois pas du tout en quoi c'est une mauvaise solution, c'est au contraire une solution prouvée et efficace pour garantir un certain niveau de qualité. Il existe par exemple l'exact équivalent dans le monde Java avec les Technology Compatibility Kit, et ça fonctionne très bien aussi.

En fait ça me paraît être une méthode d'industrialisation du code qui serait le reflet de ce qui se fait dans l'industrie lorsqu'un fournisseur livre un produit et qu'on lui fait passer des tests pour valider que ça va pouvoir passer dans la chaîne de production.

Lien vers le commentaire

Pas faux, si pour une raison inconnue, je choisissais de prendre un OS sous-optimal sur un desktop, entre deux desktops minoritaires, je n'hésiterai pas une seconde à installer linux plutôt qu'OSX, de toute façon, Office sur Mac est pourri et usurpe abusivement la réputation et le nom de MS Office…

J'utilise OSX depuis peu a la place de Windows, et j'en suis vraiment content (j'utilisais pas Office ceci dit).

Je suis un fan de Linux mais j'ai toujours trouve les Desktop Linux pourris, et puis Ubuntu ça devient n'importe quoi.

Bref pour mon "PC avec GUI" OSX c'est le meilleurs des choix, pas du tout "sous-optimal" :)

Le desktop Linux, c'est pas une Solution Pour Tous, pour ça tu as Mac OS, où tout le monde est malheureux mais justifie les choix qu'ils n'ont pas faits.

J’étais déjà heureux sous Windows, je le suis encore plus sous OSX !

La plupart du temps je suis sous Linux (mais pas en GUI), et j'y suis super heureux aussi.

Lien vers le commentaire

Office sur Mac est pourri et usurpe abusivement la réputation et le nom de MS Office…

Affirmation péremptoire douteuse. C'est pour lâcher du lest à pankkake?

Pour ma part, je trouve Office Mac bien meilleur que la version Windows mais c'est sans doute lié à l'OS.

Je parle de la version 2011.

Cela dit, je préfère la suite iWork, si j'ai une licence Office, c'est pour répondre à certains appels d'offres de blaireaux.

(Tiens, a propos de licence, le système de Microsoft est bien pourri pour le coup)

Lien vers le commentaire

En fait, pour le grand public, un "bon" OS, c'est un OS avec une "bonne" GUI et/ou une "bonne" interaction.

Et ça, la partie Interaction Homme-Machine, l'Interaction et l'Experience Utilisateur (les mots clefs sont HCI et UX pour ceux qui veulent fouiller ces domaines sur le net), ça coute une fortune. On doit le faire à la fin, quand toutes les briques logicielles en amont on été réalisées, et à ce moment là, on est déjà bien en retard sur la production et les dates promises. Donc ça coute encore plus cher.

Ça coute tellement cher que ce n'est pas possible pour des dev dans l'opensource de passer trop de temps dessus. En effet, pour des modules techniques, c'est facile de faire des benchmarks (telle lib est X% plus rapide que telle autre lib sur le même jeu de données). Pour l'interface/interaction, il faut des cobayes, en faire passer Y par heure, leur faire répéter Z fois la même action dans différents environnements contrôlés, etc… Ça prend un temps fou. Et l'analyse statistique derrière est encore plus pénible.

Au final, on prend le plus petit dénominateur commun, on le colle dans une lib graphique, et "ça ira bien comme ça". Et au final, on additionne à la fin de la journée un tas de petites crispations sur l'interface qui font perdre du temps et de l'énergie, et qui font se dire "ça va pas, linux est pas prêt pour le desktop".

Lien vers le commentaire

et puis Ubuntu ça devient n'importe quoi.

Toujours à côté de la plaque.

When asked about Unity use, Bushnell said, “Unity? Haters gonna hate. Our desktop users are all over the map when it comes to their interfaces. Some use GNOME, some use KDE, some use X-Window and X-Terms. Some want Unity because it reminds them of the Mac. We see Mac lovers moving to Unity.” There is no default Goobuntu interface.

Quand j'ai testé Office sous Mac OS, il y avait quelques problèmes avec certains fichiers (mais il y en a déjà entre versions de Office…), mais surtout, l'interface était comme celle de GIMP, en pire. Combiné à l'absence de WM potable sous Mac OS, c'est une torture.

Lien vers le commentaire

Et ça, la partie Interaction Homme-Machine, l'Interaction et l'Experience Utilisateur (les mots clefs sont HCI et UX pour ceux qui veulent fouiller ces domaines sur le net), ça coute une fortune.

Le mot clef UX est utilisé sans exception aucune par des hipsters incompétents qui font n'importe-quoi pour des raisons idéologiques et déclarent que c'est Bon Pour Tous.

Ça coute tellement cher que ce n'est pas possible pour des dev dans l'opensource de passer trop de temps dessus. En effet, pour des modules techniques, c'est facile de faire des benchmarks (telle lib est X% plus rapide que telle autre lib sur le même jeu de données). Pour l'interface/interaction, il faut des cobayes, en faire passer Y par heure, leur faire répéter Z fois la même action dans différents environnements contrôlés, etc… Ça prend un temps fou. Et l'analyse statistique derrière est encore plus pénible.

J'ai comme l'impression que tu as zéro expérience d'un développement de logiciel libre.

On se base énormément sur les retours des utilisateurs. Évidemment certains ne rapportent rien mais vont passer leur temps à faire des critiques non détaillées et non constructives sur des forums Twitter (alors que ça demande plus d'énergie) ; ce sont typiquement des utilisateurs de Mac. Gagner des utilisateurs, c'est génial, mais certains on s'en passe avec plaisir.

Et au final, on additionne à la fin de la journée un tas de petites crispations sur l'interface qui font perdre du temps et de l'énergie, et qui font se dire "ça va pas, linux est pas prêt pour le desktop".

Tiens donc. Ça représente exactement mon expérience de Mac OS.

Quand un truc est merdique, je me dis que c'est merdique et je vais faire un bug report. Les trolls qui ne font rien de leur vie, eux, déclarent que le truc sur lequel ils n'ont aucun pouvoir est La Meilleure Interface Pour Tous, i.e. le syndrome de Stockholm.

Lien vers le commentaire

Toujours à côté de la plaque.

When asked about Unity use, Bushnell said, “Unity? Haters gonna hate.

Je parlais pas d'unity (ubuntu <> unity), mais du fait qu'Ubuntu devient trop complexe pour moi. Trop de process dans le ps, trop de wget qui se lance sans que j'ai rien demande (!), trop de truc qui se passe en background que je comprend pas.

Du coup je suis revenu a Arch Linux, beaucoup plus simple a comprendre.

Lien vers le commentaire

J'ai comme l'impression que tu as zéro expérience d'un développement de logiciel libre.

On se base énormément sur les retours des utilisateurs. Évidemment certains ne rapportent rien mais vont passer leur temps à faire des critiques non détaillées et non constructives sur des forums Twitter (alors que ça demande plus d'énergie) ; ce sont typiquement des utilisateurs de Mac. Gagner des utilisateurs, c'est génial, mais certains on s'en passe avec plaisir.

Un exemple, parce que c'est un des morceaux de ma thèse : la courbe d'accélération souris. Sous Linux, c'est merdique (géré par X et ses descendants). Sous MacOS, c'est un peu mieux, mais elle a un bug et un défaut. Sous Windows (depuis XP), c'est la plus performante des 3.

Lien vers le commentaire

Un exemple, parce que c'est un des morceaux de ma thèse : la courbe d'accélération souris. Sous Linux, c'est merdique (géré par X et ses descendants). Sous MacOS, c'est un peu mieux, mais elle a un bug et un défaut. Sous Windows (depuis XP), c'est la plus performante des 3.

C'est visiblement ultra subjectif, pour moi celle de Mac OS est la pire que j'ai utilisée. La seule chose qui me manque de Windows c'est le ralentissement au passage sur des boutons activables (et encore c'est une option qui semble avoir disparu ou était spécifique au driver de ma souris), ce qui est techniquement plus dur sous X je suppose.

D'ailleurs je ne suis pas le seul à le penser : http://www.codinghorror.com/blog/2007/10/mouse-ballistics.html http://tidbits.com/article/8893

Et Xorg a les mêmes techniques depuis longtemps : http://xorg.freedesktop.org/wiki/Development/Documentation/PointerAcceleration

Avec le bonus d'être configurables.

Enfin bref, j'utilise un trackball et une souris, il ne me faut qu'un tout petit mouvement pour aller où je veux (et j'ai plusieurs écrans), c'est assez impressionnant. Ça marche aussi très bien avec le clito.

Lien vers le commentaire

C'est visiblement ultra subjectif, pour moi celle de Mac OS est la pire que j'ai utilisée. La seule chose qui me manque de Windows c'est le ralentissement au passage sur des boutons activables (et encore c'est une option qui semble avoir disparu ou était spécifique au driver de ma souris), ce qui est techniquement plus dur sous X je suppose.

D'ailleurs je ne suis pas le seul à le penser : http://www.codinghor...ballistics.html http://tidbits.com/article/8893

Et Xorg a les mêmes techniques depuis longtemps : http://xorg.freedesk...terAcceleration

Avec le bonus d'être configurables.

Enfin bref, j'utilise un trackball et une souris, il ne me faut qu'un tout petit mouvement pour aller où je veux (et j'ai plusieurs écrans), c'est assez impressionnant. Ça marche aussi très bien avec le clito.

Le ressenti que tu as avec la souris est évidemment subjectif, mais les perfs qu'on peut mesurer en expérience ne le sont pas du tout. Pour une tache de pointage en 2 dimensions, (avec le chronométrage adéquat, etc… j'ai d^u m'intéresser à des problèmes ubuesques sur certaines machines. Au hasard, le nombre de DPI réel de l'écran LCD était différent de celui rapporté par le constructeur. Pleins de petites blagues comme ça…), quand tu fais un ratio nombre d'erreurs/temps de pointage, dans l'ordre du plus rapide au plus lent, tu as Windows, Mac, Linux (plus exactement X).

Pour illustrer le co^ut en temps d'une expérience utilisateur en IHM/UX :

- j'ai d^u trouver le maximum de combinaisons taille d'écrans/résolution écran/OS. (Par exemple, des WinXP avec écran LCD de 17"/19"/21", etc, à leur résolutions natives respectives, des Vista, des Win7, des Linux avec différentes versions de XFree/Xorg - il y a encore des dinosaures dans les labos d'infos… des OSX de 10.5 à 10.6.X, sur différentes dalles, de 13" à 27")

- trouver des gauchers et des droitiers. Hommes et femmes. Utilisateurs expérimentés et novices. Utilisateurs de souris accélérée ou non.

- j'ai choisi de standardiser la souris utilisée pour les expés, sur toutes les machines : souris branchée en USB, à 400 DPI

- il faut, pour l'expé, récupérer les données directement sur le bus USB, en faisant un bypass de la courbe d'accélération appliquée par l'OS. Sous Win, par exemple, il te faut un bout de code C++ qui va demander à DirectInput les données. (Mon superviseur, en traçant les binaires de Windows, s'est rendu compte par exemple qu'il y a une erreur d'implémentation dans une des .dll, qui donne une formule différente de la "théorie" présentée par MS. Tu peux trouver un post de blog là, de Mark Cranness : http://donewmouseaccel.blogspot.fr/2009/06/out-of-sync-and-upside-down-windows.html L'aide pour le code qu'il a utilisé vient de mon responsable).

- on a construit une "fausse" souris (en fait basé sur un PIC programmé par nos soins), pour envoyer des paquets USB que nous forgeons à façons, sur le bus USB, à la vitesse d'horloge. De 1 mickey à 127 mickey. A chaque fois, je mesurais en retour le déplacement de la souris à l'écran. Ça a permis de reconstruire les vrais courbes d'accélérations des OS. Et c'est là que j'ai vu un bug d'implémentation dans celle de MacOS.

Sur Linux, sur presque toutes les boxs testées, la courbe n'est pas polynomiale, mais c'est une simple sigmoide à deux niveaux, etc…

- comme le standard USB HCI ne le précise pas, si la souris n'a pas de driver spécifique, l'OS considère que c'est un souris à 400 DPI 128 Hz par défaut. Hors une souris de gamer a des caractéristiques bien meilleure, mais l'OS ne le sait pas. Tu te retrouves donc avec une souris de folie, mais pour laquelle l'OS interprète mal les infos.

- une fois ces infos ramassées, on a du construire une expérience pour valider

-> cela implique de construire un carré latin de tests : tu dois faire cliquer des gens 50 ou 100 fois, sur 3 distance différentes, sur 3 largeurs de cibles différentes, pour avoir un test qui commence à ^^etre exhaustif (et après, tu dois faire une ANOVA pour savoir combien de tests initiaux virer, pour supprimer l'effet d'apprentissage sur la souris). Tu répètes ça sur 5 séries, sur 5 lignes de tests.

A 1 seconde le clic (il faut ramener la souris à chaque fois au point de départ) : ça te fait 5 ou 6h d'expé. Par personne.

- le code de l'expé doit ^^etre testé dans tous les sens pour s'assurer que dans les calculs, une cible d'1cm demandée dans le code affiche bien 1 cm à l'écran, indépendamment de la résolution de l'écran (et ça, si tu veux une base de code unique entre les 3 OS, pour ne pas introduire de biais, ça impose de demander à OpenGL d'afficher une cible rectangulaire identique partout. Une galère pas croyable. Parce qu'une cible de 1 cm sur un WindowsXP 19" à 1680x1050, ne fera que 0,98 cm sur un MacOS 27" à 1920, etc…)

Au finale, trouver des cobayes qui acceptent de passer l'expé pendant plusieurs jours (tu ne demandes à personne de cliquer sur des cibles pendant 5h d'affilée, c'est inhumain), tous les jours pendant 1h, c'est terrible à trouver. Il faut que les cobayes soient là à la m^eme heure tous les jours, que la luminosité de la pièce soit identique (pas de soleil, parce que tous les jours à la m^eme heure, il aura un peu bougé dans le ciel), qu'il soit à peu pr^et dans la m^eme forme physique (le gars qui a fait 2h de tennis la veille sera moins bon avec son poignet le lendemain pour la m^eme t^ache que la veille.

En conclusion, mon post est un peu long, mais comme tu le vois, une expérience en IHM/UX, c'est très pénible à mettre en place, si tu veux qu'elle soit scientifiquement aussi solide, aussi peu réfutable que possible. Et si tu veux que la méthodologie passe dans l'état de l'art pour que d'autres, dans les années ultérieures fassent de m^eme, afin d'avoir une base de benchs en communs pour faire évoluer le domaine, c'est un travail énorme, pour un retour sur co^uts immédiats assez faible.

Lien vers le commentaire

Au final, on prend le plus petit dénominateur commun, on le colle dans une lib graphique, et "ça ira bien comme ça". Et au final, on additionne à la fin de la journée un tas de petites crispations sur l'interface qui font perdre du temps et de l'énergie, et qui font se dire "ça va pas, linux est pas prêt pour le desktop".

Ce que tu dis est juste, mais tu ne peux pas en tirer de conclusion monolithique. Si WIndows avait une interface peaufinée aux petites oignons à coups de benchmarks, comment auraient-ils pu rendre le truc inutilisable qu'ils s'apprêtent à commercialiser sous le nom de "Windows 8" et qui fait déjà la quasi-unanimité… contre lui ?

A l'inverse, personnellement, j'attends que mon matos soit à nouveau compatible pour goûter les joies de l'expérience desktop de KDE. Et autant je sais que sous le capot Windows est bien mieux foutu, autant on peut aussi trouver sous Linux un confort d'utilisation que n'ont pas les autres, simplement parce que l'environnement offre beaucoup plus de fonctionnalités (donc adaptabilité au client).

Lien vers le commentaire

Je te quote dans le désordre, parce que je suis un libéral qui ne respecte rien.

A l'inverse, personnellement, j'attends que mon matos soit à nouveau compatible pour goûter les joies de l'expérience desktop de KDE. Et autant je sais que sous le capot Windows est bien mieux foutu, autant on peut aussi trouver sous Linux un confort d'utilisation que n'ont pas les autres, simplement parce que l'environnement offre beaucoup plus de fonctionnalités (donc adaptabilité au client).

Je ne suis pas un pro-GUI chiadée avec un clickodrome dans tous les sens. Il y a des choses qui sont réalisées de manière beaucoup plus efficace avec une ligne de commande (quel que soit l'OS d'ailleurs), qui est un processus de travail 1D (et donc les tâches unidimensionnelles y sont plus adaptées : toutes les commandes que tu peux piper les unes derrière les autres, par exemple). Et là, c'est clair qu'Un*x gagne, tout simplement parce que le nombre de programmes bien codés dont le code est disponible, et qu'on peut alors optimiser écrase tous les autres.

Une GUI, c'est bien pour les actions cognitives 2D, et pour les interfaces exploratoires (quand tu ouvres un soft, que tu sais ce que tu veux obtenir comme résultat, mais pas comment y arriver. Tu zieutes dans tous les menus et boutons jusqu'à trouver ce qui te correspond). D'ailleurs, quand tu deviens habitué et bon avec un soft, tu te reposes sur ses raccourcis clavier, qui est une manière de revenir à une tâche de travail 1D.

Le nombre de Cas d'Utilisation étant exponentiel avec le nombre d'utilisateurs, tu es obligé de restreindre les fonctionnalités (et donc la puissance) d'une interface à un moment donné en ne mettant à disposition de l'utilisateur qu'un sous-ensemble de ces fonctionnalité. Encore une fois, sous Un*x, tu peux rentrer dans les fichiers de configs, dans le code, et y paramétrer à volonté ce que tu veux.

Sous Windows (et une moindre mesure OSX), tu ne peux pas faire ça (personne n'a envie de tracer des binaires inconnus et d'utiliser une éditeur hexa pour changer des ressources medias dans les programmes des autres). Tu dois donc faire un choix, et, en partant un peu dans la direction de Pareto, présenter les 20% des actions/fonctionnalités que 80% des utilisateurs utilisent 80% du temps (et d'ailleurs gonfler les power-users les 20% du temps restants :P).

Ce que tu dis est juste, mais tu ne peux pas en tirer de conclusion monolithique. Si WIndows avait une interface peaufinée aux petites oignons à coups de benchmarks, comment auraient-ils pu rendre le truc inutilisable qu'ils s'apprêtent à commercialiser sous le nom de "Windows 8" et qui fait déjà la quasi-unanimité… contre lui ?

Problème : le turn-over des équipes interfaces/UX dans ces boîtes est très important. Par exemple, en 2008, à la conférence SIGCHI (équivalent du SIGGRAPH, mais pour l'interaction), je discute avec un des gars de l'équipe Microsoft qui bosse sur MS Surface (la table, à l'époque, pas la tablette qui va sortir dans une paire de mois). Il est relativement jeune, 26 ans (et brute en info). Il m'explique que personne chez eux n'a de trace des papiers techniques expliquant les choix et directions prises à la sortie de WinXP (un des exemples, les fameuses courbes d'accélération souris). Certains des choix techniques sur les OS en production actuellement sont donc des conséquences de choix fait pour certains il y a 10 ans, et qu'on garde par rétro-compatibilité. A d'autres moments, les chefs d'équipes disent "on bazarde tout, on reprend à zéro". Et là, tu ne sais pas si le rejet des gens vient d'un réel problème d'interaction moisie (ça, ça m'étonnerais, les gens utilisent du Windows depuis 15 ans, mais on testé l'interface Métro pendant 2 mois), ou juste d'immobilisme cognitif.

Dans 5 ans, il y aura des gens qui vont regarder de manière incrédule les utilisateurs de Windows qui auront gardé l'interface Aero, tout comme aujourd'hui les utilisateurs de Win7 me regardent ahuris quand je force l'interface de Windows Classic sur mon Win7 ;).

Ce que je propose, c'est que l'interface soit évalué in the field pendant 1 an ou 2 ans, et qu'on en tire les conséquences.

Et un truc aussi : les gens évaluent l'interface de Win8 avec un paradigme/clavier souris alors que le système de tiles n'y est pas du tout adapté (dans la taxonomie des interfaces, une souris est un périphérique indirect isométrique, alors que les tiles d'une interface tactile sont directes). L'erreur marketing stratégique de MS, c'est de vouloir imposer l'interface Metro tactile/mobilité aux utilisateurs classiques desktops clavier/souris. (Je pense que le choix marketing tient d'une vision "on veut reprendre l'avantage à tout prix sur Apple/Google, et on va y aller sans finesse, ça passe ou ça casse").

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...