Aller au contenu

Linux est mort, vive OS X


Calembredaine

Messages recommandés

C'est largement un mythe. L'avantage de développer avec du libre c'est qu'on peut reprendre du code ou tout simplement utiliser beaucoup de librairies. Et on se retrouve aussi avec des applications qui ne font pas 100 Mo chacune.

Oh là je pense que c'est plutôt la théorie ça: on se fait des bibliothèques de code partagées et tout le monde réutilise le travail de chacun. Mais concrètement, j'ai pu constater comment les développeurs aiment bien réinventer la roue et souffrent du syndrome Not Invented Here. C'est comme ça qu'on se retrouve par exemple avec des dizaines de formats de fichier de configuration sur Linux, contrairement à Windows qui a un format et une API pour y accéder (ainsi qu'une base de registre, concept pas mauvais en soit, mais au début ce fut laborieux au niveau robustesse).

Et aussi, j'en ai déjà parlé sur un autre fil, mais un truc comme OpenOffice/LibreOffice montre bien le ridicule de la situation: il n'y a aucune suite bureautique valable en OSS, et on se retrouve avec 2 équipes qui travaillent sur 2 projets quasi identiques. Si ça c'est pas de la duplication d'effort… Après en réfléchissant un peu je dois pouvoir en citer encore plein des exemples de duplication d'efforts qui n'ont rien apporté d'innovant.

Après toutes ces années je suis plutôt déçu par GNU/Linux, et vu que j'ai tout ce qu'il me faut pour travailler sur Windows (Java, Ruby, Git, Svn, Putty), j'ai fini par arrêter d'utiliser Linux pour mon bureau. Du coup je ne connaissais même pas Wayland :D ça a l'air bien, mais ça arrive "un peu" tard.

Pas grand chose à voir avec X pour le coup, c'est plus l'architecture et l'isolation des drivers du noyau.

Quoi qu'on en dise le kernel Windows est vraiment bien foutu.

+1

Les kernel dérivés de NT sont très robustes étant fondé sur un principe de microkernel. C'était la même architecture pour le kernel de BeOS, et il était capable de survivre à tous les crashs de drivers en redémarrant le driver.

D'ailleurs c'était une des critiques formulées contre Linux au tout début par un des profs de Linus: un kernel monolithique est une architecture complètement dépassée. Ensuite la communauté à beaucoup rigolé de cette critique, et puis ils ont ramé comme des bœufs pendant des années pour introduire de la modularité dans le kernel.

Lien vers le commentaire

D'ailleurs c'était une des critiques formulées contre Linux au tout début par un des profs de Linus: un kernel monolithique est une architecture complètement dépassée. Ensuite la communauté à beaucoup rigolé de cette critique, et puis ils ont ramé comme des bœufs pendant des années pour introduire de la modularité dans le kernel.

C'étais pas directement un prof à Torvalds, il s'agissait de Andrew Tanenbaum sur les mailing list de Minix, source ici.

A propos de Tanenbaum, je l'ai vu à une conf système il y a pas longtemps, il faisait de la pub pour Minix justement, qui apparemment selon lui serait super pour le business. :dentier:

Lien vers le commentaire

C'étais pas directement un prof à Torvalds, il s'agissait de Andrew Tanenbaum sur les mailing list de Minix, source ici.

A propos de Tanenbaum, je l'ai vu à une conf système il y a pas longtemps, il faisait de la pub pour Minix justement, qui apparemment selon lui serait super pour le business. dentier.gif

Pour son business, il écrit des bouquins dessus ;).

Lien vers le commentaire

Faux.

:rolleyes:

Oui, ça marche si tu bidouille 100 fois plus que pour faire tourner Windows ou Linux, ce qui rend encore plus ridicule l'article.

En fait c'est « Je suis passé sous Mac OS, tout marche super bien… parce que j'ai fait un paquet de compromis »… sauf que en faisait moins de compromis on a du hardware qui marche parfaitement sous Linux.

Lien vers le commentaire

C'étais pas directement un prof à Torvalds, il s'agissait de Andrew Tanenbaum sur les mailing list de Minix, source ici.

A propos de Tanenbaum, je l'ai vu à une conf système il y a pas longtemps, il faisait de la pub pour Minix justement, qui apparemment selon lui serait super pour le business. :dentier:

En effet, j'ai eu la flemme de vérifier :)

Ce qui est marrant - et a toujours joué en faveur du design obsolète de Linux - c'est que je ne connais aucun projet open-source de micro-kernel qui soit viable et terminé. Je me souviens encore du fiasco de GNU/Hurd qui a donné lieu a pas mal de blagues sur IRC (on appellerait ça un meme aujourd'hui). Par contre en commercial ils ont eu un beau succès: il y avait QNX qui était vraiment chouette à la même époque.

Du coup je me dis que je vais tester un truc nouveau, pour le fun, plutôt que d'avoir une OpenSuse qui dort sur mon laptop. Peut-être Haiku, le clone de BeOS qui me semble le plus avancé. Ou encore plus fun: ReactOS, un clone de Windows qui vise la compatibilité avec XP. Ou autre chose, quelqu'un a une idée ?

Lien vers le commentaire

C'est largement exagéré de considérer le noyau NT ainsi que d'autres comme un micro-noyau.

La politique du noyau Linux a toujours été de mettre en userspace ce qui avait du sens (et pour les drivers graphiques c'est le cas de KMS, qui fait le mimimum et laisse le reste aux drivers userspace) ; on est concrètement dans la même plus-ou-moins-modularité.

Tout ce qui compte c'est qu'un problème dans un driver ne fasse pas tout planter et le micro-noyau n'est pas la solution universelle.

Linus disait à très juste titre que c'est de la branlette pour universitaire (enfin, un truc comme ça) et l'histoire lui a donné raison. On peut aussi voir le gouffre de performance entre un système de fichiers FUSE et noyau…

All I/O operations, file system operations, and network operations were meant to work through this mechanism, and the data transferred was copied during message passing. Later versions of QNX reduce the number of separate processes and integrate the network stack and other function blocks into single applications for performance reasons.

CQFD

(Enfin, QNX reste impressionnant, je me souviens avoir joué avec sur mon PC il y a quelques années.)

Lien vers le commentaire

Oui, ce n'est pas strictement et académiquement un micro-kernel, on peut appeler ça hybride si tu veux. Je suis d'accord que les histoires de micro ou même nano-kernel c'est un peu de la branlette pour universitaire - la preuve étant qu'aucun n'est vraiment abouti et performant. Aussi les développeurs doivent toujours faire un compromis entre la pureté chimique et les performances ainsi que la facilité d'implémentation, donc évidemment des choses comme les pilotes FS et graphiques tendent à se retrouver en kernel-space.

Par contre, pousser le maximum de choses en user-space est un bon design pour la sécurité et c'est ce qui à mon avis valide ce genre d'architectures. Dans un kernel monolithique comme Linux, la moindre faille de sécurité dans un module va donner accès aux fonctionnalités kernel.

Et la leçon historique c'est que modulariser après coup, ou intégrer de la sécurité après coup, ça demande beaucoup plus d'efforts et de temps pour un résultat toujours imparfait. Quand on regarde les années d'efforts et le nombre de personnes qui ont bossé sur Linux, comparé à d'autres OS parfois écrits en partant de rien, ça laisse quand même vachement perplexe sur la validité de certains choix.

Lien vers le commentaire

Quel rapport ?

C'est en rapport avec ma gueulante sur le manque d'ABI et d'API en mode noyau stable.

Le jour ou les drivers de carte 3D seront aussi stable sous Linux que sous Windows, je commencerais à me dire qu'il a raison.

Exemple d'un très mauvais argument :

Linux runs on a wide range of different processor architectures.

There is no way that binary drivers from one architecture will run

on another architecture properly

Qui mais vraiment, qui s'attend à ce qu'un driver développer pour x86 soit utilisable tel quel pour une autre architecture ? Si je m'achète une carte graphique ATI, je ne m'attends pas à pouvoir l'exploiter sur autre chose qu'un x86.

Quant à la section "what to do",la suggestion :

Oui toi le développeur de la société XX tu vas prendre la décision de passer ton driver en GPL, haha la sale blague.

Lien vers le commentaire

Qui est complètement débile, oui, voire fausse.

Attention, moi je dis : Lorsqu'on pleurniche sur le manque de support pour tel ou tel périphérique sous linux alors il faut simplement comprendre que lorsque tu fais pas du GPL c'est tout de suite un cauchemar.

Pour citer ta source :

Releasing a binary

driver for every different kernel version for every distribution is a

nightmare, and trying to keep up with an ever changing kernel interface

is also a rough job.

En gros si vous faites pas du GPL, on s'en fout débrouillez-vous ou faites du GPL.

Ce qui à mes yeux est idiot, si dans le même temps on se plaint du manque de qualité des drivers sous Linux. (ce que fait Torvalds en invitant NVIDIA à aller se faire voir)

wut

Si si, prenons comme exemple fglrx, tu oseras pas me dire que tu penses vraiment que c'est un bon driver, ou du moins que la version Linux est meilleure que celle de Windows ?

Chez le concurrent nvidia, ce qui déconne c'est souvent le support de deux écrans.

Lien vers le commentaire

Ce que tu ne dis pas, et je vais supposer que c'est par ignorance, c'est que Microsoft a changé son modèle de drivers de nombreuses fois, et la certification des drivers et WHQL est là pour compenser la piètre qualité des drivers lâchés dans la nature. Et bonne chance pour faire marcher ton matériel un peu ancien sur la dernière version de Windows, surtout maintenant qu'il y a deux éditions 32 et 64 bits (il y a eu Windows XP 64 bit mais le manque de drivers était tel que personne ne l'a sérieusement utilisé).

Quant à Mac OS, côté drivers c'est tout simplement un désert risible.

Alors pourquoi reprocher des trucs pareils à Linux ?

En gros si vous faites pas du GPL, on s'en fout débrouillez-vous ou faites du GPL.

Ce qui à mes yeux est idiots, si dans le même temps on se plaint du manque de qualité des drivers sous Linux.

Non, ça veut dire que si tu ne collabore pas il ne faut pas s'attendre à ce qu'on travaille gratuitement pour toi. C'est tout. Je me demande si tu as tout simplement lu le texte.

Et il ne s'agit pas de GPL, il s'agit de chercher à intégrer le truc au noyau, ce qui est complètement orthogonal.

(ce que fait Torvalds en invitant NVIDIA à aller se faire voir)

Absolument pas, tu n'as rien compris. Ses reproches à nVidia sont qu'ils ne fournissent aucune spécification, y compris sur ce qu'ils ne veulent pas supporter, ainsi qu'étant pas agréables à travailler avec (on n'en sait pas vraiment plus).

Le fait que tu interprètes ça n'importe comment est particulièrement affligeant car ça a toujours été clair, ou alors c'est simplement de la malhonnêteté intellectuelle.

Chez le concurrent nvidia, ce qui déconne c'est souvent le support de deux écrans.

Ça ne « déconne » pas, ils avaient simplement choisi de ne pas utiliser RandR ce qui maintenant est chose faite depuis je ne sais combien de temps, il me semble que j'utilisais RandR avec les drivers propriétaires en 2006.

Si si, prenons comme exemple fglrx, tu oseras pas me dire que tu penses vraiment que c'est un bon driver, ou du moins que la version Linux est meilleure que celle de Windows ?

Les drivers d'ATI sont nuls sous Windows aussi, c'en est à un point où ça fait l'objet de memes et j'en ai fait l'expérience moi-même.

Quant à moi j'utilise les drivers GPL et c'est une stabilité exemplaire, X ne plante tout simplement jamais depuis que je me suis débarrassé du driver nVidia propriétaire — jamais eu besoin de fglrx donc pas de comparaison.

Ce que tu ne comprends pas non plus, avec d'autres, c'est que Linux, si c'est pour être plein de drivers pas libres, des librairies statiques, et des installeurs, ça n'a plus aucun intérêt. À ceux là, je les invite à aller sur Mac OS au plus vite et à se branler la nouille sur ce qui « est suffisant pour 99% ».

Ouais, c'est sans doute le gros problème de pas mal de logiciels libres: le manque de stabilité des APIs ou ABIs.

Non.

Disons que lorsqu'on s'amuse à tout péter tous les 6 mois pour le fun, au bout d'un moment les utilisateurs finissent par se lasser de devoir se mettre à jour.

« pour le fun » ?

« les utilisateurs » ?

Un peu de sérieux là.

Lien vers le commentaire

Attention je ne parle pas spécifiquement de l'ABI/API du kernel Linux, mais des logiciels qui constituent l'OS au complet. Et là c'est parfois assez flagrant que certains logiciels sont lâchés dans la nature alors que rien n'est stabilisé et le tout à été écrit à la va-vite. Et quand je parle d'utilisateurs - en anglais j'aurais dit "client" mais en français c'est ambigu - je parle des développeurs qui sont les utilisateurs de ces APIs pour développer d'autres logiciels. Ces logiciels étant ce que l'utilisateur final voit concrètement et ce qui fait tout l'interêt d'un desktop pour eux.

C'est encore une fois une histoire 'arbitrage entre pas évoluer du tout et devenir médiocre, et changer trop souvent et perdre des développeurs en cours de route. Un bon exemple pour moi qui suis plus dans le monde Java, c'est la comparaison entre Scala et Java, où il est flagrant que "l'avantage" de Scala qui est sa rapide évolution est en fait un handicap les utilisateurs de Scala qui essaient tout bêtement de produire des logiciels utiles.

Lien vers le commentaire

Ce que tu ne dis pas, et je vais supposer que c'est par ignorance, c'est que Microsoft a changé son modèle de drivers de nombreuses fois, et la certification des drivers et WHQL est là pour compenser la piètre qualité des drivers lâchés dans la nature. Et bonne chance pour faire marcher ton matériel un peu ancien sur la dernière version de Windows, surtout maintenant qu'il y a deux éditions 32 et 64 bits (il y a eu Windows XP 64 bit mais le manque de drivers était tel que personne ne l'a sérieusement utilisé).

Oui ils ont changés et alors ? Sous linux, c'est tous les 2 mois et demi que je risque de perdre la compatibilité avec un driver.

Par exemple j'ai installé sur ma machine un driver pour une webcam achetée il y a quatre ans. Alors que la même webcam sous linux reconnue "out of ze box" ne fonctionne toujours pas. (logitech hein pas une marque cryptique)

Non, ça veut dire que si tu ne collabore pas il ne faut pas s'attendre à ce qu'on travaille gratuitement pour toi. C'est tout. Je me demande si tu as tout simplement lu le texte.

Et il ne s'agit pas de GPL, il s'agit de chercher à intégrer le truc au noyau, ce qui est complètement orthogonal.

En tant que vendeur je n'ai que deux choix, soit c'est le cauchemar, soit c'est l'intégration au noyau.

A aucun moment je peux dire, je suis responsable de ma merde et eux de la leur.

Absolument pas, tu n'as rien compris. Ses reproches à nVidia sont qu'ils ne fournissent aucune spécification, y compris sur ce qu'ils ne veulent pas supporter, ainsi qu'étant pas agréables à travailler avec (on n'en sait pas vraiment plus).

Le fait que tu interprètes ça n'importe comment est particulièrement affligeant car ça a toujours été clair, ou alors c'est simplement de la malhonnêteté intellectuelle.

Aaron Platner m'a toujours paru quelqu'un de tout à fait agréable contrairement à bien des gens qui se permettent de lui parler comme si c'était un gueux simplement parce qu'il bosse chez NVIDIA.

Le pire c'est que la question des specs est totalement inintéressante, depuis que AMD les a publiée, combien de patch ont été soumis par des externes (Dave Airlie et un ou deux autres)?

C'était même devenu une critique à l'époque. (AMD ne fait que de publié les specs) alors qu'ils n'ont fait que d'augmenter le nombre de dev dédié à ça.

Ça ne « déconne » pas, ils avaient simplement choisi de ne pas utiliser RandR ce qui maintenant est chose faite depuis je ne sais combien de temps, il me semble que j'utilisais RandR avec les drivers propriétaires en 2006.

Non avec RandR et tout et tout, sous NVIDIA (driver proprio), tu peux te retrouver sans dual screen en 2012. Ironiquement avec le driver nouveau ça marche, mais du coup t'as pas de 3D.

Les drivers d'ATI sont nuls sous Windows aussi, c'en est à un point où ça fait l'objet de memes et j'en ai fait l'expérience moi-même.

Oui les drivers ATI sont nuls sous windows, alors que sous Linux ils (les proprio) fonctionnent environ 50% du temps (si on prend toujours le dernier noyau) à tout prendre je préfère encore ceux qui sont vraiment nuls.

Quant à moi j'utilise les drivers GPL et c'est une stabilité exemplaire, X ne plante tout simplement jamais depuis que je me suis débarrassé du driver nVidia propriétaire — jamais eu besoin de fglrx donc pas de comparaison.

Sauf qu'il y a encore 3 ans les drivers libres étaient de la blague. Je me souviens des freeze lorsque j'avais l'audace de me servir du kernel mode setting.

Ou comme il y a quatre ans je priais pour avoir à temps le support du beamer pour mon laptop.

Ou comme les possesseur de carte 7XXX de AMD qui attendent le support de leurs cartes. Il s'agit pas de prendre un snapshot de ta situation et de dire c'est bon ça marche, il faut un peu voir pour tous les cas s'il y a une situation satisfaisante à minima.

De plus dans n'importe quelle benchmark, tu te prends une pénalité de 100% à 200% avec le driver libre AMD et bien pire avec le driver nouveau dont les dev n'ont tous simplement pas les specs.

Ce que tu ne comprends pas non plus, avec d'autres, c'est que Linux, si c'est pour être plein de drivers pas libres, des librairies statiques, et des installeurs, ça n'a plus aucun intérêt. À ceux là, je les invite à aller sur Mac OS au plus vite et à se branler la nouille sur ce qui « est suffisant pour 99% ».

Si si t'inquiète pas c'est très clair pour moi.

Lien vers le commentaire
C'est encore une fois une histoire 'arbitrage entre pas évoluer du tout et devenir médiocre, et changer trop souvent et perdre des développeurs en cours de route.

En quoi la stabilité des API a-t-elle un rapport avec le fait de devenir médiocre, au juste ? Tu peux changer l'ameublement d'un appartement sans avoir besoin de défoncer la porte (ni même de changer la clé) à chaque fois, tu sais.

Lien vers le commentaire

En quoi la stabilité des API a-t-elle un rapport avec le fait de devenir médiocre, au juste ? Tu peux changer l'ameublement d'un appartement sans avoir besoin de défoncer la porte (ni même de changer la clé) à chaque fois, tu sais.

Alors je vais continuer sur la métaphore: oui tu peux, sauf si tu veux faire entrer un énorme réfrigérateur et qu'il ne passe pas la porte :)

Et puis ton appartement peux avoir les murs de travers, un parquet vermoulu et des fenêtres mal isolées…

Lien vers le commentaire
Alors je vais continuer sur la métaphore: oui tu peux, sauf si tu veux faire entrer un énorme réfrigérateur et qu'il ne passe pas la porte smile.gif

Alors c'est que ton frigo n'est probablement pas adapté, et qu'un autre modèle peut rendre le même service. Ou que ta porte a été mal conçue dès le départ (plus probable).

Et puis ton appartement peux avoir les murs de travers, un parquet vermoulu et des fenêtres mal isolées…

Ca n'a rien à voir avec la porte, tout ça. Tu pourrais presque démolir l'appartement pour le reconstruire, pourvu que tu ne changes ni la porte ni la clé, c'est transparent pour toi.

Lien vers le commentaire
Ouais, la porte mal conçue, c'est exactement ça. Et puis des fois on refait l'appartement et on en profite pour changer la porte aussi wink.gif

Ca, c'est pour les nihilistes adeptes de la tabula rasa qui refusent de voir qu'ils sont juchés sur les épaules du code de leurs prédécesseurs. ;)

Sinon, si il y a vraiment besoin, on peut ouvrir une autre porte plus adaptée à côté, en laissant la vieille porte pour les vieux habitués.

Lien vers le commentaire

Oui ils ont changés et alors ? Sous linux, c'est tous les 2 mois et demi que je risque de perdre la compatibilité avec un driver.

Tu racontes n'importe-quoi.

Par exemple j'ai installé sur ma machine un driver pour une webcam achetée il y a quatre ans. Alors que la même webcam sous linux reconnue "out of ze box" ne fonctionne toujours pas. (logitech hein pas une marque cryptique)

Toutes les webcam Logitech implémentent UVC, il y a pas besoin de driver spécifique que sur n'importe quel OS.

Aaron Platner m'a toujours paru quelqu'un de tout à fait agréable contrairement à bien des gens qui se permettent de lui parler comme si c'était un gueux simplement parce qu'il bosse chez NVIDIA.

Hein ?

Le pire c'est que la question des specs est totalement inintéressante, depuis que AMD les a publiée, combien de patch ont été soumis par des externes (Dave Airlie et un ou deux autres)?

Tu es complètement à la rue.

Le driver ATI n'a pas attendu qu'AMD s'y intéresse pour exister non plus. Si tu ne comprends pas l'intérêt des specs, quelle que soit la force de travail investie, je t'invite a arrêter l'informatique tout de suite.

C'était même devenu une critique à l'époque. (AMD ne fait que de publié les specs) alors qu'ils n'ont fait que d'augmenter le nombre de dev dédié à ça.

Absolument pas, tu es dans l'affabulation totale.

Non avec RandR et tout et tout, sous NVIDIA (driver proprio), tu peux te retrouver sans dual screen en 2012. Ironiquement avec le driver nouveau ça marche, mais du coup t'as pas de 3D.

Comment tu reproduis ça ? Tu as un exemple ?

Oui les drivers ATI sont nuls sous windows, alors que sous Linux ils (les proprio) fonctionnent environ 50% du temps (si on prend toujours le dernier noyau) à tout prendre je préfère encore ceux qui sont vraiment nuls.

50% du temps, vraiment ? Tu te rends compte que tes affirmations sont ricules ?

Sauf qu'il y a encore 3 ans les drivers libres étaient de la blague. Je me souviens des freeze lorsque j'avais l'audace de me servir du kernel mode setting.

Pas de chance, en 2009 j'ai acheté une carte ATI pour tester ce driver et j'y suis resté. Je n'utilisais pas KMS ceci dit; il n'était pas non plus activé par défaut.

Quitte à raconter n'importe quoi fais le avec des trucs plus difficiles à vérifier.

Ou comme les possesseur de carte 7XXX de AMD qui attendent le support de leurs cartes.

C'est le premier truc qui est exact dans ton message ; bravo.

De plus dans n'importe quelle benchmark, tu te prends une pénalité de 100% à 200% avec le driver libre AMD et bien pire avec le driver nouveau dont les dev n'ont tous simplement pas les specs.

Personne ne le nie. Tu parlais de stabilité, et l'avantage est clairement dans celui des drivers libres.

Et maintenant, les specs c'est important ?

Si si t'inquiète pas c'est très clair pour moi.

Tu as l'air d'avoir de sacrés problèmes.

En quoi la stabilité des API a-t-elle un rapport avec le fait de devenir médiocre, au juste ? Tu peux changer l'ameublement d'un appartement sans avoir besoin de défoncer la porte (ni même de changer la clé) à chaque fois, tu sais.

C'est évidemment ce qui se passe, seul dans l'imaginaire des incompétents trolls qui ne contribuent rien au libre il se passe du tabula rasa tous les deux mois.

Le nihilisme destructeur c'est plutôt de penser qu'il faut faire tout comme Windows et Mac OS (lol, si au moins c'était vrai) et copier leur solutions aux problèmes qu'ils sont les seuls à avoir.

Lien vers le commentaire

I personally think that one reason that the Linux kernel has been so successful was the fact that I didn't have a huge vision of where I wanted to force people to go. Sure, I wanted "unix", and there are some very high-level concepts that go with that (fork,exec,files etc), but I didn't want to enforce any particular world-view outside of that very generic pattern.

[…]

Some gnome people seem to be in total denial about what their problem really is. They'll wildly blame everybody except themselves. This article seems to be a perfect example of that.

:chine:

Lien vers le commentaire

50% du temps, vraiment ? Tu te rends compte que tes affirmations sont ricules ?

50% du temps sans doute pas, mais la semaine dernière encore mon collègue a eut des problème avec je sais plus quel GPU qui n’était pas supporté.

Et pour miner du bitcoin les drivers windows marchent mieux :)

Et puis Xorg c'est nul, voila. Peut être que wayland ça sera mieux.

Bon ceci dit les progrès fait ont été énorme en 15 ans, je regrette pas le temps ou il fallait éditer les Modeline a la main.

Au final pour moi linux > *, de tres loin.

Lien vers le commentaire

Tu racontes n'importe-quoi.

Le rythme des release du noyau c'est environ toute les 10 semaines. Après chaque nouvelle release l'installeur de fglrx ne marche plus.

Je ne considère pas ce que fait le mainteneur de Kanotix, à savoir patcher le binaire de fglrx comme faisant partie d'un processus d'installation standard.

C'est en fait la plus grosse critiqe à l'encontre de AMD et de fglrx sur phoronix. A chaque fois d'avoir 2 ou 3 release du noyau de retard.

Toutes les webcam Logitech implémentent UVC, il y a pas besoin de driver spécifique que sur n'importe quel OS.

Ben oui et alors ? Là je l'utilise sous linux et je n'ai pas d'image. Et lorsque j'en ai, l'image est dégeulasse car trop sombre ou pas précise du tout et complètement saccadée -> poubelle.

Hein ?

Aaron Platner c'est le un mec de chez NVIDIA il fait un peu tout. Développeur et interface avec la communauté et les mainteneur de libdrm. Je peux te dire qu'il s'est fait remballer copieusement sur les mailing list de Xorg. Et par Dave Airlie himself.

Tu es complètement à la rue.

Le driver ATI n'a pas attendu qu'AMD s'y intéresse pour exister non plus. Si tu ne comprends pas l'intérêt des specs, quelle que soit la force de travail investie, je t'invite a arrêter l'informatique tout de suite.

En l'occurence j'ai super bien suivi cette période de 2007. Certes il existait un driver libre, mais qui ne supportait que du vieux hardware. Le projet lancé par Jérôme Glisse dont je ne me souviens plus le nom avait à peine commencé à supporter la 2D (sans accélération) des cartes ATI récentes de l'époque (gémération r500). Ce qui a réellement changé la donne c'est l'engagement du mainteneur du driver radeon, Alex Deucher. Sans oublier l'implication de Novell, qui avait aussi quelque dev dessus. Ils étaient tellement impliqués qu'ils développaient en NDA le driver avant de pouvoir releaser les specs.

Absolument pas, tu es dans l'affabulation totale.

C'était un sujet de slashdot je crois, ça vaut ce que ça vaut, mais j'avais trouvé ça absolument idiot.

Comment tu reproduis ça ? Tu as un exemple ?

Simple optiplex Dell 2012 avec carte nvidia je pense une gt220, deux écrans et driver proprio. Moi j'ai toujours utiliser qu'un écran et le driver proprio c'était nickel, c'est un collègue qui voualait utiliser webgl qui a du rennoncer. Noyau 3.2 je pense.

50% du temps, vraiment ? Tu te rends compte que tes affirmations sont ricules ?

Ecoute si toi ça te plait de rester sur un vieux noyau libre à toi ou si tu as toujours du matos bomb proof tant mieux. Mais généralement j'aime bien avoir le dernier kernel disponible et certaine fois je n'ai pas le choix. Donc dans ce cas à chaque nouvelle release j'ai très peu de chance de pouvoir utiliser un driver proprio.

Pas de chance, en 2009 j'ai acheté une carte ATI pour tester ce driver et j'y suis resté. Je n'utilisais pas KMS ceci dit; il n'était pas non plus activé par défaut.

Quitte à raconter n'importe quoi fais le avec des trucs plus difficiles à vérifier.

Et oui on a chacun eu une expérience différente, la belle affaire hein.

C'est le premier truc qui est exact dans ton message ; bravo.

Merci mon prince !

Personne ne le nie. Tu parlais de stabilité, et l'avantage est clairement dans celui des drivers libres.

Et maintenant, les specs c'est important ?

Evidemment que c'est important et évidemment que le driver libre est 100 fois mieux que fglrx.

Dieu m'en garde j'en ai pas besoin actuellement, mais je me suis retrouvé plus d'une fois emmerdé à devoir choisir entre un noyau plus récent et fglrx. Et je suis d'accord avec toi les installeurs c'est le mal, j'ai toujours eu les miquettes en lançant le script d'installation de fglrx.

Par contre je n'ai jamais eu de soucis en installant aucun de ces drivers sous Windows.

Même si ATI a une sale réputation, je n'ai jamais eu de gros problèmes sous Windows, aucun.

Sous linux si tu veux de la 3D et soyons fous un gestionnaire de fenêtre supportant le compositing, même encore aujourd'hui fglrx est de la grosse daube.

Et le compositing c'est pas pour faire le keke, c'est juste pour éviter d'avoir des bug d'affichage moche lorsqu'une application utilise de la transparence. (au lieu de voir la fenêtre derrière tu verras ton bureau.)

50% du temps sans doute pas, mais la semaine dernière encore mon collègue a eut des problème avec je sais plus quel GPU qui n’était pas supporté.

Et pour miner du bitcoin les drivers windows marchent mieux :)

Et puis Xorg c'est nul, voila. Peut être que wayland ça sera mieux.

Bon ceci dit les progrès fait ont été énorme en 15 ans, je regrette pas le temps ou il fallait éditer les Modeline a la main.

Au final pour moi linux > *, de tres loin.

En fait je parle de quelqu'un qui n’utiliserais que le dernier noyau une fois releasé, ce qui ne me semble pas totalement stupide car à chaque nouvelle release tu obtiens un lot de correction pour tout un tas de drivers dont tu peux avoir besoin.

Typiquement tu peux avoir un driver wireless qui fonctionne mieux qu'avec une précédente version, ce qui n'est pas si fréquent d'accord, m'enfin le principe de pouvoir profiter de driver plus récents en devant faire un choix entre noyau ou driver proprio me semble un peu chiant.

Et oui évidemment Xorg a bien progressé depuis le fork avec Xfree.

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...