Aller au contenu

Créer Une Bdd D'articles Commune


Invité Albert Li

Messages recommandés

Invité Albert Li
Posté
moi par exemple je t'ai proposé mon soutien. Donc j'ai bien entendu ton besoin d'être très entouré, mais je n'en suis pas persuadé. Regarde Ase était seul…nous sommes déjà deux

Je l'ai bien noté et je t'en remercie.

Mais pour que ce projet marche, il faut à mon avis arriver à convaincre suffisamment "d'auteurs" libéraux de se joindre au projet.

C'est ce que j'essaye de faire ici.

Quant il y aura une petite équipe de 10-20 personnes motivées, on pourra commencer les choses.

On n'en est pas là donc…

Posté

Mais c'est dingue ça !

Moi et d'autres t'avons répété 15 fois qu'il n'était pas nécessaire que les auteurs postent directement dans la base de donnée, qu'on pouvait faire des parsers de sites perso assez facilement pour aller chercher les texte, qu'il n'y avait donc besoin que de l'accord des auteurs pour que leurs textes soient publiés dans la base.

Donc vas-y lance toi, ricotrutt vient de te proposer son aide, il y avait d'autres volontaires (à part moi, tu peux oublier) sur le précédent fil, alors, hop hop hop, cahier des charges, trouver un hébergement, et c'est parti.

Invité Albert Li
Posté
Mais c'est dingue ça !

Moi et d'autres t'avons répété 15 fois qu'il n'était pas nécessaire que les auteurs postent directement dans la base de donnée, qu'on pouvait faire des parsers de sites perso assez facilement pour aller chercher les texte, qu'il n'y avait donc besoin que de l'accord des auteurs pour que leurs textes soient publiés dans la base. 

Donc vas-y lance toi, ricotrutt vient de te proposer son aide, il y avait d'autres volontaires (à part moi, tu peux oublier) sur le précédent fil, alors, hop hop hop, cahier des charges, trouver un hébergement, et c'est parti.

Hein ?

Qqun m'a parlé ?

Invité Albert Li
Posté

J'ai mis à jour la présentation du projet en tête de fil pour que tout soit bien clair.

Cdt

AL

Beaucoup de sites se réclamant du libéralisme ont vu le jour.

C'est très bien.

Le problème, c'est que ces sites sont nécessairement mis à jour épisodiquement et donc, pour les lecteurs potentiels, il faut se livrer à une zapping féroce entre les différents sites pour éventuellement trouver qq articles à se mettre sous la dent. Autant dire qu'il faut être très motivé, même avec le haut débit. D'autre part les articles traitant d'un même thème sont dispersés sur les différents sites.

Une solution simple à ce problème serait de créer une base de données d'articles ou TOUS les libéraux viendraient saisir leurs articles et les référencer selon différents critères.

A l'aide de différentes vues (articles les plus récents, par auteur, par sujet, etc…), les lecteurs auraient accès à tous ces articles sur ce même site.

Les avantages :

1- Il y aurait ainsi régulièrement de nouveaux articles sur le site, les points de vue de différents libéraux sur différents sujets, l'actualité,  etc…

2 - Cela serait extrêmement facile, pour nous comme pour les lecteurs, de retrouver les articles traitant d'un sujet particulier.

3 - Tous les auteurs libéraux conserveraient une totale liberté vu que chacun pourrait définir sa ligne éditoriale (sa propre sélection d'articles).

ça ne me semble pas très compliqué à faire et ça nous permettrait de mieux nous faire entendre sur le web.

Qu'en pensez vous ?

  • 5 weeks later...
Posté
An open source Google - without the ads

By Andrew Orlowski in San Francisco

Published Tuesday 11th January 2005 09:44 GMT

With the hope of returning at least one corner of the web to its non-commercial roots, Google watcher Daniel Brandt, who curates the NameBase archive, has released the source code to a Google scraper. Brandt has been making an ad-free proxy available for two years using Google's little known minimal "ie" interface. By using this proxy, users bypass both Google's notorious "2038" cookie (that's when it expires) and the text ads.

Brandt fully expects Google to throw legal and technical resources at him, but says he welcomes the challenge if only to clarify copyright issues. Google took people's free stuff and made a $50 billion business from it, he argues.

"The commercialization of the web became possible only because tens of thousands of noncommercial sites made the web interesting in the first place," he writes. "All search engines should make a stable, bare-bones, ad-free, easy-to-scrape version of their results available for those who want to set up nonprofit repeaters. Even if it cuts into their ad profits slightly, there's no easier way to give back some of what they stole from us."

He explains in more detail in the source code: "Legally, Google probably has the right to block anyone they want. And legally, we believe that as a tiny nonprofit with an interest in Google's violations of privacy, we have the right to access Google's publicly-available data any way we want. If you want to argue about copyright, then let's start with the fact that Google scrapes billions of web pages and doesn't ask permission before making the cache copies available. Thiss craping is used as a carrier for the ads that make Google stinkin' rich.

"Now that, in our opinion, is an interesting copyright issue. As this is written, Google has a market cap of $55bn. This exceeds the market cap of General Motors and Ford combined. Google is probably the single largest information resource on the planet, and they're getting rich off of us. It's time for Google to give something back to the public sector."

The source code, which runs on Linux, asks the users only to use the program for non-commercial purposes.

"We think it would be splendid if scraping Google for nonprofit purposes, and stripping out their wretched advertising, was established someday as an acceptable, legal practice."

In the week since it launched, the source code has been downloaded about a hundred times a day says Brandt.

Google would rather you licensed its beta Web API. However, as Charles Ferguson writing in MIT Technology Review noted recently, the service is "laughably limited" to 1,000 queries a day, and offers little functionality; Google has let the offering languish.

You can find the code here [ZIP archive, 16kb], an explanation here and try out the proxy here. An open source Google - without the ads

By Andrew Orlowski in San Francisco

Published Tuesday 11th January 2005 09:44 GMT

With the hope of returning at least one corner of the web to its non-commercial roots, Google watcher Daniel Brandt, who curates the NameBase archive, has released the source code to a Google scraper. Brandt has been making an ad-free proxy available for two years using Google's little known minimal "ie" interface. By using this proxy, users bypass both Google's notorious "2038" cookie (that's when it expires) and the text ads.

Brandt fully expects Google to throw legal and technical resources at him, but says he welcomes the challenge if only to clarify copyright issues. Google took people's free stuff and made a $50 billion business from it, he argues.

"The commercialization of the web became possible only because tens of thousands of noncommercial sites made the web interesting in the first place," he writes. "All search engines should make a stable, bare-bones, ad-free, easy-to-scrape version of their results available for those who want to set up nonprofit repeaters. Even if it cuts into their ad profits slightly, there's no easier way to give back some of what they stole from us."

He explains in more detail in the source code: "Legally, Google probably has the right to block anyone they want. And legally, we believe that as a tiny nonprofit with an interest in Google's violations of privacy, we have the right to access Google's publicly-available data any way we want. If you want to argue about copyright, then let's start with the fact that Google scrapes billions of web pages and doesn't ask permission before making the cache copies available. Thiss craping is used as a carrier for the ads that make Google stinkin' rich.

"Now that, in our opinion, is an interesting copyright issue. As this is written, Google has a market cap of $55bn. This exceeds the market cap of General Motors and Ford combined. Google is probably the single largest information resource on the planet, and they're getting rich off of us. It's time for Google to give something back to the public sector."

The source code, which runs on Linux, asks the users only to use the program for non-commercial purposes.

"We think it would be splendid if scraping Google for nonprofit purposes, and stripping out their wretched advertising, was established someday as an acceptable, legal practice."

In the week since it launched, the source code has been downloaded about a hundred times a day says Brandt.

Google would rather you licensed its beta Web API. However, as Charles Ferguson writing in MIT Technology Review noted recently, the service is "laughably limited" to 1,000 queries a day, and offers little functionality; Google has let the offering languish.

You can find the code here [ZIP archive, 16kb], an explanation here and try out the proxy here. ®

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...