Quand 5 de nos ministres mettent à mal nos libertés sur internet

Au bas du décret 2011-219 du 25 février 2011, on trouve la signature de François Fillon, Premier Ministre, et de quatre autres ministres.
Voilà qui ressemble, me direz-vous, à une mobilisation unanime de l’État au service de la proclamation d’une France novatrice dans le domaine des libertés, de l’utilisation des nouvelles technologies, de la démocratie; d’une France porteuse d’un message d’espoir et d’encouragement envers tous ces peuples qui trouvent dans ces outils que sont internet et les « réseaux sociaux » le moyen de se défaire de leurs dictatures ou plus modestement des restrictions de liberté qui tentent de les museler.
Non.
Au moment même où des pays presque oubliés reprennent voix dans le concert des peuples, la France proclame sans préavis la mort des services d’hébergement de contenu, la fin des plateformes collaboratives, la disparition des éditeurs autogérés, la fermeture des forums de discussion, l’arrêt ferme et définitif de toute perspective de développement de l’industrie « internet » (hébergeur technique, éditeur de service, éditeur de logiciel).
Comment ?
En décrétant, ce 25 février 2011, que toute transaction et, surtout, que toute action de création ou de modification de contenu, par quelque procédé que ce soit, sur quelque support que ce soit, doit pouvoir être rattachée à son auteur comme personne physique, et permettre le recoupement de l’instant, de l’adresse IP utilisée, de l’adresse email, des coordonnées bancaire, du mot de passe et des moyens de le modifier, et ce pendant un an.
Vous n’y croyez pas vraiment ? Eh bien voici le décret au format PDF, pour vous permettre de le consulter sans laisser de trace sur les serveurs de ce cher gouvernement français, à diffuser librement et discrètement à vos amis (ainsi que l’article de la loi LCE à laquelle il fait référence).
Ce texte en effet concerne aussi bien les hébergeurs (le « 1 du I de l’article 6 de la loi du 21 juin 2004 susvisée »), mais aussi tout éditeur de contenu ou d’une plateforme de contenu (le « 2 du I de l’article 6 de la loi du 21 juin 2004 susvisée »).
Cela au prétexte, encore et encore, de la lutte anti-terroriste.
Il nous reste deux options:

  • continuer de s’exprimer publiquement en se sachant fliqué (les tunisiens ou les libyens ont beaucoup à nous apprendre en ce domaine)
  • se contenter de parler chez soi, entre amis, sans aucun artifice technologique, autour d’un verrre de vin

Ah si : il est aussi possible de quitter le pays. Le texte ne s’applique qu’en France !
Ou de faire entendre raison au gouvernement, en suivant l’exemple du « printemps arabe ».

Les DNS de Free

Les abonné(e)s à Free utilisent les DNS 212.27.40.240 et 212.27.40.241
C’est géré automatiquement par le serveur DHCP de la freebox, mais l’info peut servir, selon les circonstances.

Des annonces immobilières avec leur véritable adresse !

C'était tout bête mais personne ne n'avait encore fait (à ma connaissance): représenter les biens à vendre sur une carte détaillée, interactive (genre Google Maps pour ne pas chercher ailleurs).

C'est vrai que bien souvent, à part le décryptage du descriptif des pièces et de la surface, la première information que l'on souhaite avoir lorsque l'on appelle pour une annonce, c'est où ça se trouve, précisément.

Comme les agences immo sont cachotières (pas question que l'on contacte directement le vendeur), cela n'est possible que pour des annonces entre particuliers. PAP ne se s'y pas lancé. Voici AliasImmo (un peu bof ce nom, c'est pour avoir A au début et apparaître en premier ?).

Bien sûr, c'est tout jeune et y a pas encore beaucoup d'annonces, mais j'aime bien cette transparence avec le vendeur. Et puis en région urbaine, faire des recherches par commune alors qu'elles se touchent toutes, c'est fastidieux (faire à chaque fois une sélection parmi les communes avoisinantes qui vous intéressent, sans en oublier une seule…).

Il faudra voir comment on peut cocher les annonces vues (intéressantes, déjà vues, pas intéressantes, etc…) et avoir un aperçu des nouvelles annonces, etc…

En tout cas, c'est gratuit, donc n'hésitez pas à passer une annonce si vous avez un bien à vendre ou à louer !!

Et pour ceux qui ont toujours du mal à trouver, ils peuvent toujours s'adresser au chasseur d'appartements AdvizHome.com qui se chargera de leur trouver le bien de leurs rêves !

Ces bugs qui demeurent dans Mozilla Firefox, Thunderbird et SeaMonkey

Je ne résiste pas à vous citer cette collection exceptionnelle de bugs qui minent depuis des années le code des logiciels de la Fondation Mozilla et démontre que derrière la transparence des échanges, la démarche « open source », et les bonnes intentions, il peut toujours rester la volonté de pouvoir des hommes, et leur capacité à s’opposer aux autres pour affirmer leur prérogative.

Elle est le fait de Julian Hall, postée sur Bugzilla :

— Comment #67 from Julian Hall <jules@meridiandigital.co.uk> 2007-02-08 09:29:52 PST —
Unheard of? Not really, bug 17796 is over seven years old, and has had a
working patch waiting for review for the best part of four years, but has yet
to be resolved. Nobody cares about fixing it. Bug 57882 is older than this
one yet still not fixed, and that’s a fairly simple, easily reproducible layout
bug that probably shows up for most users at some time or another. Nobody
cares about fixing it. Bug 35389 – nobody cares. Bug 54570 — intensely
annoying for those of us who subscribe to mailing lists in digest format, but
nobody cares enough to apply the 5-year-old patch. Bug 61363 is a priority 1
critical dataloss bug that has been unfixed for over six years; it was being
actively worked on in March 02, but then everything went suddenly quiet, and
the people working on it haven’t been heard from since…

This bug can be fixed with a single line code change that is obvious to anyone
who reads the description of it and the working workaround that has been
presented: make the workaround setting the default. But nobody cares enough to
spend the time fixing it, because mozilla.org’s beaurocracy makes committing
any change to the codebase too problematic in cases of trivial problems like
this one.
—–

Si ces bugs vous concernent, n’hésitez pas à vous inscrire et à voter en leur faveur.

Linux, Novell, Windows, Solaris, et maintenant ? NexentaOS

Linux est le système d'exploitation qui a permis de déchainer la révolution Internet en réduisant drastiquement le coût des serveurs pour ne laisser subsister que le prix du matériel et de l'exploitation de ces machines.

Novell fut l'éditeur, il y a plus de 20 ans, d'un des premiers systèmes d'exploitation fiable et universel destiné aux PME – fonctionnant sur des gros PC. Encore utilisé par des dizaines de milliers d'entreprises, la maison mère a racheté les droits d'Unix, et lança pendant quelques mois une guerre juridique contre Linux. Puis, Novell changea de stratégie, acheta Suse Linux, avant de passer un accord en novembre 2006 avec Microsoft pour assurer la co-existence et la collaboration des systèmes Windows et Linux.

Sun Microsystems vendait des stations de travail et des petits serveurs Unix utilisant son système SunOS, devenu Solaris au milieu des années 90. Un système extrêment éprouvé, novateur, bientôt disponible sur toutes les tailles d'ordinateurs, Sun ayant racheté Cray Research, l'entreprise fabriquant les plus gros supercalculateurs au monde. Solaris n'a sans doute pas toujours évolué vers la même facilité d'utilisation que Lnux, mais ce fut par exemple un des premiers systèmes permettant l'ajout de périphériques à chaud (plug & play), et toujours soutenu par des travaux de recherche éminemment novateurs, et ancrés dans les besoins clients. Les performances ont parfois été décevantes, intrigantes. Mais depuis Solaris 10, bien des arguments jouent en sa faveur.

Aujourd'hui, se profile la rencontre de la richesse des applications Unix GNU avec la version Open Source de Solaris pour x86. Le meilleur des 2 mondes: le catalogue Linux Debian disponible sous OpenSolaris se nomme NexentaOS. Toutes les fonctionnalités des distributions Linux habituelles, tout ce qu'il faut pour séduire les utilisateurs de Debian, avec la fiabilité de Solaris en prime.

A suivre !

Mesurer la part de marché des moteurs de recherche

Comment savoir quel moteur de recherche est le plus utilisé par les internautes, et donc sur lequel devoir concentrer les efforts d’optimisation du référencement de votre site ?

Les analystes américains sont décidémment très ingénieux. Ils n’ont pas cherché à compter le temps passé sur chaque moteur, ni les visites générées par chaque moteur sur un panel de sites représentatif d’un pays ou d’une langue.

Non, ils ont compté le nombre de requêtes effectuées par les Internautes. Peu importe qu’elles soient fructueuses ou infructueuses. Peu importe qu’elles génèrent ou non du trafic. Non, juste le nombre de requêtes sur une période donnée.

Les résultats détaillés pour octobre 2006 aux États-Unis sont sur le site de Nielsen Netratings.

Cela permet de démontrer que l’utilisation de Yahoo comme moteur de recherche a le vent en poupe (tient, le service communication financière de Yahoo va être content) car il progresse plus vite que les autres moteurs (voilà que leur politique de partenariat pour insérer un peu partout des formulaire de recherche sur leur moteur porte ses fruits).

Mais le critère me semble très fragile: plus un moteur est rapide, même peu pertinent dans ses résultats, plus l’internaute saisit des requêtes de reformulation successive pour tenter de trouver ce qu’il cherche. Et mieux le moteur est classé dans ce palmarès construit à l’aune du nombre de requêtes traitées, sans pour autant être celui le plus souvent utilisé avec succès et satisfaction.

Une autre approche est l’audience apportée à un panel de sites. Le dernier exemple francophone encore maintenu après l’abandon du baromètre abondance est celui de secrets2moteurs. mais là aussi il y a un biais. Xiti mesure beaucoup de micro-sites perso qui sont bien mieux pris en compte par Google que par Yahoo (dont l’indexation est beaucoup moins complète en volume de pages et en nombre de site). Il en résulte que la seule force de frappe en volume de Google lui confère une meilleure part de marché, et celle des autres moteurs est sous-estimée. Le panel pro du baromètre Abondance proposait d’ailleurs une bonne solution: construire un référentiel pour une typologie donnée de sites, qui permette aux sites qui en relèvent de se situer par rapport à des sites similaires.

Dommage qu’il n’existe pas un moyen plus fiable et transparent de connaître l’audience de chaque moteur, car finalement tous les investissements publicitaires en mots clefs sponsorisés se font, au départ, sur la base de la part de marché de chacun…

Qu’en dites-vous ?