Une petite sélection d’oeufs de pâques

Une petite sélection d’oeufs de pâques

Pour les fêtes de Noël, voici une petite sélection d' »easter egg » (EE) que l’on peut trouver sur le Net.

Ces « easter eggs », ou « oeufs de Pâques« , sont des bouts de codes volontairement insérés dans les programmes et applications que l’on peut trouver sur la Toile par les développeurs pour créer des fonctions cachées, souvent humoristiques, anecdotiques ou insolites, au sein d’un programme et accessibles via une manipulation « secrète » (requête de mots clés, combinaisons de touches…).

(suite…)

Collusion : un plugin pour savoir qui vous traque en temps réel

Collusion : un plugin pour savoir qui vous traque en temps réel

Aujourd’hui, on va s’intéresser à un petit plugin que j’ai trouvé, installable sous firefox, et nommé Collusion qui vous permettra de connaitre précisément l’état de votre « tracking » lorsque vous naviguez sur la Toile.

Alors, il ne se trouve pas directement depuis le catalogue d’extensions de Mozilla, mais pourtant le code semble très propre. On peut ainsi le trouver sur le site toolness.com et çà, c’est le lien de l’auteur, Atul Varma (travaillant pour Mozilla Labs), de ce petit plugin sur le très sérieux Github

plugin firefox collusion web tracking

Un plugin pour voir visuellement qui collecte des informations sur votre navigation web

Ce petit plugin vous permettra de visualiser très simplement grâce à une animation graphique qui synthétise tous les sites collectant des informations sur votre navigation web (cookies, préférences de navigation…), notamment pour les besoins de la publicité en ligne (réseaux display Adsense, affiliation…). Ceci afin de mieux comprendre comment fonctionne Internet.

Grosso modo, ce logiciel compile graphiquement toutes les informations collectées lors de votre navigation sur la Toile par le biais des « cookies » déposés sur votre ordinateur par chaque site que vous visitez, et les réassemble en une arborescence permettant de mettre en avant les principaux sites vers lesquels sont dirigées ces informations (pour visualiser le graphique après installation, cliquer sur le symbole « collusion » en bas à droite de votre navigateur).

Pas de panique cependant, il ne s’agit pas de tomber dans la paranoïa. Tout le monde sait que des informations sur votre navigation sont collectées lorsque vous surfez sur le Web. La plupart des temps, elles servent aux régies d’affiliation afin de proposer aux internautes des publicités en ligne plus ciblées, notamment en fonction de votre historique de navigation et de votre historique de recherche. C’est le fameux remarketing, lui-même évolué du retargeting.

animation graphique collusion

Le graphique ci-dessus est le résultat d’une petite navigation de 15 minutes mené par mes soins, à travers des sites d’actualités (le Monde, l’Express…) et quelques sites informatiques.Impressionnant, non ? On voit déjà que l’arborescence est déjà bien établie, avec l’apparition de quelques points nodaux. Je ne vous raconte pas quand on observe deux à trois journées de navigation couplées. Ca devient nettement plus fouillis… une vrai constellation de sites et de données.

Comment çà marche : explications des résultats du graphique Collusion

Néanmoins, après quelques remaniement, on peut voir plus clairement encore les points nodaux. On peut en effet, de façon limité, « tirer » ou déplacer une partie de ces noeuds pour rendre l’arborescence plus clair.

This movie requires Flash Player 9

plugin collusion

En rouge, ce sont les sites « trackers » reconnus par privacychoice.org et qui collectent ouvertement de l’information sur notre navigation, notamment à des fins publicitaires. En gris, ce sont les sites qui vous laissent des cookies mais sans collecter de l’information, enfin théoriquement. Et les flèches, enfin, indiquent la direction de ces informations et du trafic.

On retrouvera ainsi les principales régies publicitaires telles que Tradedoubler, Adjuggler et le réseau display de Google évidemment (Adsense et Doubleckick). On retrouvera également des réseaux sociaux bien connus comme Facebook et Twitter, mais également des sites collectant des données à des fins marketing (Weborama, Full circle studies, Adtech…).

Un ciblage produit… pour le moment

Bon, il est évident que votre vie privée en prend un coup. Quand vous naviguez sur le Web, on collecte des données. Celles-ci servent aux régies publicitaires et aux cabinet de conseil marketing pour construire un profil vous correspondant, déterminer ce qui vous intéressent et vos envies, afin de vous proposer les produits et services les plus intéressants.

Ces annonces personnalisées sont déjà assez énervantes quand on vous propose à tour de bras des réductions pour des crayons ou des rames de papiers quand vous êtes ciblés comme « entrepreneur », mais elles laissent également apparaitre que la frontière est mince entre utilisation publicitaire et contrôle policier.

Quid de mes aspirations politiques ou personnelles? On peut également facilement produire un « profil » plus privée de moi en fonction de ma navigation. Et si ces bases de données sont un jour utilisées par des personnes autres que de simples régies publicitaires…. alors là… Sans compter que la trop grande personnalisation des résultats de recherche, empêche une plus grande ouverture d’esprit des personnes, en ne leur proposant que du contenu qui leur correspond.

Configurer son navigateur pour ne pas être tracké.

Evidemment, il existe des solutions pour éviter d’envoyer des informations sur votre navigation. Pour cela, il faut configurer son navigateur pour ne pas envoyer de données.

Cela ne marche pas à tous les coups car certains sites demandent l’acceptation des « cookies » pour pouvoir y accéder (comme par exemple les comparateur de vol et de voyages).

Voici une liste de possibilités par navigateur :

  • Pour Firefox: Allez dans Outils>Options>Vie privée puis paramètres personnalisés et décocher « accepter les cookies »
  • Pour Safari: Aller dans Developpeur>Ne pas suivre HTTP Header et cliquer.

Sinon, on peut également utiliser des outils comme Adblock Plus (add-on firefox), Better Privacy, ou tout simplement Ghostery.

Anatomie d’un virus informatique

Anatomie d’un virus informatique

Un petit article très court pour relayer une très belle vidéo (style infographie) que j’ai trouvé lors de ma veille du matin.

Limpide et très claire, elle explique le fonctionnement et l’anatomie d’un virus informatique, et plus particulièrement de Stuxnet, le virus qui frappa en Juillet 2010 des applications industrielles tournant sous Windows et plus précisément sur des systèmes SCADA (Siemens Supervisory Control And Data Acquisition) …. notamment en Iran :).

Stuxnet: Anatomy of a Computer Virus from Patrick Clair on Vimeo.

Motion designer Patrick Clair

Lien vers l’article d’origine: Anatomy of a computer virus explained – Flowing Data

Cacher ses documents et dossiers sur son PC

Cacher ses documents et dossiers sur son PC

Des logiciels gratuites pour dissimuler ses dossiers et fichiers sensibles

Si on utilise souvent son PC lors de ses déplacements professionnels, on se dit très souvent que c’est quand même bien pratique d’avoir tous ses dossiers au bout des doigts.

Mais, par contre, on oublie aussi qu’au cours de déplacements, votre  matériel informatique est beaucoup plus vulnérable, que ce soit par oubli, perte, ou tout simplement vol.

Si la perte de votre PC et de vos données est déjà suffisamment stressant en soi, la perspective de voir des données sensibles voire confidentielles tombées dans des mains tierces est encore plus énervant.

Mieux vaut donc prendre les devants et protéger vos données les plus importantes, en les dissimulant de l’arborescence de fichiers dans un dossier caché et accessible uniquement par mots de passe.

Et pour cela, il existe des outils gratuits très performants. Bon, cela ne bloquera que temporairement un « hacker » performant s’il est motivé mais cela permettra de mettre hors du coup les « récupérateurs » et les curieux peu férus d’informatique.

protection données informatiques

WinMend Folder Hidden

Le premier utilitaire intéressant à utiliser est le logiciel Folder Hidden fourni par l’éditeur WinMend. Totalement gratuit, il permet de cacher rapidement des fichiers sur des partitions locales et des supports périphériques (clés USB, DD externe…). N’apparaissant pas aux autres systèmes et aux autres logiciels, les fichiers sont ainsi soigneusement cachés (en quelques millièmes de secondes, ce quelques soient leurs poids, et même si l’arborescence des fichiers et des dossiers est lu sur un autre PC).

Et ils sont de plus sécurisés par la mise en place d’un mot de passe.

En gros, c’est un logiciel sécurisé et des plus fiable.

Folder lock

protection données Folderlock

Folderlock est également très pratique car facile d’utilisation. L’utilitaire se charge et vous pouvez choisir ensuite les fichiers sensibles que vous souhaitez cacher et encrypter, avec définition d’un mot de passe.

L’encryption des données se fait via l’algorithme de chiffrement Blowfish de 256 bit.

Autre intérêt du logiciel : il fournit toute une gamme d’outils supplémentaires pour la protection de vos données et de votre vie privée : verrouillage, camouflage des fichiers, mode de navigation cachée (stealth), écraseur de données (shredder), système de mise en veille forcée, monitoring de hacking, nettoyage de l’historique, système plug and play pour les clés USB… Vous pouvez même mettre en place un mot de passe système (master password).

Sans oublier, les animations qui sont très marrantes.

Easy file locker

Un tout petit logiciel à l’interface très simple et épuré (boutons « caché/ »décaché », mot de passe…) qui permet de cacher ses documents de l’arborescence publique des fichiers sur une session. Le tout évidemment protégé par mot de passe.

Les conseils du « backup » sont également très pertinents.

Folder hider

Folder hider est également un bon logiciel pour dissimuler ses fichiers. Là encore, un mot de passe « master » permettre de dissimuler et d’encrypter les fichiers qui vous intéressent . Le tout en quelques secondes. Les fichiers « sécurisés » seront ensuite placer dans une « privacy area » ce qui a le mérite de ne pas éparpiller vos fichiers et de les isoler sereinement.

MySecretFolder

logiciel protection données secret folder

« Last but not least », le logiciel « my secret folder » est également très simple à utiliser tout en restant puissant et compatible avec windows 7. Il fonctionne là encore avec un espace disque dur « sécurisé et camouflé, une « privacy area », où vous pourrez ranger et cacher vos fichiers les plus importants.  Vous pourrez également protéger un dossier donné, et sélectionné par un clic droit, avec un mot de passe.

Pratique, fiable, ergonomique et très discret, ce logiciel présente également l’intérêt d’être polyvalent, fonctionnant aussi bien avec des formatages de disque dur NTFS et FAT/FAT32. Ouvert donc à un large type de disque dur externe et de clés USB.

L’autre intérêt est qu’il supporte aussi bien des fichiers de logiciels de type Office, Windows mais également MS-DOS. Très pratique.

Enfin, on peut le « customiser » très facilement, et notamment créer des touches de raccourci clavier (hotkeys) pour camoufler encore plus rapidement vos fichiers.

Le point sur le cloud computing

Le point sur le cloud computing

Récemment, je me suis rendu à une conférence des plus intéressante qui traitait du cloud computing, avec notamment une personne de chez Microsoft qui nous as fourni de nombreuses informations.

Le cloud computing : entre solutions à d’anciens problèmes et nouvelles problématiques

Je ne suis pas un expert en cloud computing mais je m’intéresse pas mal au sujet, notamment en ce qui concerne la question de la sécurité des données et de son fonctionnement interne.

A n’en pas douter, c’est la (prochaine) révolution du monde numérique et informatique, qu’elle soit bonne ou mauvaise.

cloud computing

Les principales caractéristiques qui pourrait définir le cloud computing

Si l’on cherchait à définir ce qu’est le cloud computing, pour mieux comprendre et cerner le concept, on pourrait se concentrer sur les notions suivantes :

  • Permettre la continuité de l’activité par tous les moyens, et par une très haute disponibilité du système garanti contractuellement via contrat SLA. Microsoft, par exemple,  garanti une disponibilité de service à 99,9% par mois soit 3h/an maximum d’indisponibilité par an accepté contractuellement. Au délà (avec seuil à 95%), Microsoft rembourse le client (attention, tout de même, le « compte à rebours » ne se déclenche qu’à partir de l’appel aux supports Microsoft par le client avec ticket. D’où la nécessité d’un monitoring constant…:)).
  • Marqué par une très forte agilité, capable de suivre l’évolution technologique et de faire face à la montée en puissance des besoins,
  • Un concept de self-service, avec des modules « à la carte », configurable selon les besoins et la configuration de l’entreprise,
  • marqué par la notion d’élasticité et de réponse aux pics de demande,
  • Permettre la mise en place d’économies d’échelle informatique et donc une diminution des coûts, par la mutulisation des moyens et notamment des serveurs,
  • Une mutualisation complète des outils et des logiciels nécessaires à la bonne marché de l’entreprise, là encore à la carte et avec une disponibilité complète et constante.
  • qui entraîne dans son sillage, la construction de « méga » datacenters, très centralisés mais dotés de systèmes de sécurité poussées à leur paroxysme (multiples systèmes de refroidissement, indépendance des systèmes de refroidissement, multiples redondances physique et électronique, sécurités physiques, multiples sources d’approvisionnement électrique….)
  • Un système virtuel avec une délocalisation des données.
  • Une solution d’outsourcing 2.0, via une contractualisation complète des prestations entre l’entreprise cliente et le prestataire fournisseur (SLA). On s’oriente vers une fin des licences pour un développement des abonnements. C’est dans cette voie que Microsoft s’est engagé avec son nouveau Office 365 destiné à remplacer Microsoft Online. C’est un MS Office complet en « cloud » avec location des logiciels « à la carte ».
  • multi-locataire et ubiquité du système, disponible n’importe où et n’importe quand.
  • une plus grande ouverture, avec un développement des besoins en monitoring : le client doit pouvoir accéder à son compte n’importe quand pour surveiller d’éventuels dysfonctionnements/déconnections.

cloud triangle

Au fond, cela revient à créer un nouveau « business model » pour le monde informatique, et pour les entreprises utilisatrices, ce quelque soit la « couche » (layer) d’utilisation souhaitée :

  • infrastructure complète de gestion des besoins informatiques de la société, l’ « infrastructure as a service » (IaaS),
  • besoins en logiciels informatiques déportés, sans hébergement en local, avec abonnement plutôt qu’achat de licences, le « Software as a Service » (SaaS),
  • le « platform as a service » (PaaS), environnement middleware créannt la communication entre des applications encore hébergées par les client.

Le client aura donc, au final, un rendu informatique beaucoup plus ciblé, car correspondant à ces besoins réels. Que ce soit en infrastructure mais également en logiciels. Tout cela se fera « à la carte » en fonction de ses besoins, sans matériels et logiciels inutiles, et trop souvent compris dans les « packages informatiques » actuels.

 

conférence cloud computing

Une technologie qui profite des dernières innovations

Si beaucoup restent à faire pour hiérarchiser et standardiser les normes du « cloud computing » (comme par exemple, pour les services de type « Platform as a Service » (PaaS), on notera tout de même que son développement récent a profité des dernières innovations technologique, telles que les grands chantiers d’installation de la fibra optique, améliorant considérablement la bande passante, et permettant l’installation de plus grands systèmes dématérialisés sans perte de qualité.

Il en est de même pour les capacités réseaux et matériels (échange et stockage) qui ont permis de construire des datacenters de nouvelle génération, beaucoup plus grands et beaucoup plus sécurisés.

Cloud computing = concept écologique ?

L’un des arguments en faveur du cloud computing est son côté « eco-friendly » et « eco-responsable » souvent mis en avant par les constructeurs.

D’un premier abord, ce n’est pas probant au vu des besoins en dépenses énergétiques croissants nécessaires pour « loger » les fonctionnalités, logiciels et données dans le « cloud » (réseaux, construction de data centers immenses….).

Par contre, s’il n’offre pas « ex nihilo » un avantage écologique, le « cloud computing » permet de mettre en place une marge de manoeuvre conséquente pour travailler ce côté écologique.

En effet, en concentrant au même endroit toutes les données et ressources informatiques via d’immenses datacenters, on peut ainsi améliorer le focus de ces efforts écologiques sur un même endroit avec d’importantes économies d’échelles et de nouvelles méthodes : refroidissement assuré par échange thermique avec un bassin d’eau, toit végétalisé, énergie renouvelable…

D’autant que le « cloud computing » même si énergivore permet de mieux traiter les pics de consommation énergétique, via

  • une maîtrise complète de la virtualisation (serveurs virtuels sur châssis physiques permettant une plus grande utilisation des serveurs, à hauteur de 50-80%, contre seulement 10% actuellement en serveur dédié). Ainsi, moins de gaspillage dans les serveurs, mais également dans les réseaux (pas besoins d’infrastructures redondantes pour gérer les pics de trafic).
  • une meilleure maîtrise de sa densité électrique, notamment en terme de refroidissement des serveurs, tout en étant sécurisé et avec une irrigation télécom parfaite (double arrivée sur les derniers datacenter).

Les limites du cloud computing

En terme de limites, on retiendra que le cloud computing soulève les interrogations suivantes:

  • la réversabilité des données: les données envoyées dans le « cloud » par le client sont-elles récupérables? Théoriquement, la propriété des données restent celles du client, mais d’un  point de vue légal, c’est encore nébuleux… (pas de corpus législatif et judiciaire précis). Là encore, une bonne analyse du contrat liant le client au prestataire du « cloud » sera nécessaire.
  • la localisation des données: qui découle de l’interrogation précédente. Selon la localisation du datacenter où sont stockées les données dépendra la loi qui s’appliquera en cas de litige. Rappelons que le « passage en cloud » de données sensibles (ressources humaines, santé…) nécessite toujours un accord de la CNIL.
  • et évidemment la sécurité du « cloud » (physique et électronique) pour la protection des données stratégiques et personnelles.

Un bon conseil : vérifier les contrats et noter l’emplacement des datacenters

La personne de chez Microsoft nous a fourni un très bon conseil, même si derrière on sentait bien que tout cela était avant tout commercial : « vérifiez toujours où est localisé le/les datacenter servant à l’hébergement du « nuage » (cloud) que vous utilisez en entreprise ».

En effet, la localisation géographique du datacenter, c’est à dire l’endroit où sont stockées les données, conditionnera la loi qui s’appliquera en cas de litige sur la propriété des données.

Et pour informations, sur ce point précis, Microsoft est plus transparent avec ses solutions « cloud » que ces concurrents, tels Google, grâce à ses 3 datacenters tous localisés en Europe (donc droit européen : Dublin, Amsterdam…). Google, de son côté, est incapable de valider à ses clients la localisation précises des donnée sur le contient européen.

Dans le même domaine, on retiendra également le concept de « geo clusters » de Microsoft. Ce concept, très intéressant en ce qui concerne la sauvegarde des données, consiste à séparer géographiquement les serveurs, avec sur chaque site géographique, une redondance de sauvegarde physique.

Enfin, pour faire son choix entre un fournisseur de cloud « régional » ou « international », on pourra s’attacher au raisonnement suivant :

  • acteurs régionaux : pour un cloud très personnalisé,
  • acteurs mondiaux : pour un cloud plus standardisé mais avec de plus grandes économies d’échelle et de coûts à la sortie (et une une plus grande variété de solutions logicielles).

Ne pas oublier que le « 100% sécurité/fiabilité » n’existe pas

Malgré tous les avantages du cloud computing, il ne fait pas perdre de vue que la sécurisation à 100% de l’infrastructure informatique et des données est impossible. Inutile donc de tomber dans les panneaux des commerciaux des principaux acteurs du « cloud ». ils n’auront de cesse que de vous répéter que tout est génial et ultra sécurisé.

Certes l’idée est séduisante : au fond, le « coeur » du cloud (système et base de données privatives) sera stocké au centre du datacenter. Tout sera donc centralisé et monitoré en permanence, sans dispersion et sans « portes » non surveillées.

Mais les exemples récents de Sony, Nintendo et de Sega nous prouvent que mêmes les plus groupes industriels sont pour le moment incapables de sécuriser efficacement les données que nous leur donnons.

Cloud ouvert ou cloud privé

Cette question de la sécurisation de vos données stratégiques peut cependant être résolu en amont, dès la conception du « cloud » de votre entreprise.

Le choix devra donc se faire entre l’implémentation d’un « cloud » privé ou d’un « cloud » ouvert.

Le cloud privé étant à retenir si vous disposez de nombreuses donnes stratégiques à la survie de votre entreprise ou des données personnelles (listing clients, données personnelles…). Dans ce cas-là, on s’orientera finalement vers une solution assez proche des réseaux informatiques actuelles, avec hébergement sur les sites de l’entreprise des principaux serveurs.

Cela permet de garder la main sur des fonctions stratégiques de l’entreprise et sur la sécurité du réseau, ainsi que sur la « propriété » des données. Pour au final, obtenir un  système « taillé » sur mesure (fitted), solidement intégré, pour l’entreprise.

Par contre, le défaut de la cuirasse réside dans l’inertie de ce genre de système, qui empêchera d’atteindre l’ubiquité et l’élasticité des systèmes en « cloud ouvert ». Ainsi, si votre entreprise dépend fortement, pour son activité commercial, de l’internet et du nuémrique (type e-commerce), et est soumis à de fréquents pics de saisonnalité et de trafic, il faudra plutôt pour un  système en « cloud » ouvert beaucoup plus élastique, modulable et rapide à installer.

Là encore, tout dépend de ses besoins. Mais, malgré le discours des « constructeurs cloud », on s’oriente de plus en plus vers une mixité des SI, systèmes d’informations, avec la mise en place de réseaux « mix » 50% classique (sur le stratégique) 50% cloud

Par contre, l’intérêt immense du « cloud » réside dans son accessibilité aux PME/TPE, avec une large gamme d’outils et logiciels (community management, SAV, CRM…) accessibles en cloud, alors qu’ils seraient inaccessible en « traditionnel ».

Le cloud computing et les économies d’échelle

Le gros avantage d’un passage au cloud computing, en plus de ses caractéristiques de souplesse et d’élasticité, réside évidemment dans les gains financiers espérés pour l’entreprise.

Ainsi, une PME/PMI de taille moyenne peut espérer un gain de 40/60% sur 3 ans, sur sa facture informatique, par rapport à des investissements sur site.

Autre exemple, chez Microsoft toujours, si une licence coûte environ 400 € par poste (avec maintenance logicielle), le passage aux solutions cloud ne coûte que 5 € / utilisateur /mois.

Conclusion : l’avenir du cloud computing

Ce qui est sûr, c’est que le cloud computing n’a pas encore entièrement explosé dans les entreprises. Les « cloud constructeurs » communiquent énormément pour orienter les entreprises vers ces produits, et à terme ils réussiront, mais pour le moment le « cloud computing » reste l’apanage de grands groupes internationaux avec des grands besoins en élasticité et en résilience.

Ainsi, pour l’instant, le « cloud computing » ne réprésente que moins de 2 milliards d’euros de CA pour Microsoft dans le Monde. Soit moins de 10% du CA global de l’entreprise.

La marge de manœuvre est donc encore immense.

Hormis, tout cela, voici une infographie fournie par le groupe ABB qui résume les points cruciaux du cloud computing, notamment en ce qui concerne la consommation d’énergie:

Vous trouverez également des informations dans l’article sur le cloud computing présent sur le site de RSE-pro (et plus globalement sur tout le site).

Comment cacher son adresse IP facilement ?

Comment cacher son adresse IP facilement ?

cacher adresse ip

 

Ce que l’on oublie souvent quand on travaille à sécuriser son pc, c’est de travailler également son adresse ip. On se protège souvent contre les virus et les malwares, mais on oublie qu’une adresse IP peut également être détourné et utilisé à des fins malveillantes.

Petit rappel de définition : une adresse IP est une adresse numérique attribuée à tout matériel informatique mis en interface avec le réseau utilisant l’Internet Protocol comme protocole de communication entre ses nœuds. Cette adresse est assignée individuellement, par l’administrateur du réseau dans le sous-réseau correspondant, ou de façon automatiquement grâce au protocole DHCP. Elle peut être fixe (ne changeant pas au cours du temps) ou flottante (évoluant à chaque nouvelle connexion au réseau du matériel).

Evidemment, si l’on dispose d’une ip flottante (ip dynamique), le problème est moindre car le « piratage »est rendue plus difficile du fait de la fluctuance de votre IP lors de vos connexions. Par contre, ne vous attendez pas à un anonymat complet, hein, car avec  un bon traceroute de paquets IP et quelques bonnes requêtes sur un serveur whois, on peut facilement repérer une adresse IP géographiquement, même flottante (sans compter que l’adresse IP de votre matériel ne bouge pas lui :)).

Pourquoi cacher son adresse IP ?

Le fait de cacher son adresse peut être utile pour bien des raisons, notamment les suivantes :

  • éviter que votre adresse IP ne soit subtilisé et utilisé pour lancer des campagnes de spam,
  • éviter de se faire pinguer à tout va,
  • limiter les pop-ups et les pubs intempestives,
  • limiter les risque de subir un IP spoofing(usurpation d’adresse IP, utilisée notamment par les hackers pour cacher leurs identités lors d’attaques informatiques),
  • naviguer anonymement sur le web. Non pas pour quelques activités illicites mais surtout pour éviter que les divers moteurs de recherches et sites n’enregistrent vos données de navigation à des fins commerciales, et au final ne connaissent que trop d’éléments sur votre vie privée (certains cookies très bien cachés durent bien plus longtemps que 90 jours….). D’autant que les cookies peuvent être piratées avec toutes vos données via un renifleur de paquet dans une attaque appelée détournement de session,
  • enfin plus pragmatiquement, cela vous permettra de passer outre certaines limites édictées par votre employeur, des sites (limites géographiques comme sur Bebo, Orkut…), vos FAI… comme la limite de visionnage sur certains sites de streaming, ou passer outre les limites de chargement en invité sur des sites tels que megaupload.

Les solutions possibles pour cacher son adresse IP

Utilitaire Easy-Hide IP

 

utilitaire easy hide cache IP

Easy Hide IP est le premier utilitaire que je vous propose pour cacher son adresse IP.  Son fonctionnement est assez simple : il remplace et cache votre véritable adresse IP  pour la remplacer par une autre lorsque vous vous connectez au réseau, le tout en passant par des serveurs distants. Ainsi, vous surfez anonymement et contourner les blocages et restrictions de votre FAI (exemple : Orange avec Megaupload :D).

Pour le télécharger,  c’est par ici.

Monter facilement un petit proxy pour cacher son identité, MiniProxy

Une  autre moyen se surfer sur la toile anonymement et de controurner les limites éditer par des sites ou votre FAI, est de passer par un proxy, c’est à dire un serveur distant. Mais c’est souvent fastidieux.

Avec miniProxy tout devient extrêmement plus simple : en fait c’est un proxy très simple écrit en PHP, qui permet de passer au travers des limites et des restrictions imposées à votre navigation sur Internet et de naviguer anonymement.

Côté fonctionnement : il redirige toutes vos requêtes vers des pages, images, CSS , … vers une seule et même adresse de votre choix.

Equipement nécessaire : environnement PHP 5.3+, cURL.

En plus, il est totalement gratuit (licence GNU)

Lien de téléchargement de MiniProxy

Hide the IP

utilitaire hide the ip

D’un fonctionnement similaire à Easy Hide IP, Hide The IP vous permet de naviguer sur la toile anonymement et de contourner là encore les restrictions de votre FAI en cachant son adresse IP. Petit plus par rapport au premier utilitaire:  la possibilité de choisir le pays de localisation de votre adresse IP fictive.

Autre plus, on peut également envoyer des e-mails en mode anonyme (même si pour çà, il suffit de prendre une adresse mail jetable).

Pour le télécharger, on peut passer par 01net.

Hide my IP

utilitaire hide my IP

Un autre utilitaire intéressant à utiliser pour naviguer anonymement avec une adresse IP caché. Simple et facile à utiliser, pas besoin d’installation complexe pour être invisible, il suffit d’appuyer sur le bouton « hide ip » pour pour passer en furtif.

Autre intérêt : la possibilité de changer votre adresse IP automatiquement toutes les minutes.

Pour le télécharger (version d’essai), toujours 01net.

Hide-my-IP-adress

utilitaire my ip adress

 

Un autre utilitaire efficace, toujours pour masquer l’identité de son adresse IP. Son intérêt repose sur son côté boite à outils avec la suppression des logs et des historiques, la portabilité du système (via une clé USB), et des serveurs proxys de connexion très puissants.

Last but not least : le projet TOR !

Enfin, pour encore plus d’anonymat, il vous reste la possibilité de passer sur la deuxième version de TOR pour, théoriquement, un anonymat complet (mais rien n’est parfait) grâce à un routage en oignon.

Fonctionnant autour d’un réseau mondial collaboratif, il est entièrement décentralisé et toutes ses connexions passent par des serveur indépendants. Lorsque l’on se connecte à un site, via TOR,  l’échange de données entre votre ordinateur et le site cible passe par plusieurs relais (minimum : 3), et le chiffrement et le routage des données se fait en «oignon », avec trois couches de chiffrement différents, un par relais (chaque adresse de relais correspondant à une couche de l’ « oignon »).

Chaque sous-trajet est donc segmenté hermétiquement : le destinataire ne connaîssant pas l’expéditeur, ni les deux premiers relais. C’est d’ailleurs exactement le même principe de fonctionnement qu’une cellule d’espionnage (active ou dormante) avec des strates hermétiques et au sommet l’officier traitant.

Au final, le site cible et le FAI est dans l’incapacité de connaitre votre identité.

Tout cela permet à l’internaute de conserver un relatif anonymat (je le répète aucune système n’est entièrement sécurisé). Par contre le débit est évidemment beaucoup plus lent du fait du nombre d’intermédiaires.

Et c’est grâce notamment grâce à TOR que des informations ont pu nous parvenir en provenances des révolutions dans les pays arabes où pourtant le réseau internet était sévèrement surveillé (Tunisie, Lybie, Egypte, mais également l’Iran).

Pour plus d’informations sur le projet TOR: torproject.org.