en general, google scanne les sites qui y sont inscrits (comme laserfreak.net) pour indexer le contenu (qui n'a pas vu un post de laserfreak dans google en cherchant des trucs sur les lasers?)
en indexant le contenu, google scanne egalement les liens pour avoir une efficacite maximale, et il est aussi capable de scanner les PDF et des documents office pour en indexer le contenu

donc en gros, si Elektor fais une recherche google pour trouver des documents proteges, ils risquent de tomber sur tes PDF
la solution c'est de mettre un fichier ROBOTS.TXT a la racine du site qui contiendra des directives pour dire a google de ne pas aller fouiner la ou il ne peux pas, ou encore de mettre une restriction d'acces (fichier .HTACCESS et .HTPASSWD)
regarde sur google les renseignements sur ces methodes, vaut mieux
a preciser aussi que google n'est pas le seul a scanner les sites et les liens, mais c'est le plus tentaculaire de tous
