OVH Community, votre nouvel espace communautaire.

HTACCESS - bloquer tout les moteurs !!


SaTurNin
25/02/2016, 21h30
comme te l'on dit plus haut les autre le couple htaccess / htpassword marche tres bien.
Au final sa te demande le password pour te donner l'acces au site.

Si tu bloque la racine, tous les sous dossier serons protéger par un pass.

marl
22/02/2016, 23h22
Merci de vos conseils ..

Finalement .... J'ai configuré un login depuis le panel de mon serveur (sous SME9). En dehors du Lan, l'accès est à présent privé.

Abazada
22/02/2016, 17h20
Une solution: Tu ne définis ni "@ A" ni "www A" dans les DNS, voire pas de DNS du tout,
mais tu les ajoutes au fichier hosts de ta machine de Dev.
Certain dans ce cas que personne n'accédera à ce domaine de Dev, sauf ta machine,
et même pas besoin d'acheter ce domaine

bbr18
22/02/2016, 15h49
si t'es le seul à devoir y accéder, tu bloques dans iptables tout le http(s) sauf pour ton/tes ip sur le serveur de de dev

marl
22/02/2016, 13h09
Je ne me suis pas fait bien comprendre : mon serveur de Dev possède son propre domaine.

Tous les sites en prod sont évidemment gérés par leur ndd respectif sur un serveur de Prod multidomaines.
Outre les domaines séparés, les serveurs Dev & Prod sont des machines différentes (même pas sur le même lieux) . Le serveur de Dev abrite toutes les créations (comme je suppose le font tous les codeurs) dans des sous-dossiers, mais parfaitement accessible par http dès lors que l'on connaît l'url du serveur de Dev. Lorsque je bosse sur un site en création ou en modification, j'utilise par exemple l'url : MonServeurDev.com/siteTrucBidule/
L'avantage, c'est que je peux bosser n'importe où sur la planète.

Sans cloisonnement, je pense que cela génère du "duplicate-content", c'est pourquoi j'avais ajouté le fichier robots.txt dans l'url du serveur de Dev.

Je vais me pencher sur le .htpasswd pour un cloisonnement total.

Nowwhat
22/02/2016, 10h33
Protéger pas " .htaccess .htpasswd" est très efficace mais qui nous dit que les robots n’allons pas se "souvenir" que ton domaine n'est pas accessible, pour plus revenir à la fin. " .htaccess .htpasswd", ok, mais place ton site sur un sous-domaine (voir : autre domaine) et déplace-le dans ton domaine une fois fini.

marl
22/02/2016, 10h29
robots.txt c'est déjà fait mais justement je veux l'enlever car j'ai peur de l'envoyer un jour sur le serveur de prod.
Ce qui serait moins le cas avec htaccess car ils sont toujours écrits spécifiquement sur la prod.

Gaston_Phone
22/02/2016, 10h22
Il te faut surtout protéger ton accès par le couple .htaccess .htpasswd

Nowwhat
22/02/2016, 10h09
Google robots.txt

marl
22/02/2016, 10h04
Bonjour à tous,

Qui peut me rappeler la syntaxe exacte d'un htaccess pour bloquer la totalité des user-agents, y compris tous les moteurs de recherche !!
Il s'agit d'isoler mon serveur perso de développement et test .. (serveur linux/apache)

Merci d'avance

G.