Sécurisez votre WordPress contre les User-Agents et les Bots

Dernièrement, beaucoup de sites WordPress ont été compromis uniquement à cause des robots qui parcourent le World Wide Web! Il existe de nombreux plug-ins qui peuvent protéger votre bébé WordPress en bloquant ces robots "coquin"!

Dans cet article, vous apprendrez une méthode simple et utile pour configurer votre fichier .htaccess de manière à filtrer ces robots susceptibles d'infecter votre site Web et de dévorer les ressources de votre serveur. Alors préparez votre fichier .htaccess pour le montage!


Étape 1 Préparation du code

Le code consiste principalement en noms de bot. J'ai ajouté les robots les plus célèbres ici auxquels je peux penser. S'il manque un bot, veuillez le mentionner dans les commentaires..

Le code est assez simple. Allez-y, copiez le code ci-dessous et collez-le dans votre fichier .htaccess.

 # Bot Blocker  SetEnvIfNoCase User-Agent ^ $ keep_out SetEnvIfNoCase Utilisateur-Agent (pycur | casper | cmsworldmap | diavol | dotbot) keep_out SetEnvIfNoCase Utilisateur-Agent (flicky | ia_archiver | jakarta | jakarta | kmccrew) rester dehors  Ordre Autoriser, Refuser Autoriser de tous Refuser de env = keep_out  

Étape 2 Tester le code

Pour voir si le code fait son travail, je recommande ce site Web Bots VS Browsers. Ce site Web est un bon endroit pour simuler ces types d'attaques. Une fois sur leur site Web, tout ce que vous avez à faire est de sélectionner n’importe quel bot du code que vous venez d’ajouter à votre fichier .htaccess et de l’utiliser comme agent utilisateur. Entrez l'URL de votre site et appuyez sur Entrée. Si vous voyez une "erreur 403", cela signifie que le code fait son travail. Si ce n'est pas le cas, le code doit être égaré lors de la copie dans votre fichier .htaccess, alors essayez à nouveau..


Étape 3 Ajouter plus de robots

Maintenant que vous connaissez le code et comment le tester, nous pouvons ajouter plus de robots au code. Vous devez avoir remarqué la répétition dans le code, et en utilisant la même logique, vous pouvez ajouter une douzaine de robots supplémentaires à bloquer en définissant les mêmes paramètres. Cool hein!

 SetEnvIfNoCase User-Agent (i-IS-evilBOT) keep_out

Comme vous pouvez le constater dans le code ci-dessus, je bloque maintenant le "i-IS-evilBOT" (que je viens de créer). Autre que cela le nom du bot n'est pas sensible à la casse et vous pouvez l'ajouter comme bon vous semble. Allez sur la page Bots VS Browsers et entrez cette fois l'agent utilisateur que je viens de créer et voila, vous verrez que cet agent utilisateur ajouté à mon fichier .htaccess est également bloqué! Vous pouvez ajouter autant de robots que vous souhaitez être bloqués, séparés par un caractère de pipe "|"


Conclusion

J'ai dit au début qu'il y a beaucoup de plugins qui peuvent faire la même chose et que vous pouvez éviter cette édition. Mais en modifiant manuellement le fichier .htaccess, vous pouvez bloquer efficacement les mauvais agents utilisateurs et bots avec une meilleure efficacité et de meilleures performances.!