Hello,
Pour avoir testé plusieurs solutions, je dirais qu'une approche multicouche est souvent la plus pertinente. Le captcha est un classique, certes, mais il faut veiller à ce qu'il ne soit pas trop intrusif (le reCAPTCHA invisible de Google est pas mal de ce point de vue).
Ensuite, l'analyse des logs est essentielle pour repérer des schémas suspects (pics de trafic anormaux, taux de rebond élevé sur certaines pages, etc.). Il existe des outils qui automatisent cette analyse et qui peuvent te donner des alertes.
Enfin, un système de honeypot (un lien ou un champ caché dans le code, invisible pour les utilisateurs normaux mais détectable par les bots) peut aussi être efficace pour piéger les robots. L'avantage, c'est que ça n'impacte pas l'UX.
Après, ça dépend aussi du type de faux trafic que tu rencontres (bots, fermes de clics, etc.).
Je suis d'accord sur l'approche multicouche, c'est la base. Par contre, concernant reCAPTCHA, même invisible, ça ajoute toujours un script lourd et ça peut impacter le score Lighthouse, donc l'UX au final. Faut bien peser le pour et le contre.
C'est un point pertinent sur l'impact de reCAPTCHA sur Lighthouse, DebugDynamo77. Perso, je suis toujours en quête du Graal : une protection béton sans friction pour l'utilisateur.
En parlant de "bienpeserlepouretlecontre", je suis tombée sur cette vidéo d'Olivier Andrieu (Abondance) sur les pénalités Google. Ça vulgarise bien les mécanismes de détection du spam par Google, et ça peut donner des idées sur les types de faux trafic à surveiller et comment les anticiper.
Première partie de nos explications sur les systèmes mis en place par Google pour préserver son moteur du spam : les Actions ...[/video]
Bonjour,
Quand tu parles de faux trafic, tu vises quel type d'attaques précisément ? C'est pour un site e-commerce, un blog, autre chose ? Le secteur d'activité peut pas mal influencer les techniques à mettre en place, je pense.
Commentaires (4)
Hello, Pour avoir testé plusieurs solutions, je dirais qu'une approche multicouche est souvent la plus pertinente. Le captcha est un classique, certes, mais il faut veiller à ce qu'il ne soit pas trop intrusif (le reCAPTCHA invisible de Google est pas mal de ce point de vue). Ensuite, l'analyse des logs est essentielle pour repérer des schémas suspects (pics de trafic anormaux, taux de rebond élevé sur certaines pages, etc.). Il existe des outils qui automatisent cette analyse et qui peuvent te donner des alertes. Enfin, un système de honeypot (un lien ou un champ caché dans le code, invisible pour les utilisateurs normaux mais détectable par les bots) peut aussi être efficace pour piéger les robots. L'avantage, c'est que ça n'impacte pas l'UX. Après, ça dépend aussi du type de faux trafic que tu rencontres (bots, fermes de clics, etc.).
Je suis d'accord sur l'approche multicouche, c'est la base. Par contre, concernant reCAPTCHA, même invisible, ça ajoute toujours un script lourd et ça peut impacter le score Lighthouse, donc l'UX au final. Faut bien peser le pour et le contre.
C'est un point pertinent sur l'impact de reCAPTCHA sur Lighthouse, DebugDynamo77. Perso, je suis toujours en quête du Graal : une protection béton sans friction pour l'utilisateur. En parlant de "bienpeserlepouretlecontre", je suis tombée sur cette vidéo d'Olivier Andrieu (Abondance) sur les pénalités Google. Ça vulgarise bien les mécanismes de détection du spam par Google, et ça peut donner des idées sur les types de faux trafic à surveiller et comment les anticiper.
Première partie de nos explications sur les systèmes mis en place par Google pour préserver son moteur du spam : les Actions ...[/video]
Bonjour, Quand tu parles de faux trafic, tu vises quel type d'attaques précisément ? C'est pour un site e-commerce, un blog, autre chose ? Le secteur d'activité peut pas mal influencer les techniques à mettre en place, je pense.