少なくとも、これらのいずれかを試すことができますが、ユーザー エージェントはだまされる可能性があります。
(1) .htaccess内
RewriteCond %{HTTP_USER_AGENT} ^HTTrack [OR]
RewriteCond %{HTTP_USER_AGENT} ^SiteSucker [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebZip [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebCopier [OR]
RewriteCond %{HTTP_USER_AGENT} ^Zeus
RewriteRule ^.*$ no_download.html [L]
後に追加して Spam_bot を追加
RewriteCond %{HTTP_USER_AGENT} ^Other_Spam_bot
します[OR]
(2) robots.txt 内
User-agent: AhrefsBot
User-agent: Baiduspider
User-agent: EasouSpider
User-agent: Ezooms
User-agent: YandexBot
User-agent: MJ12bot
User-agent: SiteSucker
User-agent: HTTrack
Disallow: /
User-agent: Other_Spam_bot
前に追加して Spam_bot を追加しますDisallow: /