Otázka je, jak je nástroj udělanej. Pokud jen vykrádá konkrétní části stránky (tj. obrázky, názvy a popisy produktu), tak robots.txt je k ničemu, stejně jako nějaká speciální stránka, kde by ho nachytal. Pokud přistupuje z jedný IP adresy Případně z více IP adres nějaký cloudový služby - tak bych to asi na jeho místě dělal, pokud bych teda nesehnal dost známých, u kterých bych to pustil doma), tak by se dal najít podle přístupových logů k serveru (Apache). Bude se buď opakovat (jedna IP) u haldy obrázků, nebo to bude IP, která je privátní pro ten cloud (= nedostane jí běžněj Franta uživatel), případně je to IP z rozsahu cloudový služby (platí to samý co předtím, nedostane jí BFU).
Možná by se dalo vzít log, vyparsovat adresy, prohnat je přes WHOIS a z výsledku vyparsovat podezřelý věci (vynechat velký hráče - poskytovatele domácího připojení). Touhle cestou bych šel já, abych odhalil původce nebo na něj získal vazbu (pro soud). Blokovat IP ale nebude mít žádnej výsledek, sežene si jinou (jiné).
Do budoucna watermark na obrázky a/nebo do podmínek uvést to ohodnocení, jak pal lobo (když pak konkurenci pošleš fakturu na půl milionu, začne zajímavej spor :-) ). Pokud máš originály nebo seženeš fotografa, kterej to pro vás fotil (aby to odsvědčil, případně dodal originály, jestli je má), tak není o čem.