Forum: PC-Programmierung Bilder vor BOTs schützen


von TK (Gast)


Lesenswert?

Hallo zusammen,
ich bin auf der Suche nach einer Lösungsmöglichkeit für ein
Problem, das ich mit meiner Internetseite habe. Folgende
Konstellation ist vorhanden:
Es gibt mehrere HTML-Seiten, die Text, Verweise auf weitere
Seiten und je 0 bis 2 Bilder aufweisen.
Schon seit längerer Zeit werte ich meine LOG-Files vom Provider aus
und muss immer wieder feststellen, dass über 80% der Anfragen von
BOTs kommen - das ist ja generell nicht so schlimm. Aber: 70% von
denen sind nur an den Bildern interessiert. Da ich eine Ferienwohnung
besitze und vermeiden möchte, dass diese Bilder missbraucht werden,
möchte ich nun irgendwie verhindern, dass die Bilder von BOTs 
runtergeladen
werden. Ein Eintrag in der "robots.txt" wird generell ignoriert.
Wasserzeichen im Bild möchte ich vermeiden, da das auf meiner Seite 
nicht
gut aussieht. Jetzt habe ich mir überlegt, ob es irgendwie möglich ist,
ein Bild, welches mit "img src=... width=.. height=.. id=.. alt=.." im
HTML eingebunden ist vorerst durch ein leeres Bild einzuladen und dann
später im Verlauf ein PHP-Script einbinden kann, das dann das leere Bild
durch das eigentliche Bild ersetzt. Damit sieht ein BOT nur ein leeres 
Bild.
Was nicht geht, ist ein javascript einzubinden und mit dessen Hilfe das 
leere
Bild zu ersetzen - das würde der BOT wiederum sehen.
Soweit zur Theorie - jedoch hapert es mit der praktischen Umsetzung.
Was ich momentan schon umgesetzt habe ist, dass man das o.g. Bild 
mittels
"a href..." anklicken kann und dann dieses Bild in voller Größe 
angezeigt
bekommt. Hierbei verweist der Link nunmehr auf ein PHP-Script, welches 
die
übergebenen Parameter auswertet und daraus das passende Bild aus einem 
Verzeichnis
in Form von "$pfad = ...; imagejpeg($pfad);" anzeigt.
Allerdings geht das nur für den Link, nicht jedoch für das IMG-Tag im 
HTML Code.
Für Hinweise zur Ergreifung eines Stück Codes wäre ich sehr angetan.

Viele Grüße
TK

von Peter II (Gast)


Lesenswert?

das mit dem ersetzten geht nicht ohne JS. Denn der Bot ruft die Seite 
genauso ab wie der Browser damit steht auch das gleiche drin.

Aber du erkennst ja scheinbar die Bots im Log, vermutlich am User-Agent. 
Dann konfiguriere doch dein Webserver so um, das die Bots keine Bilder 
laden können.

von Oliver S. (oliverso)


Lesenswert?

Ganz ehrlich, vergiß es. Wenn du Bilder öffentlich ins Internet stellst, 
kann die jeder auslesen. Das ist ja irgendwie der Sinn der Sache.

Was genau befürchtest du denn, was "Bots" mit deinen Bilder anfangen? 
Oder umgekehrt gefragt, soll z.B. Google deine Bilder in deren 
Bildersuche nicht anzeigen, wenn da jemand nach "Ferienwohnung TK(gast)" 
sucht?

Wenn jetzt schon fast gar niemand deine Seite besucht (bei 80% 
Botverkehranteil), soll das noch schlechter werden?

Oliver

von Lurch (Gast)


Lesenswert?

Gute Möglichkeiten hast du mit .htaccess
Mit RewriteCond und deny kannst du die Bots anhand des Useragent (UA) 
oder der IP gut sperren.

Oliver S. schrieb:
> Ganz ehrlich, vergiß es.

Teilweise ja, teilweise nein. So Dreckbots wie Pixray, sollten auf jeder 
Seite gesperrt werden. Die verursachen massig Traffic auf der eigener 
Seite, weil sie urheberrechtlich geschützte Bilder suchen. Natürlich 
wird die robots.txt ignoriert und auch gerne der UA gefälscht.
https://evilazrael.de/content/bad-bot-aus-deutschland-pixray

Alle Bots kann man natürlich nicht aussperren, dafür gibt es einfach 
zuviele.

von iUser (Gast)


Lesenswert?

TK schrieb:
> Ein Eintrag in der "robots.txt" wird generell ignoriert.

Es wird Zeit, dass die Juristen soetwas als Hausfriedensbruch werten.

Warte noch zehn...zwanzig Jahre, bis unser Gesetzsystem an die Realität 
des Internets angepaßt ist.

von Tsssy (Gast)


Lesenswert?

Mach doch aus der Not eine Tugend:

Suche nach Deinen Bildern auf anderen Seiten. Wenn Du fündig wirst, 
verschicke eine Abmahnung mit Rechnung. Richte Dich nach der Preisliste 
der Mittelstandsgemeinschaft Foto-Marketing. Aus eigener Erfahrung kann 
ich sagen, dass ich bisher immer das geforderte Geld erhalten habe. 
Einen Anwalt musste ich bisher nie einschalten. Das Urheberrecht in 
Deutschland ist dazu recht eindeutig definiert.

von Amateur (Gast)


Lesenswert?

Irgendwann komme ich mal bei   Irgendwann kommt er (Bot) mal bei
Dir vorbei und bitte Dich um   Dir vorbei und bittet Dich um
die Datei z.B. Index.htm.      die Datei z.B. Index.htm.
Später bitte ich Dich um das   Später bittet er Dich um das
Bild, von der hübschen Dame,   Bild, von der hübschen Dame,
mit Namen Tussi.jpg.           mit Namen Tussi.jpg.

Wenn Du irgendetwas im Internet veröffentlicht hast, hast Du im Grunde 
genommen zwei Möglichkeiten. Entweder Du lieferst die Bilder, das 
gleiche gilt auch für deine Texte, oder Du lässt es sein.

Wie Du aus dem obigen Zwiespalter ersehen kannst, gibt es zwischen mir 
und einem Roboter, beim Zugriff, keinen Unterschied.

Willst Du eventuelle Besucher abschrecken, kannst Du natürlich auch eine 
Grafik einblenden, die dann von einem Menschen oder einer OCR gelesen 
werden soll.
Aus Erfahrung kann ich Dir versichern, dass ich damit nicht nur einmal 
aufs Maul gefallen bin.

Also ent- oder weder. Der eine ja und der andere nein, geht nicht.

von TK (Gast)


Lesenswert?

Hallo,
wie ich aus den Antworten erkenne, scheint niemand eine Lösung zu haben. 
Zuerst mal mache ich die Bilder öffentlich - somit für jeden 
ersichtlich. Jeder kann dann damit machen, was er möchte. Was ich jedoch 
erreichen möchte, ist, dass ein BOT, der nur im "Bilderverzeichnis" 
sucht und dort dann Bilder runterladen möchte, diese nicht mehr finden 
soll (zukünftig soll im Bilderverzeichnis eben nur noch ein Bild liegen 
- nämlich ein Bild ohne Inhalt, das darf der BOT dann auch runterladen). 
Wenn ein Besucher ganz normal über die index.html auf die Seite kommt, 
sollen auch alle Bilder angezeigt werden. Was ich auch mal auf einer 
anderen Seite gemacht habe, ist mit Session-IDs bzw. Cookies zu 
arbeiten. Damit konnte ich auch BOTs ausschliessen - jedoch ging das nur 
per PHP.
Mittels .htaccess kann ich zwar Verzeichnisse schützen oder BOTs 
ausschliessen - jedoch kommt täglich ein anderer BOT vorbei (oder hat 
einfach seinen Namen/IP geändert). Das wird dann ein Teufelskreis.
Gibt es keine Möglichkeit auf das IMG-Tag mittels Handle zuzugreifen und 
das mittels PHP "umzubiegen"?

Gruß
TK

von Oliver S. (oliverso)


Lesenswert?

TK schrieb:
> Was ich auch mal auf einer
> anderen Seite gemacht habe, ist mit Session-IDs bzw. Cookies zu
> arbeiten. Damit konnte ich auch BOTs ausschliessen

Na ja, damit konntest du die Bots ausschließen, die du als Bots erkannt 
hast. Alle die, die du nicht erkannt hast, haben weiter fröhlich 
runtergeladen...

Cookies sind auch keine Lösung, denn da draußen gibt es genug User, die 
Cookies für genauso böse halten wie du die Bots (warum auch immer...), 
und die nicht zulassen.

Oliver

von Peter II (Gast)


Lesenswert?

TK schrieb:
> Das wird dann ein Teufelskreis.
> Gibt es keine Möglichkeit auf das IMG-Tag mittels Handle zuzugreifen und
> das mittels PHP "umzubiegen"?

und was soll das bringen? der Bot macht das gleiche was auch der Browser 
macht und damit wird das Bild auch ausgeliefert.

von TK (Gast)


Lesenswert?

@PeterII:
Nein, der BOT sieht nur die ursprüngliche HTML Seite und das Bild im 
Bilderverzeichnis (leer.jpg). Durch das Verbiegen des Handles bleibt der 
Bildername jedoch erhalten (leer.jpg) und der BOT darf beim nächsten 
Besuch wieder dieses Bild laden.
Ich nöchte mich nicht vor Hackern schützen, die eine komplette Seite 
untersuchen, sondern nur vor ganz gewöhnlich, dummen BOTs, die einfach 
nur die Seiten durchforsten, sich an den Links weiterhangeln und 
schliesslich ein Bilderverzeichnis sehen, in dem nur 1 Bild existiert.

@Oliver:
Das ist auch der Grund, wieso ich ungerne mit Cookies arbeite.

TK

von Peter II (Gast)


Lesenswert?

TK schrieb:
> Nein, der BOT sieht nur die ursprüngliche HTML Seite und das Bild im
> Bilderverzeichnis (leer.jpg). Durch das Verbiegen des Handles bleibt der
> Bildername jedoch erhalten (leer.jpg) und der BOT darf beim nächsten
> Besuch wieder dieses Bild laden.

und wie soll der Browser dann das Bild laden? Sobald der Browser es 
kann, kann es auch der bot.

von TK (Gast)


Lesenswert?

Also ich habe jetzt eine - für mich praktikable - Lösung:
Es müssen alle IMG-Tags einfach durch ein object-Tag ersetzt werden.
Dieses object bindet dann eine PHP-Datei ein. Hieraus kann ich dann
ein Bild anzeigen lassen, welches ein BOT nicht mehr laden kann. 
Natürlich
werden die Parameter zur PHP noch irgendwie "verschlüsselt", sodass der 
BOT beim Zugriff auf die PHP direkt auch kein Bild bekommt.

@PeterII:
Es geht mir darum, den Bildnamen im Bildverzeichnis gegen Zugriffe zu 
schützen. Wenn ein BOT jetzt die Seite durchcrawled, dann sieht er nur 
noch
ein object-Tag mit einem PHP-Namen als Source und kein Bild mehr - ergo 
BOT kann Bild nicht mehr direkt laden.

@alle, die immer nur negativ denken/schreiben ("lass es bleiben...")
Danke für die Mithilfe.

Gruß
TK

von Peter II (Gast)


Lesenswert?

TK schrieb:
> ein object-Tag mit einem PHP-Namen als Source und kein Bild mehr - ergo
> BOT kann Bild nicht mehr direkt laden.

falsch.

Wenn der Browser es kann, kann der Bot es schon lange. Halte bitte die 
Bots nichts für Blöd

von Εrnst B. (ernst)


Lesenswert?

Was willst du eigentlich verhindern?

Dass jemand dein Bild bei einer Internet-Bildersuche findet, und dann 
urheberrechtswidrig verwendet?

=> Fang damit an, die wichtigsten/größten Suchmaschinen auszusperren.

Für diese Suchmaschinen reicht die robot.txt, Google&Co halten sich 
daran.

Wenn das Bild dann trotzdem noch auf irgendeiner Obskuren 
Spezial-Suchmaschine erscheint => egal, die haben noch weniger Traffic 
als deine Webseite.


Ansonsten: In dein Image-Verzeichnis eine .htaccess-Datei legen, z.B:
1
SetEnvIf User-Agent Googlebot BOT
2
SetEnvIf User-Agent SEOkicks BOT
3
SetEnvIf User-Agent bingbot BOT
4
SetEnvIf User-Agent MJ12bot BOT
5
SetEnvIf User-Agent Slurp BOT
6
SetEnvIf User-Agent YandexBot BOT
7
SetEnvIf User-Agent DotBot BOT
8
SetEnvIf User-Agent NerdByNature.BOT BOT
9
SetEnvIf User-Agent HuaweiSymantecSpider BOT
10
SetEnvIf User-Agent 008 BOT
11
SetEnvIf User-Agent FlipboardProxy BOT
12
SetEnvIf User-Agent Flipboard BOT
13
SetEnfIf User-Agent Pixray BOT
14
15
Order allow,deny
16
Allow from all
17
Deny from env=BOT

Und diese dann halt gelegentlich mit neuesten Erkenntnissen aus dem 
Webserver-Log erweitern.

Javascript-Lösungen helfen nicht viel weiter, Manche Suchmaschinen 
führen das inzwischen aus.

Referer-Checks beim Bildzugriff helfen ein wenig gegen Hotlinking und 
gegen "schlechte" Suchmaschinen, aber nicht gegen Bild-Downloads.


Alternative: Schneide dein Bild in viele kleine Kacheln, und pack die im 
HTML neben/untereinander.

Die Bildsuch-Bots finden dann nichts verwertbares. Zum einen, weil sie 
oft Bilder mit Kantenlänge < X generell ignorieren, zum anderen, weil 
sie deine Bildschnipsel sicher nicht auf gut Glück zusammenkleben 
werden.

Gegen Bilderklau mittels Screenshot hilft das natürlich auch nicht.

: Bearbeitet durch User
von Bjarne Straustrupp (Gast)


Lesenswert?

TK schrieb:
> Für Hinweise zur Ergreifung eines Stück Codes wäre ich sehr angetan.

Irgendwie hast du Verständnissprobleme von http, php, HTML und 
JavaScript, sprich du hast überhaupt keinen blassen Schimmer, wenn man 
deine fixen Ideen dazu liest.

Und für eine Ferienwohnungssite hätte ich wichtigeres zu tun als alle 
Bots dieser Welt auszusperren. Die Ferienwohnung muss ja massig geld 
abwerfen wenn du für so einen Schwachsinn (Mit Kanonen auf Spatzen...) 
Zeit hast.

von Higg G. (higg)


Lesenswert?

TK schrieb:
> @PeterII:
> Nein, der BOT sieht nur die ursprüngliche HTML Seite und das Bild im
> Bilderverzeichnis (leer.jpg). Durch das Verbiegen des Handles bleibt der
> Bildername jedoch erhalten (leer.jpg) und der BOT darf beim nächsten
> Besuch wieder dieses Bild laden.
> Ich nöchte mich nicht vor Hackern schützen, die eine komplette Seite
> untersuchen, sondern nur vor ganz gewöhnlich, dummen BOTs, die einfach
> nur die Seiten durchforsten, sich an den Links weiterhangeln und
> schliesslich ein Bilderverzeichnis sehen, in dem nur 1 Bild existiert.

Offenbar ist dir nicht wirklich klar, wie PHP, HTML und BOTS 
funktionieren.
PHP sind serverseitige Skripte, die beim Aufruf einer Datei gestartet 
werden. Aus Sicht des Clients (Browser ODER Bot) kommt ne html-Datei 
zurück.
Bots sind nichts anderes als automatisierte Browser. Sie machen genau 
das gleiche. Kein Bot, und kein Browser kann dein Bilderverzeichnis 
durchsuchen, wenn du deinen Webserver richtig konfiguriert hast. Bot und 
Browser finden Bilder nur über Links. Existieren diese Links, egal ob in 
statischem HTML oder dynamisch generierten HTML über PHP werden beide 
sie finden. Denn im Endeffekt weiss weder der Browser, noch der Bot, ob 
der Inhalt nun dynamisch generiert wurde oder statisch vorliegt. Die 
Dateiendung .php ist ein Indiz, aber kein Beweis.
Ich habe den Eindruck, dass du glaubst, Bots würden irgendwie auf 
Dateisystemebene operieren. also, dass es Skripte geben die folgendes 
machen:
$ cd www.cooleseite.de
$ ls
index.html
bild.jpg
$ download index.html bild.jpg

Das ist aber nicht der Fall!

Klar, kannst du dir jetzt irgendwelche Tricks überlegen, und vielleicht 
schaffst du es dadurch auch ein paar Bots auszusperren, aber sei dir 
sicher: Wenn Bots nicht mehr die Bilder laden können, können es 
wahrscheinlich sehr viele normale Besucher auch nicht mehr.

Ich würde eher zu Wasserzeichen in den Bildern tendieren. Da gibt es 
auch unsichtbare. Zusätzlich gespickt mit EXIF-Daten.

von TK (Gast)


Lesenswert?

Also vielen Dank für alle Anmerkungen zu meinem Kenntnisstand über
Programmiersprachen. Und nur wer lesen kann ist stark im Vorteil. Es 
ging NIE darum alle BOTs auszusperren, sondern zu verhindern, dass BOTs, 
die sich an den Links im HTML weiterhangeln sehen, WO mein 
Bilderverzeichnis ist!!
Wenn also im HTML ein IMG-Tag mit src='bildverzeichnis/bild1.jpg' steht, 
dann findet der DUMME BOT ein Bild names 'bild1.jpg'. Ein intelligenter 
BOT findet ein Bildverzeichnis namens 'bildverzeichnis' und kann dann 
dort mal probieren, ob er noch andere Bilder findet, die NICHT in einem 
Link angegeben sind.
Das gilt es zu verhindern:
Wie bereits geschrieben - habe ich selbst eine Lösung gefunden, die für 
mich praktikabel ist:
Anstatt img-Tag verwende ich nun ein object-Tag, das eine PHP 
'gib_mal_ein_Bild_zurueck.php?parameter=123456789' aufruft, die wiederum 
mit 'imagejpg($unbekannterpfad)' ein Bild DARSTELLT.
Im Browser wird das Bild jetzt zu sehen sein - aber ein BOT findet im 
HTML keinen Link mehr auf ein Bild / Bilderverzeichnis.
Ist jetzt klar geworden was ich wollte??

Danke
TK

von TK (Gast)


Lesenswert?

Ach ja - bevor das hier noch ausartet:
Kann ein Moderator den Threat schliessen - Danke

TK

von Indianer vom Stamm der Webserver (Gast)


Lesenswert?

Wenn du Dirlisting verhindern willst dann stellst du das über den Apache 
ein. Dann kann der Bot keine weiteren Bilder sehen, nur die die sonst 
auf deiner Seite (egal wie) verlinkt wurden.

Wenn das nicht geht (Hoster erlaubt es nicht,...) dann pack die Bilder 
die über Links erreichbar sind in einen eigenen Ordner, der Rest der 
nicht verlinkt wird in einen anderen.

von Joachim D. (Firma: JDCC) (scheppertreiber)


Lesenswert?

TK schrieb:

> Wenn also im HTML ein IMG-Tag mit src='bildverzeichnis/bild1.jpg' steht,
> dann findet der DUMME BOT ein Bild names 'bild1.jpg'. Ein intelligenter
> BOT findet ein Bildverzeichnis namens 'bildverzeichnis' und kann dann
> dort mal probieren, ob er noch andere Bilder findet, die NICHT in einem
> Link angegeben sind.
> Das gilt es zu verhindern:
> Wie bereits geschrieben - habe ich selbst eine Lösung gefunden, die für
> mich praktikabel ist:
> Anstatt img-Tag verwende ich nun ein object-Tag, das eine PHP
> 'gib_mal_ein_Bild_zurueck.php?parameter=123456789' aufruft, die wiederum
> mit 'imagejpg($unbekannterpfad)' ein Bild DARSTELLT.
> Im Browser wird das Bild jetzt zu sehen sein - aber ein BOT findet im
> HTML keinen Link mehr auf ein Bild / Bilderverzeichnis.
> Ist jetzt klar geworden was ich wollte??
>
> Danke
> TK

Dnn sperre das Bildverzeichnis für Zugriffe von außen. PHP greift
dann lokal zu und darf das.

von Peter II (Gast)


Lesenswert?

Joachim Drechsel schrieb:
> Dnn sperre das Bildverzeichnis für Zugriffe von außen. PHP greift
> dann lokal zu und darf das.

und? Dann ruft der Bot die PHP Seite auf und bekommt auch das Bild.

von Joachim D. (Firma: JDCC) (scheppertreiber)


Lesenswert?

Peter II schrieb:
> Joachim Drechsel schrieb:
>> Dnn sperre das Bildverzeichnis für Zugriffe von außen. PHP greift
>> dann lokal zu und darf das.
>
> und? Dann ruft der Bot die PHP Seite auf und bekommt auch das Bild.

Nein, er kann das Verzeichnis ja nicht auflisten -  darum geht es
ja auch dem TS.

von Peter II (Gast)


Lesenswert?

Joachim Drechsel schrieb:
> Nein, er kann das Verzeichnis ja nicht auflisten -  darum geht es
> ja auch dem TS.

und wie kann der Browser dann die Bilder anzeigen? Darum geht es ja.

von Joachim D. (Firma: JDCC) (scheppertreiber)


Lesenswert?

Sinngemaß möchte der TS einzelne Bilder eines Verzeichnisses
anzeigen. Macht er es mit einem Link in dem der Verzeichnisname drin
steht, könnte der Bot dieses scannen. Das möchte er halt nicht.

Lies doch einfach mal was er eigentlich will ...

von Peter II (Gast)


Lesenswert?

Joachim Drechsel schrieb:
> Lies doch einfach mal was er eigentlich will ...

habe ich. Er will Bilder auf seiner Webseite veröffentlichen, dies soll 
aber ein Bot nicht laden können. Und genau das geht nicht.

Wenn er sie veröffentlicht, dann kann sie auch ein Bot laden.

von Joachim D. (Firma: JDCC) (scheppertreiber)


Lesenswert?

> Wenn er sie veröffentlicht, dann kann sie auch ein Bot laden.

Na logisch.

Mal ein Beispiel:

<img src='pics/gaga.jpg'> da könnte ein Bot auf die Idee kommen "Aha,
im Verzeichnis pics liegt noch mehr herum was ich mir jetzt ziehe".

<img src='zeige_mir_das_bild.exe?FILE=gaga.jpg'> da rückt
zeige_mir_das_bild.exe halt nur genau ein Bild aus dem Verzeichnis
pics (das der Bot nicht kennt) heraus. Das Verzeichnis pics wird
für externe Zugriffe gesperrt, zeige_mir_das_bild.exe darf, ist ja
lokal, da dran.

von Peter II (Gast)


Lesenswert?

Joachim Drechsel schrieb:
> Mal ein Beispiel:
>
> <img src='pics/gaga.jpg'> da könnte ein Bot auf die Idee kommen "Aha,
> im Verzeichnis pics liegt noch mehr herum was ich mir jetzt ziehe".

dann verbietet man einfach Directory Listing.

> <img src='zeige_mir_das_bild.exe?FILE=gaga.jpg'> da rückt
> zeige_mir_das_bild.exe halt nur genau ein Bild aus dem Verzeichnis
> pics (das der Bot nicht kennt) heraus. Das Verzeichnis pics wird
> für externe Zugriffe gesperrt, zeige_mir_das_bild.exe darf, ist ja
> lokal, da dran.

Und wie soll jetzt der Browser die anderen Bilder anzeigen?

von Joachim D. (Firma: JDCC) (scheppertreiber)


Lesenswert?

Peter II schrieb:
> Und wie soll jetzt der Browser die anderen Bilder anzeigen?

Soll er ja nicht ;)

von Peter II (Gast)


Lesenswert?

Joachim Drechsel schrieb:
>> Und wie soll jetzt der Browser die anderen Bilder anzeigen?
>
> Soll er ja nicht ;)

scheinbar doch

> Es gibt mehrere HTML-Seiten, die Text, Verweise auf weitere
> Seiten und je 0 bis 2 Bilder aufweisen.

von Oliver S. (oliverso)


Lesenswert?

Joachim Drechsel schrieb:
> Lies doch einfach mal was er eigentlich will ...

Je nun, was er genau will, ist leider sehr unklar ausgedrückt.

Im Ausgangsbeitrag steht ziemlich eindeutig, daß er verhindern will, daß 
ein Bot dem links zu den Bilder folgt, und die Bilder zu sehen bekommt. 
Dazu gab es dann einige freundliche Hinweise, daß das doch gepflegter 
Blödsinn sei.

Inzwischen ist er umgeschwenkt, und will jetzt verhindern, daß die Bots 
andere, nicht verlinkt Bilder im Bilderverzeichnis finden. Das ist eine 
völlig andere Baustelle.

Oliver

von Higg G. (higg)


Lesenswert?

> Inzwischen ist er umgeschwenkt, und will jetzt verhindern, daß die Bots
> andere, nicht verlinkt Bilder im Bilderverzeichnis finden. Das ist eine
> völlig andere Baustelle.
>
> Oliver

Was wieder durch das Abschalten des Directory Listings funktioniert. Die 
Lösungsansätze des Link-Obfuscators und das Einbinden von Bildern über 
object-tags statt img-tags ist jedoch für keine der Anforderungen ein 
sinnvoller Weg.

von Purzel H. (hacky)


Lesenswert?

Ich biete die Bilder nur in einer reduzierten Aufloesung an, zB 
1280x1024 oder kleiner. Wenn dann jemand einen Urhebereinwand hat, 
sollen sie mal das Grosse zeigen ... und die Sequenz, wo's reingehoert.

von Robert L. (lrlr)


Lesenswert?

Lösung ist doch ganz einfach:

Bilder kann nur sehen, wer ein Captcha eingibt..

von physiker (Gast)


Lesenswert?

Klar, und damit hat man dann die Besucher der Webseite bald erfolgreich 
auf Null gedrückt. Wäre dann vom Netz nehmen nicht einfacher und 
schneller?

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Joachim Drechsel schrieb:
> <img src='pics/gaga.jpg'> da könnte ein Bot auf die Idee kommen "Aha,
> im Verzeichnis pics liegt noch mehr herum was ich mir jetzt ziehe".
>
> <img src='zeige_mir_das_bild.exe?FILE=gaga.jpg'> da rückt
> zeige_mir_das_bild.exe halt nur genau ein Bild aus dem Verzeichnis
> pics (das der Bot nicht kennt) heraus.

Und was hindert den Bot daran, jetzt anstelle von lauter Iterationen 
über


<img src='pics/gaga.jpg'>
<img src='pics/blubber.jpg'>
<img src='pics/wasnochsonstso.jpg'>

das gleiche hiermit zu machen?

<img src='zeige_mir_das_bild.exe?FILE=gaga.jpg'>
<img src='zeige_mir_das_bild.exe?FILE=bubber.jpg'>
<img src='zeige_mir_das_bild.exe?FILE=wasnochsonstso.jpg'>

von Oliver S. (oliverso)


Lesenswert?

Die absolut einfachste Möglichkeit wäre natürlich, in dem 
Bilderverzeichnis nur die Bilder zu haben, die auch verlinkt werden.

Aber der Mensch ist halt Jäger und vor allem Sammler...

Oliver

von Robert L. (lrlr)


Lesenswert?

physiker schrieb:
> Klar, und damit hat man dann die Besucher der Webseite bald erfolgreich
> auf Null gedrückt. Wäre dann vom Netz nehmen nicht einfacher und
> schneller?

dafür aber die einzig sichere Möglich, wollt ich schreiben..
dann ist mir eingefallen:

man müsste die Bilder einfach nur in sehr viele Einzelteile zerlegen, 
möglichst dämliche Namen verwenden, und das Bild auf der Webseite aus 
den teilen zusammenbauen.. und die einzelteile immer 4x größer machen 
sodass immer 3/4 von anderen Bildern überdeckt ist.. usw.

genial, das werd ich mir patentieren lassen..

edit: warum wird hier immer wieder das thema "Directory listing" 
aufgeworfen, wer sowas zulässt dem gehört die 
"webseiten-bereitsteller-lizenz" entzogen...

: Bearbeitet durch User
von physiker (Gast)


Lesenswert?

Ja, das mit dem Zerlegen in eine image map hat der Ernst schon 
vorgeschlagen. Diese ganze Diskussion krankt, aber an einem 
Kommunikationsproblem, d.h. der Threadersteller weiß nicht genau was er 
will oder hats nicht richtig rübergebracht.

Um es zusammen zu fassen:

a) Jegliche Bilder die von einem normalen Browser dargestellt werden, 
können auch von einem automatisierten Browser aka bot ausgelesen werden. 
In beiden Fällen werden sie natürlich auf den Client-Rechner übertragen. 
Wenn man das verhindern will, steht man vor demselben Problem wie die 
Content-Industrie und kann entweder den Rechner mit DRM vernageln (geht 
nur wenn man Hollywood heißt) oder zu mehr weniger leicht umgehbaren 
"Tricks" greifen, wie z.B. das Bild zerlegen, Captchas einbauen (lassen 
sich auch automatisiert umgehen), Zugang nur nach Anmeldung, Darstellung 
nur als Flash, Silverlight o.ä. Jeder von diesen "Tricks" hat natürlich 
den Nachteil, daß er potentiell bei gewünschten Besuchern nicht richtig 
dargestellt wird und/oder sie sogar massiv verärgert.

b) Falls es wirklich nur darum geht, daß nicht direkt auf Verzeichnisse 
auf dem Server zugegriffen wird und hierzu der Pfad geheim gehalten 
werden soll, wurden folgende besser funktionierende Lösungen genannt: 
Server richtig konfigurieren und/oder halt nichts in den publizierten 
Verzeichnissen rumliegen lassen, was "geheim" gehalten werden soll.

von physiker (Gast)


Lesenswert?

Das mit dem Patent klappt aufgrund von prior art daher leider nicht, 
wird also nichts mit dem Starup ;) Obwohl da gab es die Leute mit den 
Bildern die sich wieder selber nach einer gewissen Zeit löschen sollen, 
wie hieß die Gurkentruppe nochmal? Kam auch in dem Zusammenhang mit dem 
"digitalen Radiergummi" auf, wenn ich mich richtig erinnere.

von Daniel A. (daniel-a)


Lesenswert?

Man könnte die BOTs auch mit unnötigen daten beladen:

  Ein bot folgt allen links, ein guter bot folgt allen sichtbaren links, 
also stellt man ihnen eine Falle. Man macht einen Link auf eine 
präparierte seite, welch nie jemand sehen wird. Der Link wird als Text 
getarnt, mit dem attribut onclick="return false" versehen, und unter 
einem noscript tag versteckt, falls javascript deaktiviert ist. Auf der 
Präparierten Seite bindest du möglichst viel malware ein, und möglichst 
grosse Bilder mit automatisch generiertem randomisierten rauschen, und 
vileicht noch ein iframe mit src=".". Und noch ein 
f(){i=10000;while(i--);setTimeout(f);}f(); auf die seite und ein 
while(true); in möglichst viele js worker. onbeforeunload false 
zurückgeben lassen, und vorher noch ein windows.open und history.back() 
ausführen...

Daran könnten sich dann einige bots aufhängen, mit viren verseuchen, 
dich in die Blacklist aufnehmen, etc.

Einziger nachteil: soetwas gefällt auch suchmaschinen nicht...

von Daniel H. (Firma: keine) (commander)


Lesenswert?

Daniel A. schrieb:
> Daran könnten sich dann einige bots aufhängen, mit viren verseuchen,
> dich in die Blacklist aufnehmen, etc.

Und wenn ein legitimer Nutzer diese Seite zufällig doch aufrufen sollte 
machst du dich im schlimmsten Fall wegen Computersabotage strafbar. 
Super Idee, bitte mehr davon.

von Robert L. (lrlr)


Lesenswert?

physiker schrieb:
> Das mit dem Patent klappt aufgrund von prior art daher leider nicht,

doch, weil ich ja 3/4 von den Kacheln mit nutzloser info (am besten 
p**n) fülle, welcher dann durch andere kacheln überlagert wird, das 
lenkt vom eigentlich Inhalt ab..

edit: und wenn sich bei den BOT's dann herumgesprochen hat, dass es bei 
mir 75% t*tt**-bilder gibt, kommen auch die Hits von selber...

: Bearbeitet durch User
von physiker (Gast)


Lesenswert?

Vergiss aber nicht die Altersverifikation der Bots, sonst gibt es 
mächtig Ärger mit dem Strafrecht. Vielleicht kann man da was mit dem 
neuen Personalausweis machen.

von imon (Gast)


Lesenswert?

Wenn der Bot sich nicht an die robots.txt hält.

Wie wäre es wenn du statt die Bilder zu schützen, in deine Webseite eine 
Teergrube für bots integriertest. Den lieben Bot sagst du per robots.txt 
das sie nicht dort hin dürfen. den Rest schickst du ungefähr wie Hier in 
die falle bis sie nicht wiederkommen.

http://www.online-tutorials.net/php/http-teergruben/tutorials-t-35-274.html

Schön ist anders, aber vielleicht ist so was die Antwort auf böse Bots, 
heizten wir dann die Erde auf mit um bots zu bekämpfen.

von Floppy (Gast)


Lesenswert?

Gerade Pixray ist so ein Schnüffelspion!

Icvh würde Dir raten die Server-IP von Hetzner an deinem Server zu 
sperren!
Dann kann Pixray und Co garnicht mehr darauf zugreifen!

von .... (Gast)


Lesenswert?

Floppy schrieb:
> Icvh würde Dir raten die Server-IP von Hetzner an deinem Server zu
> sperren!
> Dann kann Pixray und Co garnicht mehr darauf zugreifen!

weils server naturlich nur bei hetzner gibt und alle hetzner kunden böse 
sind..... doe menschen wie du gehören aus dem internet ausgesperrt. 
lebenslänglich.

von hmm... (Gast)


Lesenswert?

.... schrieb:
> Floppy schrieb:
>> Icvh würde Dir raten die Server-IP von Hetzner an deinem Server zu
>> sperren!
>> Dann kann Pixray und Co garnicht mehr darauf zugreifen!
>
> weils server naturlich nur bei hetzner gibt und alle hetzner kunden böse
> sind..... doe menschen wie du gehören aus dem internet ausgesperrt.
> lebenslänglich.

Nö, aber Pixray ist dort gehostet! Ich find die Idee prima!
So können Leute wie Du mit de´m dienst wie Pixray nicht automatisch die 
Bilder durchschnüffeln.

Wir sperren sogar ganze Länder aus! China und Russland z.B.
Die können unsere WebSite nicht anschauen.

Zudem:
Was hat ein Server auf deinem zu suchen?
Ich würde auch die Hoster aussperren, vorausgesetzt man bekommt die 
ganzen IP-Ranges. Einige werden durchschlüpfen, ist aber 
vernachlässigbar.

von Oliver S. (oliverso)


Lesenswert?

hmm... schrieb:
> Wir sperren sogar ganze Länder aus! China und Russland z.B.
> Die können unsere WebSite nicht anschauen.

Ich sach mal, die zensieren das schon von sich aus...

Oliver

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.