• Guten Abend,


    ich wende mich besonders an die Hompagebetreiber unter uns, beachtet Ihr Euer monatliches Transfervolumen und habt es im Griff ?


    Besteht Interesse dazu mehr zu wissen ?
    Ich überlege dazu einen Beitrag zu verfassen.

    Gruß
    Michael Lauffs
    Aachen, Eschweiler, Stolberg

    www.Lauffs.de

    Man sollte eine Dummheit nicht zweimal machen, es gibt doch so viele davon.

  • Hallo Michael!


    Ich achte da nicht drauf!


    Ich habe eine Flatrate ohne Volumen oder Zeitbegrenzung.


    Aber interessant wäre es schon, besonders wenn man vielleicht mal den Provider wechselt.



    Gruß Gordon

    Wer Rechtschreibfehler findet, darf sie gern behalten! :rolleyes:
    * * * * * * * * * * * * * * * * * * * * * * *
    Auf der Suche nach


    Mecklenburg

    Mahnke, Dahl, Hackbusch, Lange, Pägelow, Bollow


    Schleswig - Holstein

    Evers, Steen, Hamm, Wulf


    Westpreussen / Nordrhein-Westfalen

    Manka


    Ostpreussen

    Dömke, Kalweit

  • Hallo zusammen,


    @Gordon
    Du weißt das das zwei verschiedene Sachen sein können?


    a) Die Flatrate ohne Zeit/Volumenbegrenzung bei Deinem DSL-Anbieter
    b) Die Volumenbegrenzung die Du bei Deinem Web-Anbieter hast



    Michael,
    Bei mir ist noch massig Platz, trotzdem wäre sicherlich ein entsprechender Beitrag sehr interessant!


    Gruß,
    Bernd

  • Hallo


    also ich achte darauf auch nicht.
    Ich habe bei meinem Anbieter (chello.at) eine Flatrate, kann ohne Begrenzung ins I-Net, wenn´s sein muss 24 h online.
    Bei der HP habe ich eine Begrenzung von chello.at und die liegt bei
    10 MB.
    Und da bin ich gerade mal bei 27 %.
    Also noch genügend Platz.


    Aber ich bin auch der Meinung meiner Vorschreiber, ein Thema darüber bzw. ein Bericht, wäre nicht schlecht.

  • Hallo Mireille,


    10 MB Transfervolumen im Monat? Bist Du dir sicher? Das wären dann ja nur knapp 4 MB die Du pro Monat an Trafic hast. Da kann irgendwas nicht stimmen.


    Gruß,
    Bernd

  • Entschuldige, hätt mich besser ausdrücken sollen,
    der webspace ist mit 20 MB limitiert, nicht wie fälschlicherweise angegeben 10 MB

  • Bernd:


    JIP, das weiß ich. Ist mir auch nach dem Schreiben des Beitrages eingefallen, das es ja eigentlich zwei paar Schuhe sind.


    Ich habe bei meiner HP ein Transfervolumen bei HP-Abruf von 5 GB.


    Ich war aber schon öfter mal deutlich über 5 GB und meine Rechnung blieb unverändert.
    Aus meiner Rechnung ist aber leider nicht ersichtlich, wieviel davon auf den eigentlichen HP-Abruf entfällt.



    Ich will da jetzt aber auch keine schlafenden Hunde wecken. ;)



    Gruß Gordon

    Wer Rechtschreibfehler findet, darf sie gern behalten! :rolleyes:
    * * * * * * * * * * * * * * * * * * * * * * *
    Auf der Suche nach


    Mecklenburg

    Mahnke, Dahl, Hackbusch, Lange, Pägelow, Bollow


    Schleswig - Holstein

    Evers, Steen, Hamm, Wulf


    Westpreussen / Nordrhein-Westfalen

    Manka


    Ostpreussen

    Dömke, Kalweit

  • Zitat

    Original von Mireille
    Entschuldige, hätt mich besser ausdrücken sollen,
    der webspace ist mit 20 MB limitiert, nicht wie fälschlicherweise angegeben 10 MB


    Ihr redet da aneinander vorbei. Was Michael meint, ist etwas anderes:
    Wenn irgendjemand auf deine Homepage surft, werden alle deine Bilder, Daten usw. von der Seite, die er sich gerade anschaut, auf seinen Rechner geladen. Je nach Dateien, die dabei geladen werden müssen, kann das ein nicht unerheblicher "Traffic" sein. Da der über den Server läuft, auf dem deine Homepage ist, musst du auch dafür bezahlen.
    Entweder du hast - wie Gordon - ein Pauschalbetrag an Traffic, oder, was manchmal auch vorkommt, du musst per Mb zahlen.
    Daher kann das Homepagebesitzer unter Umständen auch teuer kommen, wenn jemand Bilder oder andere Dateien von ihrer Homepage woandershin verlinkt (vgl. auch: http://www.trafficklau.de)


    Rossi

  • das sind wirklich zwei verschiedene paar schuhe.


    1. die menge an daten, die du durch deine internetverbindung hin und her schiebst (mails abrufen/ versenden; internetseiten besuchen, chatten, downloaden/ uploaden, VoIP, internetspiele spielen, spiele übers internet spielen...)


    dieser transfer ist meist im vertrag mit dem internet-zugangsanbieter angegeben (außer bei flatrates). bei flatrates fangen aber einige anbieter bei einem transfervolumen von 20 GB traffic im monat an argwöhnisch zu schauen (in deutschland zumindest). das sind dann die sogenannten poweruser, die dann in deren visier geraten.


    das trifft aber auf uns ottonormalnutzer nicht zu. wir kommen, selbst bei 24 stunden onlinepräsenz pro tag, auf nicht mehr als vielleicht 5 GB traffic im monat und das ist schon viel.


    2. die menge an daten, die von deiner homepage ausgeht. d.h. alle daten die durch den aufruf deiner homepage (seiten, bilder, dokumente, downloads, foren, spiele soweit vorhanden, mail-transfer von und zur homepagebesitzer-seite/ email-konto). dazu zählen auch die uploads (zur gestaltung der homepage) durch den homepagebesitzer, die erst eine homepage zu dem machen, was sie ist. wer diese daten letztendlich abruft oder was raufschickt ist egal. der traffic wird dem homepagebesitzer (oder webspacebesitzer) in rechnung gestellt. zumindest dann wenn das evtl. vorhandene limit überschritten wird.


    anbieter von webspace bieten oft einen monatlichen traffic von 20 und mehr GB an. was je nach projekt auch recht gut ausgenutzt werden kann.


    ich denke mal, dass beispielsweise dieses forum aufgrund der intensiven nutzung sicherlich eine menge an traffic (mehrere GB im monat) verbraucht.


    ich selber habe derzeit 3 anbieter (weil ich einen nicht rechtzeitig gekündigt habe) die mir 4 GB, 20 GB und 50 GB (pro monat) an traffic anbieten und das zu einem recht vernünftigen preis.


    mit bestem gruß


    andré

    4 Mal editiert, zuletzt von Vogelvieh ()

  • Hallo,


    ich denke, einen Beitrag zum Thema Trafficvolumen, -verbaruch, evtl. Kosten durch wen usw. wäre gut.


    Im Grunde hat Jeder schon mal davon gehört, aber unser Einer als Normalverbarucher vergißt auch schnell wieder, was das für Einen bedeuten kann, wenn man eine Homepage betreibt.


    Ich selbst habe mich so intentiv noch nicht damit beschäftigt, weil meine Homepage auf dem Server meines Sohnes liegt. Und der passt schon für mich auf. :banana:


    Michael eröffne bitte einen Beitrag dazu. :harpist:

  • Zitat

    Original von Bonzhonzlefonz
    Ich habe gar nicht gewusst, welche Probleme da evtl. auf mich zukommen können!


    Guten Tag
    Ich bedanke mich bei Rossi auch für den Link.
    Ich selber hatte hier im Forum mals einen Beitrag über eine Seite mit alten Schriften als Download reingeschrieben.
    Ebenso (in meiner Naivität) den Link dorthin.
    Weil durch diesen Link dort der Traffic innerhalb von 3 Tagen überschritten wurde, bekam ich zum Glück nur eine Aufforderung, den Link zu entfernen.
    Das hätte aber auch anders ausgehen können.
    Gruß Hugo

  • Hallo Hugo,


    in dem Fall liegt die Sache aber doch wohl anders, wenn Du den Link zu der Seite angibst, von der man sich die Schrift herunterladen kann. Wer eine Datei zum Herunterladen anbietet, sollte doch damit rechnen, dass dieses Angebot auch genutzt wird. Insofern finde ich (allerdings in meiner Eigenschaft als blutiger Laie in Rechtsfragen 8-) ), dass Du den Eigentümer dieser Seite doch nur bei seinem Vorhaben, die Datei zu verbreiten, freundlicherweise unterstützt hast. =)

  • Guten Abend,


    seit ich meine Homepage etwas optimiert habe und mit Referenzseiten die Fehler ausgemerzt habe, kann ich mich vor Zugriffen kaum noch retten. Ich schrieb das schon mal an anderer Stelle. Das bewog mich, über einen längeren Zeitraum meine Seite genau zu beobachten und die Logfiles regelmäßig zu analysieren.
    Unter http://www.lauffs.de/usage kann man mal eine Auswertung sehen, wie sie standardisiert, von fast jedem Provider, zur Verfügung gestellt wird. Wenn man aber genaueres wissen will, muss man selbst ran und sich mit dem Thema auseinandersetzen.


    Ich möchte hier auf einen Umstand aufmerksam machen, der besonders die Homepagebetreiber unter uns betrifft.

    Transfervolumen.


    Wir haben unerfahrene und gewiefte Homepagebetreiber in unserem Forum. Mit diesem Beitrag möchte ich mich an die eher unerfahrenen wenden und habe versucht das Thema verständlich und ohne viel Technik Schnick-Schnack zu beschreiben.
    Ich rede hier nicht von dem Transfervolumen der Internetverbindung eines jeden von Euch. Ich rede explizit über das Transfervolumen Eures Webspaces, auf dem die Homepage liegt.


    Die meisten Tarife für Homepages beinhalten ein begrenztes Transfervolumen pro Monat. Wird dieses Volumen überschritten zahlt der Homepagebetreiber für die Überschreitung extra. Das Transfervolumen wird im Privatbereich meistens in Gigabyte (Gb) oder Megabyte (Mb) abgerechnet.


    Wie entsteht Transfervolumen ?


    Jeder Klick eines Besuchers hat zur Folge, dass die html Seiten der Homepage auf den PC des Besuchers geladen werden.
    Das sind im Falle meiner Homepage zwischen 64 und 584 bytes. Im Prinzip fast nix.
    Der Aufruf dieser html Seiten mit 64 bis 584 bytes generiert ein Transfervolumen von 64 bis 584 bytes. Im höchsten Fall wurden 584 bytes über die Leitung geschickt.


    Als Homepagebetreiber möchte man aber auch, dass man gefunden wird. Also muss man Suchmaschinen anlocken, die einem im Index aufnehmen. Das sind die sogenannten Suchroboter, oder Robots oder Bots oder Spider genannt. Diese klappern eine Homepage ab und wir wissen durch andere Beiträge hier im Forum, dass Google drei Verweise tief das macht.


    Jeder Besuch eines Roboters oder eines Einzelanwenders produziert Transfervolumen.


    Es ist schick bei Google gelistet zu sein. Wenn man das geschafft hat findet einem jeder. Gibt man bei Google Lauffs ein, ist meine Seite an erster Stelle. Besonders nachdem ich mein Design mit Hilfe von Tips aus dem Forum korrigiert hatte.
    D.h. je besser das Webdesign, je eher es sich an etablierte Standards hält, um so eher steigere ich mein Transfervolumen.
    Google klappert meine Homepage mit um die 20 IP-Adressen ab. Hinter jeder IP-Adresse steht ein Suchroboter. Pro Suchroboter verursacht Google bei mir ein Transfervolumen von 175 kb bis zu 3,5 Gb im Monat. Das ist stark schwankend.
    Mein tarifliches Volumen liegt bei 50Gb im Monat. D.h. Google alleine hat schon von meinen 50Gb Transfervolumen 3,5Gb verbraucht, verbleibt ein Rest von 46,5Gb.


    Okay, 3,5Gb sind dabei nicht besonders viel. Aber mancheiner hat eben nicht soviel. Sagen wir mal 5Gb im Monat, dann bleiben nur noch 1,5Gb für Besucher und ein paar Korrekturen im html oder für einen GEDCOM Upload zur Verfügung.
    Selbst wenn es 10Gb oder 15Gb sind, können 3,5Gb für einen Suchdienst schon viel sein, es gibt ja noch andere. Die haben kein Problem damit, den Rest aufzufressen.


    Der Roboter kommt über die Einstiegsseite und geht, wie gesagt, drei Ebenen tiefer.
    Einstieg/
    .............Unterverzeichnis/
    .........................................UnterUnterverzeichnis/
    In meinem Fall http://www.Lauffs.de/
    ...................................................Genealogie/
    .................................................................../phpGedView
    Hier unten auf dieser Ebene findet er dann meine Personen, 2080 im Moment.
    Es folgen nun die Werte aus meinen Logfiles:
    Jede Person (2080 an der Zahl) ein Datensatz (28,54kb).
    Dann zu fast jeder Person noch einen Ort(54,51kb), wieder ein Datensatz.
    Dann zu fast jeder Person eine Familie wieder ein Datensatz(90,73kb).
    Indizieren pro Person im Stammbaum(78,85kb),
    im Ahnenstammbaum(81,11kb),
    im Nachfahrenstammbaum(~60kb),
    im Sanduhrdiagramm(69,76kb).
    Dann indiziert er alle Bilder, pro Bild ein Datensatz.
    Am 5.Feb.2006 erzeugte eine Google IP-Adresse
    4.540 Seitenaufrufe, mit
    908.404 Zugriffen und produzierte dabei ein
    Transfervolumen von 455,36Mb


    Meine Seite wird besucht von den Suchrobotern von:
    Yahoo
    MSN
    AOL
    Google
    Gigabot
    Seekbot
    Zyborg
    Girafa
    Obot
    Diverse Roboter ohne Kennung und noch sogenannte Spider.
    Dann kommen noch die spezialisierten Suchroboter, die speziell nur Ahnenforschungsseiten suchen.


    - Ende Teil 1 - Fortsetzung folgt –

    Gruß
    Michael Lauffs
    Aachen, Eschweiler, Stolberg

    www.Lauffs.de

    Man sollte eine Dummheit nicht zweimal machen, es gibt doch so viele davon.

  • - Fortsetzung -


    Bei der Überschreitung meines Transfervolumens zahle ich pro 1Gb Überschreitung ,-49 € pro Monat zusätzlich.
    Ich habe in einem anderen Forum Beiträge gelesen, dass ISPs mit Kündigung des Vertrages drohen, wenn das Transfervolumen der betroffenen Homepage weiter so hoch bleibt.


    Den Zugriff der Roboter läßt sich Gott sei Dank beeinflussen. Aber es gibt Roboter die die Beeinflussungen gerne übersehen.


    Eine sogenannte robots.txt Datei ermöglicht es, die Sucherei der Brüder einzudämmen.
    Desweiteren gibt es für Webspace der auf Apache Servern zur Verfügung gestellt wird, die Möglichkeit mit der Datei .htaccess Zugriffe gänzlich zu sperren.
    Mit dieser Datei ist vorsichtig umzugehen, man kann sich damit auch selber aussperren.
    Apacheserver sind die meisten Webserver, ich würde schon sagen ein Quasi-Standard. Um herauszufinden ob die eigene Seite auf einem Apachen läuft braucht man nur eine Fehlermeldung zu generieren. Das schafft man, indem man irgendeinen Dateinamen angibt der nicht vorhanden ist.
    z.B. http://www.lauffs.de/xyc.txt


    Von beiden Dateien (robots.txt und .htaccess) stelle ich hier zwei Beispiele rein und erkläre sie.
    Über beide Dateien sollte man vor der Verwendung etwas googlen und sich z.B. im selfhtml Tutorial darüber informieren.


    robots.txt :


    User-agent: *
    Disallow: /m4l/
    Disallow: /Genealogy/phpGedView/themes/
    Disallow: /Genealogy/phpGedView/media/
    Disallow: /Genealogy/phpGedView/images/
    Disallow: /Genealogy/phpGedView/edit_interface.php
    Disallow: /Genealogy/phpGedView/images/selected.png
    Disallow: /Genealogy/phpGedView/reportengine.php
    Disallow: /Genealogy/phpGedView/phpgedview.js
    Disallow: /Genealogy/phpGedView/fanchart.php
    Disallow: /Genealogy/phpGedView/individual.php
    Disallow: /Genealogy/phpGedView/useradmin.php
    Disallow: /Genealogy/phpGedView/familybook.php
    Disallow: /Genealogy/phpGedView/medialist.php
    Disallow: /Genealogy/phpGedView/search.php
    Disallow: /Genealogy/phpGedView/login.php
    Disallow: /Genealogy/phpGedView/clippings.php
    Disallow: /Genealogy/phpGedView/sosabook.php
    Disallow: /Genealogy/phpGedView/timeline.php
    Disallow: /Genealogy/phpGedView/calendar.php
    Disallow: /Genealogy/phpGedView/hourglass.php
    Disallow: /Genealogy/phpGedView/ancestry.php
    Disallow: /Genealogy/phpGedView/descendancy.php
    Disallow: /Genealogy/phpGedView/pedigree.php
    Disallow: /Genealogy/phpGedView/family.php
    Disallow: /Genealogy/phpGedView/relationship.php
    Disallow: /Genealogy/phpGedView/famlist.php
    Disallow: /Genealogy/phpGedView/patriarchlist.php
    Disallow: /Genealogy/phpGedView/repolist.php
    Disallow: /Genealogy/phpGedView/aliveinyear.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/themes/
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/media/
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/images/
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/edit_interface.php
    Disallow: http://www.lauffs.de/Genealogy…dView/images/selected.png
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/reportengine.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/phpgedview.js
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/fanchart.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/individual.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/useradmin.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/familybook.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/medialist.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/search.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/login.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/clippings.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/sosabook.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/timeline.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/calendar.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/hourglass.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/ancestry.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/descendancy.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/pedigree.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/family.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/relationship.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/famlist.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/patriarchlist.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/repolist.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/aliveinyear.php


    Zur ersten Zeile:
    Useragent: *


    Mit Useragent sperrt, definiert man, welcher Roboter man sperren will.
    Mit * alle Roboter oder wenn man spezielle Roboter sperren will muss man sie beim Namen nennen.
    Um nur den Roboter Seekbot zu sperren gibt man ein:
    Useragent: seekbot
    Und danach die disallow Zeilen.
    Die Namen der robots und Spider muss man sich aus seinen Logfiles fischen.


    Darunter kommt die Zeile mit disallow, also nicht erlauben.
    Steht hinter disallow: nichts, also leer, ist nichts nicht erlaubt ;) d.h. es ist alles erlaubt.
    Steht hinter disallow: / sind alle Dateien und Unterverzeichnisse nicht erlaubt.
    Möchte ich aber nur Teile nicht erlauben, muss ich diese angeben. So wie in meinem Beispiel oben gezeigt.


    In meinem Unterverzeichnis /Genealogy/phpGedView/ gibt es einiges was ich nicht erlauben will und den Rest kann er ruhig ansehen. Deshalb muss ich alles angeben, was ich nicht erlauben will, z.B. das Indizieren von useradmin.php .
    Wie man sieht, habe ich für die Verzeichnisse beide Schreibweisen verwendet. In Tests habe ich festgestellt, dass es Roboter gibt die auf /Genealogy/phpGedView/ schauen und andere gucken wieder auf den kompletten Pfad http://www.lauffs.de/Genealogy/phpGedView/ .
    Warum das so ist weiß ich nicht, war mir auch egal, ich bin am Ergebnis interessiert.
    Jeder meiner Tests dauerte 24h, weil ich erst danach neue Logfiles bekomme. Deshalb kann ich auch erst jetzt den zweiten Teil des Beitrages schreiben.


    Man kann die Regeln für die verschiedenen Bots auch verschieden gestalten, das schaut dann so aus:
    Beinflussung des Roboters Zyborg:
    Useragent: Zyborg
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/phpgedview.js
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/fanchart.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/individual.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/useradmin.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/pedigree.php


    Beieinflussung des Roboters Seekbot:
    Useragent: Seekbot
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/family.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/relationship.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/famlist.php
    Disallow: http://www.lauffs.de/Genealogy/phpGedView/patriarchlist.php


    Usw.
    Man definiert das also über den Parameter Useragent , gibt gezielt den Bot an und danach das was er nicht machen soll. Mit dem nächsten Useragent gibt man den nächsten Bot an, usw. bis man zufrieden ist.


    Die Robots.txt platziert man in seinem eigenen Root Verzeichnis, in meinem Falle in http://www.lauffs.de .
    Dort lesen die Bots die Datei aus und verhalten sich entsprechend den Anweisungen.


    Nun zu dem mächtigen Werkzeug Namens .htaccess
    Diese Datei lässt eine echte Zugriffskontrolle zu und damit kann man Besuchern den Aufruf von bestimmten Dateien oder den Besuch von ganzen Verzeichnissen verbieten. Das gilt in dem Zusammenhang auch für Roboter. Das bedeutet, diese Datei ist nicht alleine für Roboter sondern schränkt generell für alle Besucher den Zugriff auf die Web Seite ein.


    Es könnte passieren, dass ein Roboter die robots.txt zwar liest, aber so programmiert ist, sich nicht daran zu halten. Dann gibt es wieder Roboter die lesen Robots.txt erst gar nicht. Denen muss man Einhalt gebieten in dem man sie mit .htaccess in ihre Schranken weist.


    Die Datei .htaccess erstellt man mit einem gewöhnlichen Texteditor wie dem Notepad.
    Man muss wissen, dass Notepad seine Dateien als <DATEINAME>.txt abspeichert.
    Entweder achtet man darauf, dass man beim Abspeichern wirklich diese Einstellung überschreibt und alles vor dem Punkt löscht und hinter dem Punkt nur noch htaccess schreibt. Oder man geht nach dem Speichern über den Windows Explorer zu der gespeicherten Datei und nennt sie um.


    Ist die Datei erstellt muss man sie mit auf den Server kopieren und zwar in das Verzeichnis, welches man schützen will. Will ich mehrere Verzeichnisse schützen, muss ich mehrere Dateien schreiben. Ich kann mir vorstellen, dass es dafür auch eine einfachere Lösung gibt. Diese habe ich jedoch noch nicht gefunden.
    Zum Kopieren der Datei auf den Server verwendet man einen ftp Client und kopiert sie im ASCII Mode auf den Server. Das ist notwendig, damit der Apache sie versteht. Schaut man sich die Datei nach dem Kopieren direkt auf dem Server an, sieht sie etwas verwurstelt aus und man weiß dann, dass man alles richtig gemacht hat. Wird sie aber genauso adrett geordnet wie im Notepad angezeigt, dann ist sie nicht richtig hochkopiert worden.
    Dazu noch ein kleiner Hinweis: Einmal wurde sie bei mir erst einige Minuten nach dem Hochkopieren richtig angezeigt. Man muss also nicht gleich nervös werden sondern erstmal einen Kaffee trinken.


    Die Datei .htaccess unterbindet nur den html fähigen Verkehr. Datenverkehr per ftp berührt sie nicht.
    Was heißt das ?
    Als Ersteller der .htaccess Datei kann ich mich mal vertippen und erwische meinen eigenen IP-Adressen Bereich. Ist eine solche Datei dann auf den Server geladen habe ich mich selbst ausgesperrt und komme an meine Web Seite nicht mehr ran.
    Um das wieder aufzuheben lädt man mit ftp eine korrigierte Version von .htaccess hoch oder löscht sie per ftp Client auf dem Webserver. Der Zugriff ist dann mit einem Zeitversatz von einigen Minuten wieder da.


    Hier ist diese magische Datei:


    # .htaccess-Datei für Web-Verzeichnis /Genealogy/phpGedView
    DirectoryIndex index.php
    # Sperrung des chinesischen Spiders Baidu
    Order deny,allow
    Deny from 202.108
    # Sperrung verschiedener Länder
    Deny from .cn
    Deny from .ro
    Deny from .ru
    Deny from .pl
    Deny from .cz
    # Sperrung Einbruchsversuche
    Deny from 203.130
    Deny from 86.106
    # Allow from all
    # Alternative:
    # RewriteEngine On
    # RewriteBase /
    # RewriteCond %{REMOTE_ADDR} "^202\.108\.\." [OR]
    # RewriteCond %{REMOTE_ADDR} "^65\.19\.150\."
    # RewriteRule .* - [F,L]


    Man sieht, dass man mit dem Zeichen # Kommentare darstellt d.h. es sind keine ausführbaren Anweisungen.
    Zweite Zeile:
    Darin steht DirectoryIndex Index.php
    Ich muss das angeben, weil ich meinem zu schützenden Verzeichnis keine index.html stehen habe sondern eine index.php. Lässt man diese Zeile weg, geht der Apache automatisch von einer index.html aus und erwartet diese auch in diesem Verzeichnis zu finden.


    Dritte Zeile: ist ein Kommentar


    Vierte Zeile: Order deny, allow
    Gibt die Reihenfolge an. Erst kommen die Verbote dann die Erlaubnisse.


    Fünfte Zeile: Hier sieht man, dass ich den IP Adress Bereich 202.108. sperre.
    Ich fühle mich durch diesen Roboter besonders dreist belästigt und habe ihm kurzum den Hahn zugedreht. Der Roboter kam mit mehreren IP Adressen an und hat ein Transfervolumen verursacht, das war nicht mehr feierlich. Dann habe ich einfach den Teil der IP Adressen gesperrt der bei allen Robotern gleich war, in dem Fall 202.108 .


    Dann sperre ich verschiedene Länder die mir unangenehm aufgefallen sind.
    Danach kommen IP Adressen mit denen Einbruchsversuche versucht wurden.


    Dann kommt ein auskommentiertes allow from all = alles erlauben.
    Wer, wie empfohlen, über die Datei .htaccess etwas googelt wird Beispiele finden in denen drin steht:


    Order deny,allow
    Deny from all
    Allow from all


    Sonst nix.
    Das ist kompletter Blödsinn. Der letzt Befehl hebt den zweiten auf und erlaubt wieder jedem alles.
    In meinen ersten Gehversuchen mit dieser Datei war dieser Effekt auch. Durch probieren und 24h warten kam ich der Sache langsam auf die Spur.


    Am Ende kommt eine auskommentierte Alternative zu der Sperrung von IP Adressen wie weiter oben gezeigt. Warum diese Alternative soviel komplizierter ist habe ich nicht nachvollziehen können. Dazu muss ich noch tiefer in .htaccess einsteigen und bin aber derzeit mit der Wirkung der gezeigten Lösung zufrieden.


    Die Mächtigkeit von .htaccess erschließt sich beim Lesen von selfhtml. Man kann diese Datei aufbohren, eigene Fehlermeldungen bauen, eigenen Zugriffsschutz bauen.
    Das was ich hier beschrieben habe, ist nur der kleine Teil, den ich als Website Betreiber am nötigsten brauchte. Ich habe das Bedürfnis bestimmte Roboter auszusperren und offensichtliche Manipulationsversuche zu unterbinden oder zumindest zu erschweren.


    Beide Dateien auf einmal einzusetzen ist nicht besonders sinnvoll. Ich selber bin schrittweise vorgegangen. Zuerst die Robots.txt eingesetzt, die Wirkung beobachtet und hin und wieder etwas Feinjustage betrieben. Als die soweit stand, habe ich dann die .htaccess eingesetzt.
    Allen Nachahmern empfehle ich diese Reihenfolge auch.

    Gruß
    Michael Lauffs
    Aachen, Eschweiler, Stolberg

    www.Lauffs.de

    Man sollte eine Dummheit nicht zweimal machen, es gibt doch so viele davon.

  • Hallo Michael,


    den Inhalt Deines ersten Teil konnte ich ja noch recht gut nachvollziehen. :]
    Aber beim Lesen Deines zweiten Teils bin ich wohl in böhmische Dörfer angekommen. ?(

  • Ich kann die Sache bis jetzt auch noch nicht ganz verstehen... Ich hab zwar (noch) keine Ahnenseite, aber doch seit Jahren eine Homepage, früher über t-online, jetzt bei 1&1. Über Google bin ich ziemlich leicht zu finden und aufgrund von eMails weiß ich natürlich, dass mich die Leute so gefunden haben. Bis jetzt hat der "Traffic" in meinen Abrechnungen überhaupt keine Rolle gespielt. Ist das bei Ahnenseiten so viel mehr?
    Ich hatte eigentlich mit dem Gedanken gespielt, auch einen genealogischen Bereich an meine Seite anzuhängen (der Platz würde dafür wohl noch reichen), aber jetzt bin ich doch sehr verunsichert. Zum einen wegen der rechtlichen Seite, weil ich ja viele Vorfahren auch über das Internet gefunden habe und nicht weiß, inwieweit ich die Daten dann benutzen darf, vor allem aber, weil ich mir damit natürlich keine Zusatzkosten reinholen möchte.

  • ich hab mir das mal heute von meinem Sohn erklären lassen, der natürlich damit sofort was anzufangen wusste. :computer:


    So halbwegs habe ich das jetzt verstanden, so richtig kapieren vermutlich aber erst, wenn ich das in die Praxis umsetze. 8-)

  • Hei, guten Abend,


    ich habe mir schon gedacht, dass es ein schwieriges Thema ist.
    Ich möchte allen die 'böhmischen Dürfer' etwas näher bringen und dafür sensibilisieren. Im Kleingedruckten Eurer Verträge steht bestimmt auch etwas über Transfervolumen und was bei seiner Überschreitung passiert.
    Ich will keinen damit abhalten etwas ins WEB zu stellen, sondern nur dazu anregen über gewisse Dinge nachzudenken, es liest nicht jeder die c't.


    Schreibt mir Eure Fragen per email, an Michael_Lauffs@web.de .
    Ich würde versuchen sie möglichst zeitnah und individuell zu beantworten und aus diesen Fragen eine Zusammenfassung hier reinstellen, damit jeder was davon hat.


    Es ist richtig, dass man erst in der praktischen Erprobung verstehen wird wie es funktioniert oder wie manches gemeint ist. Oder man jemand in seiner näheren Umgebung fragen muss, dann haben diese Beiträge schon mal ihr Ziel erreicht.
    Die Priorität, ob der eine oder andere etwas machen muss, gibt der Vertrag vor, mit dem man seine Homepage ins WEB gebracht hat.


    Ich habe weitere Beiträge dieser Art geplant. Nicht nur über Internet, auch über lokale PCs. Sicherheit wäre z.B. ein Thema. Da ich es vorziehe Windows2000 zu betreiben aber die Mehrheit mit XP arbeitet, muss ich erst einen Schritt Richtung XP machen. Dazu konnte ich mich noch nicht durchringen.

    Gruß
    Michael Lauffs
    Aachen, Eschweiler, Stolberg

    www.Lauffs.de

    Man sollte eine Dummheit nicht zweimal machen, es gibt doch so viele davon.