Ankündigung

Einklappen
Keine Ankündigung bisher.

Frage zu Archivierung von Webseiten

Einklappen

Neue Werbung 2019

Einklappen
X
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • Frage zu Archivierung von Webseiten

    Moin zusammen,

    ich hätte da einige Fragen zur Webseiten Archivierung.
    Es gibt ja im Netz einige Seiten die Webseiten jeden Monat Archivieren und Anzeigen können.

    Meine Frage/n dazu sind folgende:
    - Wie funktioniert so ein System?
    - Wie speichert er die komplette Seite und gibt diese wieder aus?
    - Ist das überhaupt legal?

    Ich habe ja immer so meine eigenen Theorien, aber ob die dann stimmen mag ich mal zu bezweifeln. :'D

    Wäre für Hilfe sehr dankbar.

  • #2
    MOD: Verschoben von PHP-Einsteiger
    The string "()()" is not palindrom but the String "())(" is.

    Debugging: Finde DEINE Fehler selbst! | Gegen Probleme beim E-Mail-Versand | Sicheres Passwort-Hashing | Includes niemals ohne __DIR__
    PHP.de Wissenssammlung | Kein Support per PN

    Kommentar


    • #3
      Zitat von PlatinSecurity Beitrag anzeigen
      - Wie funktioniert so ein System?
      Wohl auf eine ähnliche Art wie Suchmaschinen. Nur ohne Indexierung, dafür mit Datenbank- oder Dateispeicherung.

      Zitat von PlatinSecurity Beitrag anzeigen
      - Wie speichert er die komplette Seite und gibt diese wieder aus?
      Web-Crawler + Web-Server.

      Zitat von PlatinSecurity Beitrag anzeigen
      - Ist das überhaupt legal?
      Das fragst du am besten einen Anwalt. Für rechtliche Fragen ist dieses Forum nicht zuständig.

      Kommentar


      • #4
        Zitat von PlatinSecurity Beitrag anzeigen
        - Wie funktioniert so ein System?
        .
        Frage die Betreiber. Du kannst aber eine HTML-Seite als Datei betrachten und genauso damit umgehen, also laden und speichern.
        Die Frage nach dem Ausgeben erübrigt sich dann wohl.



        Kommentar


        • #5
          Zitat von hausl Beitrag anzeigen
          MOD: Verschoben von PHP-Einsteiger
          Ups... Danke dir.
          ----
          Und danke auch an dich hellbringer für die Ausführlichen Antworten.
          Hat mir sehr geholfen.

          Ich vermute mal das es am rande der Legalität ist?!
          Aber Anwalt Fragen kostet ja nichts
          Mach ich einfach mal.

          Kommentar


          • #6
            Zitat von PlatinSecurity Beitrag anzeigen
            Meine Frage/n dazu sind folgende:
            - Wie funktioniert so ein System?
            - Wie speichert er die komplette Seite und gibt diese wieder aus?
            - Ist das überhaupt legal?


            archive.org bspw. nuzt wohl heritrix3

            https://github.com/internetarchive/heritrix3

            dort steht auch eine info für webmasters:
            https://github.com/internetarchive/h...iki#webmasters





            Kommentar


            • #7
              Die Webmaster-Information sagt aber nichts dazu, ob es im eingesetzten Land legal ist und was man mit den Daten machen darf. Lediglich das der crawler die üblichen Robots-Hinweise der Webseite beachtet.

              Kommentar


              • #8
                Zitat von tomBuilder Beitrag anzeigen
                archive.org bspw. nuzt wohl heritrix3
                Auch ne tolle Hilfe. Danke dir.

                Kommentar


                • #9
                  Zitat von protestix Beitrag anzeigen
                  Die Webmaster-Information sagt aber nichts dazu, ob es im eingesetzten Land legal ist und was man mit den Daten machen darf. Lediglich das der crawler die üblichen Robots-Hinweise der Webseite beachtet.
                  Ja,
                  eine legal notice gibt es bei archive.org für die daten bei archive org.
                  informationen über urherberechlich geschützte daten sowie deren veröffentlichung gibt einem eh nur der anwalt, welcher einen nachher vertreten muss
                  es ging mir hier eher um eine art fair play. ^^

                  Zudem kann man das archivieren bei archive beantragen oder mit verschiedenen tools die archivierten pages bei mehren artchivierern durchsuchen.

                  nur zum spiegeln reicht einem auch:
                  Code:
                   
                   wget --mirror --convert-links --adjust-extension --page-requisites  https://example.com

                  Kommentar

                  Lädt...
                  X