Ich hab was Dummes gemacht!
Ich hab mir ein Plugin installiert um fehlerhafte und verwaisten Links auf meinem Blog zu finden und das Ergebnis ist echt frustrierend! Von 5.000 Links sind über 1.000 nicht mehr erreichbar und täglich kommen neue dazu.
Noch schlimmer: Es handelt sich fast ausschließlich um private Webseiten, Blogs und OpenWeb Projekte/Initiativen.
Willkommen im „open, portable, interoperable, social, synaptic, semantic, structured, distributed, (re-)decentralized, independent, microformatted and federated social web“ 🙁 .
In reply to https://notiz.blog/2020/04/16/1000-fehlerhafte-links-gefunden/.
Ich habe es irgendwann nicht mehr ertragen und das Plugin wieder deaktiviert.
Bisher hatte ich noch die wahnwitzige Idee, die Links mal schnell auf archive.org umzubiegen… Ich schaff so 20 in der Stunde… 😂
Ein plugin das 400er automatisch aufs webarchive umschreibt?
wann hast du es fertig? 😋
Ich dachte du Twitter Pause 😅
I’d like to add why checking for 404 is not enough: https://beko.famkos.net/2020/02/01/48611/
I am, more or less successfully, ignoring that!
But you are right, that is even worse! One example:
http://ostatus.org/
!Oh that. Do you know the case of gmane? https://lars.ingebrigtsen.no/2020/01/06/whatever-happened-to-news-gmane-org/
Private blogs wandern auch mal, aber in meiner Erfahrung legen die meisten Leute keinen Wert auf Permalinks, die auch permanent bleiben🙄
Wie heißt das Plugin?
wordpress.org/plugins/broken…
Danke 🙂 Find ich ja cool, dass das von WPMU DEV ist, die haben hohes Ansehen bei mir. Aber seltsam, dass ich das nicht über deren Dashboard installieren kann… Egal.
Linkrot ist so traurig. Und wenn neue Besitzer von Domains restriktive robots.txt-Dateien setzen geht auch noch die in der Wayback archivierte Version verloren – ganz abgesehen von den ganzen Silos :(.
Habe das Plugin auch installiert und es ist ein Kampf gegen Windmühlen. Aber wenigstens hilft es, die kaputten Links zu markieren, so dass die Webseitenbesucher*innen gar nicht erst hoffnungsvoll auf den Link klicken müssen.
Ansonsten gäbe es noch so etwas wie AMBER, aber das würde ich mich nicht einzusetzen trauen #Urheberrecht
Das mit der robots.txt ist mir beim Überprüfen der Links, das erste Mal aufgefallen! So traurig wenn nicht einmal mehr Archive.org funktioniert… Ich kann teilweise ganze Blogposts in die Tonne treten weil fast alle Links zu den erwähnten Toolings oder Texten nicht mehr zu retten sind 😒
Das mit den markierten kaputten Links ist mir übrigens erst nach deinem Kommentar aufgefallen ☺️
Amber kannte ich bisher nicht…
Das mit den robots settings war mir gar nicht bewusst. Wie könnte ich denn dafür sorgen, dass archive.org Daten löscht (nicht dass ich das möchte, im Gegenteil)?
Über die robots.txt kann man festlegen, ob und wie Crawler (z.B. von Suchmaschinen, aber eben auch jene von Archive.org) die eigene Seite indizieren können. In einem Blogpost von 2017 werden ein paar Probleme damit erläutert: https://blog.archive.org/2017/04/17/robots-txt-meant-for-search-engines-dont-work-well-for-web-archives/
Eine umfangreiche Anleitung, wie die robots.txt funktioniert gibt es z.B. im SelfHTML-Wiki: https://wiki.selfhtml.org/wiki/Grundlagen/Robots.txt
LG