Ich bin schon vor Monaten über einen Artikel auf heise gestolpert, der das potentielle Phänomen der „Demenz bei Künstlicher Intelligenz“ beschreibt.

Die nächste Generation von KI-Anwendungen werde unweigerlich auch an Datensätzen im Netz trainiert, die nicht von Menschen, sondern von früheren KI-Anwendungen erstellt wurden.

Künftige KI-Modelle potenziell von Demenz bedroht

Das ist vor allem deshalb spannend, weil es genau die zwei Anwendungsfälle von KI betrifft, die auch mich, in meiner Arbeit oder als Betreiber eines Blogs, begleiten:

  1. Das automatische Generieren von Inhalten
  2. Die automatische Verarbeitung und Interpretation von Inhalten

Konkret handelt es sich um Plugins/Dienste, die beim Erstellen von Texten helfen oder sogar komplett automatisiert Texte verfassen, um AI-generierte Bilder oder der Kombination aus beidem. Auf der anderen Seite stehen Dienste wie Google et al., die versuchen, Antworten auf Suchanfragen direkt aus den Suchergebnissen zu extrahieren, um dem Suchenden den Klick auf den entsprechenden Link zu „ersparen“.

Auch wenn ich das generelle Potential von KI durchaus sehe, sind das zwei Bereiche in denen mich deren Anwendung eher nervt!

Ich bin ein „Kind“ der Generation Web 2.0, ich schreibe meine Gedanken ins Web um mich mitzuteilen und mit anderen über meine Ideen und Einschätzungen zu diskutieren und (konstruktiv) zu streiten. Wenn ich was zu schreiben habe, schreibe ich etwas, wenn nicht, nicht.

Leider gibt es aber auch Menschen, die berufsbedingt schreiben müssen, ohne dabei die Freiheit zu haben, dies lediglich nach Lust, Zeit oder Inspiration zu tun. Dieser Druck verstärkt die Verlockung, auf KI-Unterstützung zurückzugreifen natürlich wesentlich.

Ein „wunderbares“ Beispiel hierfür ist die WordPress Community auf LinkedIN. Ein stetiger Stream an ähnlichen und meist inhaltslosen Posts mit einem überzeichneten, grellen, bunten Bild im Comic Stil, in dessen Mitte ein verunstaltetes WordPress Logo prangt!

Mein RSS-Reader ist zum Glück noch frei von solchen Inhalten, aber die Anzahl der KI generierten Bilder steigt auch hier auffällig konstant.

@Krisuuu schreibt in seinem Blog:

Das persönliche Bloggen hat eine lange und reiche Geschichte. Es ermöglicht Menschen, ihre Gedanken, Erfahrungen und Leidenschaften in einer einzigartigen Stimme zum Ausdruck zu bringen. Doch mit dem Aufkommen von KI-Technologien, die in der Lage sind, menschenähnliche Texte zu generieren, könnte das persönliche Bloggen bedroht sein. Die Versuchung, diese Aufgabe an Algorithmen abzugeben, ist real – aber sie könnte auch den Verlust von etwas Unersetzlichem bedeuten.

Der Kampf um Authentizität: Warum persönliches Bloggen unersetzbar bleibt

Per definition hat das nichts mehr mit „bloggen“ zu tun1, aber das ist Wortklauberei und das Problem ist wirklich real!

So real, dass Google aktuell schon damit zu kämpfen hat:

In the continual cat-and-mouse game of Google Search versus search engine optimization (SEO) firms, Google seems to be losing lately. Search feels less useful with every passing day as the ChatGPT era has unleashed a tsunami of AI junk that quickly fills up search results. Google played a big part in creating all this with its invention of transformers, and now it’s finally doing something about it. A new blog post details efforts to reduce „spammy, low-quality content on Search.“

Google now wants to limit the AI-powered search spam it helped create

Das ging schneller als ich dachte!

Auf Social Media hab ich ein sehr schönes Kommentar zu der Misere gelesen. Leider finde ich es nicht mehr und muss deshalb improvisieren. Hier eine sinngemäße Zusammenfassung: „Ein Ziel der industriellen Revolution war, unliebsame und stupide Prozesse zu optimieren um dadurch mehr Zeit für Kunst und Kultur zu schaffen. Und was macht AI, sie automatisiert uns genau diese Freiheit und nimmt uns ausgerechnet das Erstellen von Bildern und Texten ab.“

Die Aussage ist sicherlich etwas konstruiert, beschreibt aber genau meine Sorge: Optimiert euren Arbeitsalltag mit und durch AI, damit ihr mehr Zeit zum schreiben, bloggen und „malen“ habt, nicht umgekehrt!

Brave New World!

  1. Ein Blogger steht als wesentlicher Autor über dem Text, schreibt zumeist in der Ich-Perspektive und integriert seine persönliche Meinung. — Wikipedia ↩︎

Screenshot von amp.dev

Google hat aktuell eine Klage am Hals. Der Konzern soll AMP genutzt haben, um sein eigenes Werbenetzwerk gegenüber der Konkurrenz zu bevorzugen.

Google soll sein Format AMP (Accelerated Mobile Pages) zur Webseiten-Beschleunigung nur eingeführt haben, um die Verleger dazu zu bewegen, letztlich mehr Geld im Google-internen Werbenetzwerk auszugeben. Das ist einer der Vorwürfe von zwölf US-Bundesstaaten, die kürzlich Klage gegen den US-Konzern eingereicht haben.

Kartellklage: Google soll AMP für Wettbewerbsvorteile eingeführt haben (heise online)

Leider ist das nur einer von vielen Kritikpunkten an AMP, toppt in meinen Augen aber alle Bisherigen um längen!

Ich möchte aber gar nicht zu sehr auf die Fälle eingehen, weil sie schon zu Genüge thematisiert wurden. Was mich dagegen triggert, ist die ständige Erwähnung von „Open Web“ im Kontext von AMP, speziell auch im WordPress Umfeld!

Screenshot von amp.dev

Sarah Gooding hat auf WP Tavern einen sehr lesenswerten Artikel zu dem AMP Skandal veröffentlicht, in dem sie auch auf die Rolle von WordPress bzw. Automattic eingeht: AMP Has Irreparably Damaged Publishers’ Trust in Google-led Initiatives.

In dem Abschnitt „Automattic Denies Prior Knowledge of Google Throttling Non-Amp Ads“ schreibt sie:

In 2016, Automattic, one of the most influential companies in the WordPress ecosystem, partnered with Google to promote AMP as an early adopter. WordPress.com added AMP support and Automattic built the first versions of the AMP plugin for self-hosted WordPress sites. The company has played a significant role in driving AMP adoption forward, giving it an entrance into the WordPress ecosystem.

Auf eine Nachfrage bei Automattic, bekommt sie folgende Antwort:

As part of our mission to make the web a better place, we are always testing new technologies including AMP

Auf die konkrete Frage, ob sie von der Wettbewerbsverzerrung wussten, antwortet Automattic mit:

We chose to partner with Google because we believed that we had a shared vision of advancing the open web. Additionally, we wanted to offer the benefit of the latest technology to WordPress users and publishers including AMP.

Da steht tatsächlich „we believed that we had a shared vision of advancing the open web„!

Selbst nach all der Kritik an einem proprietäres Format, einem subset von HTML5, welches die Nutzung von JavaScript limitiert, Webseiten-Betreibern aufgezwungen wurde, damit sie ihren Page-Rank behalten/verbessern, um ihnen dann die Besucher durch ein heftiges Caching der AMP Seiten abzugraben, um sich dann wohl auch noch einen Wettbewerbsvorteil im Bereich der Werbung zu sichern, sprechen Automattic und Google von „Open Web„?!?!

Warum mich das triggert?

Ich investiere jetzt knapp 15 Jahre meiner Freizeit in wirkliche „Open Web“ Plugins für WordPress, welche seit Jahren unbeachtet oder als „maybe later“ gekennzeichnet im Trac vor sich hin siechen, aber insgeheim hatte ich trotzdem die Hoffnung, dass vielleicht Google oder Automattic irgendwann Interesse zeigen könnten, wenn ihnen das Thema „Open Web“ (und WordPress) anscheinend doch so wichtig ist…

Wenn jetzt aber AMP der Maßstab für „Open Web“ ist, dann sehe ich schwarz für Webmentions oder ActivityPub.

In deutsch zu bloggen war eine bewusste Entscheidung!

Der Austausch über das „open, portable, interoperable, social, synaptic, semantic, structured, distributed, (re-)decentralized, independent, microformatted und federated social web“ findet hauptsächlich in englischer Sprache statt, und mir ist wichtig, das Thema speziell in Deutschland voranzutreiben.

Ich bin bisher aber nie wirklich davon ausgegangen, dass meine „Artikel“ auch für anders sprechende interessant sein könnten, bis Ray mir folgendes in die Kommentare schrieb:

For those of you like me who can’t read German but want to follow your blog via RSS, I found a way to have an RSS feed translated on the fly to whatever language you prefer:

https://www.labnol.org/internet/google-translate-rss-feeds/5110/

I can confirm it works following the steps listed within — Feedbin pulls in your RSS feed in english for me now! : )

Thanks for all you do,
Ray

Und was soll ich sagen… Seine Idee is großartig und super simpel… Einfach einen kleinen Service über Google Scripts bauen, der die Texte aus dem Feed automatisch übersetzt und dann wieder als Feed bereit stellt! Die Anleitung findet ihr auf labnol.org und mein etwas angepasstes Skript auf GitHub.

Ihr könnt meinen (notiz)Blog jetzt also auch auf Englisch abonnieren: https://notiz.blog/en/feed/ 😍

(Ich hab dazu auch eine Seite gebaut, die ihr unter „(en)“ im Menü findet.)

Danke Ray!

pubsubhubbub-logo

Seit ein paar Wochen scheint die Version 0.4 von PubSubHubbub relativ stabil zu sein… immerhin so stabil, dass Google und Superfeedr ihre Hubs an die neue Spec angepasst haben.

Die wesentlichen Unterschiede zu der Vorgängerversion sind:

  • Alle Datentypen werden unterstützt: Neben RSS/Atom können jetzt auch vCards, beliebige XML oder JSON Datein oder auch Bilder ge-push-t werden
  • Statt HTML/Atom-Links werden HTTP-Link-Header benutzt
  • Der Pubslisher-Prozess ist nicht mehr über die Spezifikation definiert

Für die zwei großen Hubs sollte es reichen wenn ihr eure Feed-<link />s („hub“ und „self“):

<?xml version="1.0"?>
<atom:feed>
  <link rel="hub" href="http://myhub.example.com/endpoint" />
  <link rel="self" href="http://publisher.example.com/happycats.xml" />
</atom:feed>Code-Sprache: HTML, XML (xml)

…zusätzlich über die HTTP-Header ausliefert:

HTTP/1.1 200 OK
Date: Tue, 03 Apr 2012 08:02:19 GMT
Content-Type: text/html
Content-Length: 11261
Link: <http://http://myhub.example.com/endpoint>; rel="hub"
Link: <http://publisher.example.com/happycats.xml>; rel="self"Code-Sprache: HTTP (http)

Leider ist die Version 0.4 aber nicht 100% abwärts-kompatibel… Die wahrscheinlich größte (und für mich enttäuschendste) Änderung ist das bewusste Weglassen des Publisher-Prozesses:

The publisher MUST inform the hubs it previously designated when a topic has been updated. The hub and the publisher can agree on any mechanism, as long as the hub is eventually able send the updated payload to the subscribers.

Auf der einen Seite kann das ein enormer Vorteil für Publisher sein, da Hubs in Zukunft auch per E-Mail, SMS, Pingbacks/Trackbacks oder XMPP über Updates informieren werden könnten. Auf der anderen Seite ist es aber auch sehr Wahrscheinlich, dass man für jedes v0.4 Hub eine individuelle Implementierung benötigt. Bisher unterstützen beide großen Hubs (Google und Superfeedr) aber weiterhin das alte Verfahren, also kein Grund sich jetzt schon Sorgen zu machen…

Alles in allem finde ich die Änderungen aber ganz nett und hoffe dass „Polling“ bald der Vergangenheit angehört…

Feed Icon

…ich hab's ja bisher immer verbummelt oder verpasst:

Aber jetzt, wo Google seinen Reader dicht macht, kann ich's endlich auch mal schreiben: RSS ist tot!

HTML5 Semantics Badge

Beim „basteln“ an SemPress, meinem ersten WordPress Theme, habe ich das erste Mal praktische Erfahrungen mit Schema.org gesammelt und mir sind vor allem zwei Dinge klar geworden: 1. Warum Schema.org nach einer Art „Vererbungs“-Prinzip aufgebaut ist und 2. Wie Google mit Schema.org umgeht.

The http://schema.org/Thing

Das „einfachste“ Schema ist ein „Thing“ und hat folgende Attribute:

descriptionTEXTA short description of the item.
imageURLURL of an image of the item.
nameTEXTThe name of the item.
urlURLURL of the item.

Da alle anderen Objekte auf dem „Thing“ aufbauen, kann man davon ausgehen dass man mind. auf diese vier Eigenschaften zugreifen kann und genau das ist der ganze Sinn hinter dieser Struktur.

Vor allem Google setzt massiv auf Schema.org, sei es beim Einsatz in der Suche (über die sogenannten Rich-Snippets)…

rich snippets example

…oder beim Anreichern der, über Google+ oder den +1 Button geteilten Links.

Google+ Example

Um das Parsen der Webseiten (zumindest für diese eher einfachen Ausgaben) auf ein Minimum zu reduzieren, ist die Grundstruktur immer gleich und alles darüber hinaus ist reine Kür. Wahrscheinlich werden aber 90% aller Anwendungen mit Titel (name), Beschreibung, Bild und URL auskommen.

Googles Umgang mit Schema.org

Wer seine Seite mit Schema.org auszeichnen möchte, sollte vor allem eines Beachten: Google+ (wahrscheinlich aber auch alle anderen Google Produkte) interpretiert immer das erste im Quellcode verwendete Schema!

Bei meiner ersten Implementierung von Schema.org habe ich mich etwas zu sehr an RSS bzw. Atom orientiert und folgenden Aufbau gewählt: Ein umschließendes Objekt um den Blog zu beschreiben und ein oder mehrere referenzierte Artikel.

<body itemscope itemtype="http://schema.org/Blog">
...
  <header id="branding" role="banner">
    <hgroup>
      <h1 id="site-title" itemprop="name"><?php bloginfo( 'name' ); ?></h1>
      <h2 id="site-description" itemprop="description"><?php bloginfo( 'description' ); ?></h2>
    </hgroup>
  </header>
...
  <article itemprop="blogPost" itemscope itemtype="http://schema.org/BlogPosting">
  ...
  </article>
  <article itemprop="blogPost" itemscope itemtype="http://schema.org/BlogPosting">
  ...
  </article>
...
</body>Code-Sprache: HTML, XML (xml)

Egal ob es jetzt um mehrere Artikel (Startseite) oder nur einen Artikel (Post oder Page) gehandelt hat.

Das hat bei Google+ dazu geführt, dass die notizBlog-Links immer mit dem Titel, der Beschreibung und dem Bild des Blogs und nicht mit denen des Artikels verknüpft wurden. Es ist also gerade für Blogs wichtig, dass das Blog-Schema nur auf den Übersichtsseiten benutzt wird und die Einzelansichten lediglich mit „http://schema.org/BlogPosting“ bzw. „http://schema.org/WebPage“ ausgezeichnet werden.

Pfefferles OpenWeb: Web Intents

Seit Freitag ist die zweite Ausgabe des SCREENGUI-Magazins (mit dem Fokus auf E-Payment, CSS4 und Boilerplates) in allen Bahnhofs- oder Flughafen-Buchhandlungen erhältlich.

In „Pfefferles OpenWeb“ geht es diesmal um Web Intents:

Seit Webseitenbetreiber das Potenzial von sozialen Netzwerken erkannt haben, nimmt die Anzahl der share, like, bookmark und +1 Buttons stetig zu und entwickelt sich zu einer regelrechten Plage. Jeder Besucher soll die Möglichkeit bekommen, seine Entdeckung schnellstmöglich mit seinen Freunden zu teilen – egal auf welcher Plattform. Um diesem Problem Herr zu werden, arbeitet Google seit ein paar Wochen an einem Framework namens Web Intents.

Viel Spaß beim lesen!

Ich habe mich letzte Woche ein wenig mit Carsten über das „scheitern“ des OpenWebs unterhalten… wen es interessiert und wer mit diskutieren will, sollte am besten bei Marcel vorbei schauen, der hat den Dialog schön zusammengefasst und um ein paar eigene Gedanken erweitert.

Marcels Fazit:

Neben dem Chaos, das das Einbinden offener Standards, oder Möchte-gern-Standards für Entwickler unattraktiv macht, gibt es noch ein weiteres Problem, dem sich das Open Web, das dezentrale Web, gegenüber sieht: Die Protagonisten, also die Fürsprecher und die, welche die Grundlagen entwerfen und weiter entwickeln, haben es bis dato versäumt, einen effektiven Hebel zu erschaffen, um Anreize für alle Seiten zu generieren, die dann zu den virtuosen selbstverstärkenden Effekten führen.

Die im Gespräch angemerkte Kurzlebigkeit der Standards ist das Gegenteil eines effektiven Hebels: Sie treibt die notwendige Entwicklerseite frustriert weg.

Ich bin im übrigen mittlerweile fast der Meinung, dass jede signifikante Weiterentwicklung von Webstandards von Unternehmen wie Google und Facebook kommen wird und muss. Denn in deren Produkten steckt der Hebel schon drin. Das bringt uns allerdings wieder zurück zu den Argumenten von Bradbury zur Abhängigkeit bei Web-APIs.

Obwohl ich das immer noch nicht so richtig wahr haben will hat Marcel mit seiner Aussage wohl den Nagel auf den Kopf getroffen. Ein aktuelles Beispiel: Schema.org! Ich beschäftige mich seit mehr als 5 Jahren mit Microformats und RDFa… für mich ist Schema.org einfach nur ignorant!
Für die meisten Webentwickler ist Schema.org aber der erste Berührungspunkt mit Websemantiken, wieso sich also weiter mit Altlasten herumplagen. Google, Microsoft und Yahoo! einigen sich auf Schema.org… ein simples Format und ein valider Usecase. Damit wird Schema.org zum neuen defacto Standard ohne je den Anspruch darauf erhoben zu haben:

schema.org is not a formal standards body. schema.org is simply a site where we document the schemas that three major search engines will support.

Der Punkt ist: Was bringens uns „Standards“ von W3C und IETF wenn sie niemand unterstützt. Wir brauchen Formate die ein Bedürfnis decken und von der breiten Masse akzeptiert werden… ob man sie jetzt „Standard“ nennt oder nicht!

(Um dieses Thema geht es übrigens auch in meiner Kolumne im nächsten Webstandards Magazin.)

Webstandards Magazin Nr. 11

Seit 16.09. ist das neue Webstandards-Magazin im Handel erhältlich und gerade jetzt vergess‘ ich darüber zu posten… immerhin enthält es Folge 10 von Pfefferles OpenWeb 🙂

…und zur Feier des Tages gibt es ein wenig Schema.org-Bashing:

Knapp 2 Milliarden Webseiten sind mit einer hCard ausgezeichnet und RDFa verzeichnete zwischenzeitlich ein Wachstum von 510% , trotzdem haben sich Google, Yahoo! und Microsoft dazu entschlossen ein neues Format zu entwickeln.

Viel Spaß beim lesen und ich freue mich wie immer über ein bisschen Feedback.