Seit letzter Woche ist es möglich, das Location-Feld (rechts oben im Profil) über die Twitter-API zu ändern.
Updates the location attribute of the authenticating user, as displayed on the side of their profile and returned in various API methods. Works as either a POST or a GET.
Mal schaun wann es den ersten Twitter-Dienst gibt, der die Location über das L: – nanoformat anpasst, oder wann es eine schöne fireeagle-Anbindung gibt.
Im MyBlogLog-Blog wurden gestern die neuen v/hCard Features von MyBlogLog vorgestellt.
Der vCard-Export spricht ja eigentlich für sich selbst, aber die hCard-Implementierung bedarf ein paar zusätzlicher Worte. Wie schon in den Kommentaren des letzten Posts so treffend bemerkt wurde, ist es ja eigentlich kein wirkliches Hexenwerk seine Seite zu microfromatieren, umso schöner finde ich es wenn sich jemand dabei Mühe gibt.
MyBlogLog hat der hCard eine eigene Seite spendiert, die man über das hCard-Icon (siehe Bild 1) erreicht…
Aber warum macht es Sinn die hCard auf eine extra Seite zu verbannen? Bei mehreren hCards auf einem Profil, wie im Falle von MyBlogLog (auch die Kontakte sind mit hCards ausgezeichnet), bekommt man beim interpretieren (parsen) der Seite das folgende Problem: Welche hCard ist die Richtige?
Der einfachste Weg um auf eine representative Identity zu verweisen ist, eine externe hCard auf der Profil-Seite mit rel-me zu verlinken. Im Fall von MBL sollte man dies über <link rel="me" /> im Header der Profilseite realisieren, da der Action-Stream auch eine hohe Anzahl an rel-me Links aufweist.
wondering if the FF HTML Validator extension could be hacked to support RDFa. Basic QA is a bit too complicated with only the w3.org checker
…hat er ihn heute auf seiner Webseite veröffentlicht 🙂
Benjamin Nowacks angepasster Validator basiert auf der HTML Validator Extension for Firefox von Marc Gueury und funktioniert leider vorerst nur unter Windows.
Cognition ist ein Parser (Perl 5) für alle möglichen Semantic-Web – und „lowercase semantic web“ – Standards:
Cognition is a parser for both “upper case Semantic Web” (RDF, RDFa) and “lower case semantic web” (microformats) technologies. It includes modules for exporting parsed data in a variety of formats, including RDF, vCard, iCalendar, Atom and KML.
Die Liste der unterstützten Metadaten und Semantiken ist definitiv zu lang um sie hier zu posten 🙂
NewsGator Online, die online Version von den klassischen Feed-Readern FeedDemon und NetNewsWire, unterstützt jetzt auch APML.
Der APML-Feed beinhaltet alle RSS-Feeds mit einer Wertigkeit, wahrscheinlich nach dem selben Prinzip errechnet wie der Feed Report bei NetNewsWire oder FeedDemon.
Der Online-APML-Feed ist also, wie auch der APML export bei FeedDemon nichts weiteres als ein OPML-Feed mit Attention Profile.
Leider ist NewsGator Online nur APML-Provider und bietet mir keine Möglichkeit, z.B. neue Feeds anhand meines Attention Profiling zu finden.
Ich höre immer häufiger von Leuten, die ihren RSS-Reader ausmisten, da einfach viel zu viele Informationen auflaufen, die in keiner annehmbaren Zeit „abgearbeitet“ werden können. Natürlich hat man mittlerweile einen Mechanismus entwickelt, mit dem man recht schnell zwischen wichtigen von unwichtigen Artikeln unterscheiden kann, aber warum sollte man diesen Vorgang nicht automatisieren?
Warum nicht einfach eines meiner Attention Profiles (z.B. der APML-Feed meines Weblogs) dazu verwenden, die Inhalte meiner abonnierten Feeds zu bewerten und dementsprechend zu filtern/sortieren. Das würde mir ne Menge Zeit ersparen und ich müsste auf keinen meiner Feeds verzichten.
…aber sicherlich arbeiten Google und NewsGator schon an genau diesem APML Filter für GoogleReader bzw. NewsGator Online 🙂
Eigentlich wollte ich NoseRub schon vor ner ganze Weile mal testen, jetzt habe ich die seit vorgestern erhältliche Version 0.6 zum Anlass genommen, NoseRub mal auf meinem Server zu installieren: pfefferle.org
Wer NoseRub, wie ich als SingleUser-System auf seinem Server/Webspace hosten will (anstatt als Service wie Identoo.com) muss nur zwei Dinge beachten:
NoseRub Registration Type
Zuerst sollte man sicherstellen dass sich keiner bei NoseRub registrieren kann, dazu einfach die Datei „app/config/noserub.php“ öffnen und den NOSERUB_REGISTRATION_TYPE auf none setzen.
Im zweiten Schritt kann man die Startseite (SocialStream) durch sein eigenes Profil ersetzen. Hierzu muss man in der „app/config/routes.php“ einfach nur die Zeile
Wer den Parser der SocialGraph API einmal testen will, um z.B. zu sehen welche Links einer Seite schon vom Google-Index erfasst wurden, dem bietet Google eine einfache Parser Testing API.
As a testing and debugging aid, the Social Graph API includes an API to run any document against the Social Graph API’s internal parser to see what it would’ve parsed, had Googlebot actually crawled it.
Und für faule Menschen wie mich gibts von Google auch gleich noch ein Greasemonkey script dazu 🙂
Ich glaube der Schmiermaxe und ich werden noch richtig dicke Freunde!
Justus Jonas – bekannt als 1. Detektiv aus Rocky Beach – bekommt in seiner Zentrale einen Anruf. Ein komischer Typ namens Jupiter von Die DR3i erzählt was von gleichen Freunden, komischen Namen und will ihm sein Detektivbüro zurück geben… Justus steigt noch nicht ganz dahinter, aber er glaubt die ??? haben einen neuen Fall!
So, ich hab mich jetzt auch mal fürs IdentityCamp Bremen angemeldet, zum einen wegen dem spannenden Thema:
Das Identitycamp Bremen wird das erste Barcamp in Deutschland speziell zum Themenbereich Identity 2.0, Single-Sign-On, Reputationsmanagement, Beziehungsmanagement, Privacy 2.0 und Verwandtes sein.
…und weil ich dann endlich mal Menschen wie z.B. Carsten Pötter, Thomas Huhn, Dennis Blöte oder Christian Scholz persönlich kennen lernen werde 🙂
Mein Problem ist jetzt nur noch die Anreise… Hat jemand nen Tip wie ich möglichst günstig nach Bremen komme? Oder fährt jemand aus dem Raum Mannheim/Karlsruhe mit dem Auto nach Bremen und will mich mitnehmen (natürlich beteilige ich mich dann auch am Benzingeld)?