blogging - 19.1.2005 - 29.5.2005

PageRank ist seit ein paar Tagen nicht mehr verfügbar

Moe blogged drüber, ich hatte es noch garnicht gemerkt. Scheint für mich nicht wirklich wichtig zu sein ...

Blechtrommeln machen Lärm und wie Heiko werd ich halt weiter auf meine kleine Blechtrommel hauen. Auch wenn ich nur ein Oskar Matzerat von vielen bin.

Ann Elisabeth war fleissig und hat die Bulgarian twin spammers identifiziert - die vermutlich für einen grossen Teil Blogspam verantwortlich sind.

Michael Hampton betrachtet was nofollow wirklich gebracht hat: Nofollow revisited. Wer noch mit der rohen Version von WordPress arbeitet: NoNoFollow installieren und nofollow abschalten.

Blogbücher schreiben, aber RSS nicht kapieren

Das jedenfalls ist die Zusammenfassung von Dons Beschwerde über RSS-Leser. Sorry, aber irgendwie geht mir das mitlerweile auf den Keks (Don ist nicht der erste, nur der lauteste zu dem Thema): wenn man einen RSS-Feed zur Verfügung stellt, muss man mindestens eines akzeptieren: das die Leute diesen benutzen. Wenn mann dann so arm ist und keinen Volltext-Feed anbietet, aber gleichzeitig zu faul zu einem Artikel einen Excerpt zu schreiben, dann darf man sich nicht darüber auskotzen das die Leute einen nach den ersten paar Sätzen beurteilen - man gibt denen ja nur die ersten paar Sätze zu sehen.

Nein, es ist albern zu erwarten das jeder Blogs nur im Original auf der Webseite liest. Ja, damit geht zum Beispiel das Layout der Blogs flöten, weil man es im RSS-Reader nicht sieht. Ja, das ist durchaus positiv zu sehen - ganz besonders bei diversen Kackbraunen oder bei Blogs mit bescheuerter Farbwahl mit unzureichendem Kontrast zwischen Schrift und Hintergrund.

Wers nicht schafft mich mit seinen Einträgen im RSS-Feed dazu zu reizen einen Artikel (sofern er nicht im Feed vollständig ist dann auch auf der Website) zu lesen, der hat was mit seinem RSS-Feed falsch gemacht. Punkt.

User mit RSS-Readern jedenfalls zu beschimpfen ist eine seltem dämliche Aktion für jemanden der für sich in Diskussionen immer wieder in Anspruch nimmt Blogs kapiert zu haben und sich immer wieder dick über andere Blogger lustig macht - sei es wegen derer Technikverliebtheit, wegen derer Arroganz oder was auch immer sonst dem Herrn missfällt ...

Jubel-Äum oder so

Chaoswind hat hier eine runde Zahl getroffen: es ist der 1000ste Kommentar in diesem Weblog. Ich mein, ich bin ja schon erstaunt das ich selber mitlerweile über 4600 Postings hier gemacht habe, aber das Leute hier Kommentare schreiben und das dann auch noch 1000 Stück sind (ok, einen Teil davon hab natürlich ich geschrieben), das finde ich dann noch viel erstaunlicher

Ping TopicExchange von WordPress

Phillip Pearson hat ein WP-Plugin geschrieben das vereinfachtes einfaches Pingen von TopicExchange ermöglicht. TopicExchange ist im Prinzip einfach nur eine Liste von Trackback-Zielen mit einen eigenen Wiki pro Trackback-Ziel. Die Idee ist eine möglichst einfache Gruppenblogfunktion die von den Benutzern über ihre eigenen Blogs angesprochen werden können.

Urlaub!

So, morgen gehts ab nach Flensburg. Fotos machen, faulenzen, Flensburg angucken, Rum-Regatta angucken. Mal schauen ob das Wetter uns eine Chance gibt - die Vorhersagen klingen ja eher nach Frostbeulen und Wasserschaden

In der Zwischenzeit lasse ich das Blog einfach weiterdümpeln. Guckt euch das alte Gemölter an - gibt genug. Oder alternativ guckt euch interessantere Blogs an oder schaut der Raufasertapete beim Trocknen zu ...

Da Vinci Crock

Lewis Perdue sagt das der "Da Vinci Code" von Dan Brown in Teilen von seinem Buch "Da Vinci Legacy" abgeschrieben ist und hat da ein Blog zu aufgemacht in dem er zum Beispiel die Reaktionen des Herausgebers vom "Da Vinci Code" auf die Aussagen der Anklageschrift beschreibt: Da Vinci Crock

Normalerweise wird sowas ja wohl schnell und unauffällig bereinigt (nein, nicht was ihr denkt - durch Geldzahlungen natürlich!), aber bei einem solchen Megaseller wie der "Da Vinci Code" zickt der Verlag natürlich rum.

Und jetzt grübel ich ob ich dem ganzen noch die Kategorie "Recht" oder "Unterhaltung" geben sollte oder ob ich eine Kategorie "Blogsoap" brauche

(gefunden hab ich das ganze beim photomatt)

Degradiert ...

... hat mich Google: meine PyDS-Homepage hatte bisher immer einen Pagerank 7, jetzt nur noch 6. Tse. Sowas aber auch. Irgendwie hab ich jetzt das Gefühl man hätte mir was weggenommen - ich weiss nur noch nicht genau was

Nur so als Hinweis ...

... wenn bei Zugriff auf euer Weblog bei mir folgende Meldung kommt:

Sorry, your IP address is listed in the local realtime blackhole list. You may not enter this site.

dann habt ihr was per Definition falsch gemacht. Denn Weblogs sind als Mittel der Kommunikation gedacht - und alberne Kommunikationsverhinderer zu installieren nur weil man keine Links in seinem Referrer-Log haben will die von Spammern kommen ist schlichtweg hirnrissig. In dem Fall könnt ihr euer Weblog auch einfach ganz aus dem Netz nehmen.

XFN Graph stellt Linkbeziehungen grafisch dar die mit XFN attributen versehen sind.

Onlinemagazine und journalistische Ehrlichkeit

News - Bombenstimmung im WWW - da regt sich jemand drüber auf, das Otto Orwell nicht schon gleich das ganze Internet zensiert, weil ja so viele Bombenbauanleitungen im Netz stünden. Wenn man dann den Artikel genauer liest, findet man so eine Perle:

Sein Unternehmen, ein Hamburger Internet-Filter-Anbieter, hat bei der regelmäßigen Aktualisierung ihrer Sperrsysteme einen erschreckenden Rekord festgestellt.

Ok, also hat hier ein Online-Magazin nichts weiter gemacht als einem Filterunternehmen kostenlose Werbung zu schalten und das als journalistischen Beitrag zu verkleiden. Und dann als Quelle einfach nur den Link auf den Filterhersteller - klar, Filterhersteller sind ja immer sowas von neutral in der Beurteilung des Netzes ...

Da laut Impressum das Onlinemagazin eine Chefredaktion hat, meinen die wohl das sie unter die Schublade "professionelle Journalisten" fallen. Nunja, da nehme ich mir doch zehnmal lieber einen Stapel schlechter Blogs als Lektüre als so einen Schleichwerberhaufen ...

Wordpress Website's Search Engine Spam

Beim Netzbuch gesehen: Wordpress Website's Search Engine Spam - photomatt finanziert WordPress Server und den ersten WordPress Mitarbeiter über Suchmaschinenspam. Gemacht wird das über Artikel und versteckte Links auf diverse High-Cost Suchbegriffe die dann auf Suchmaschinenspamseiten zeigen, die von einem Dienstleister angeliefert werden. photomatt ist also nur der Mittelsmann - der Spambot, nur das er halt nicht Kommentare sondern Suchmaschinenergebnisse bespammed.

Auf deutsch: das ist oberste Scheisse. So ein Verhalten ist - gerade für jemanden der mit seiner Software massiv unter Spammern zu leiden hat - absolut inaktzeptables Verhalten. Das Gerede von "wenn die Community das nicht gut findet hör ich damit auf" ist Bullshit - warum hat er überhaupt so einen Scheiss angefangen? Ganz besonders weil Blogsoftware immer wieder als Suchmaschinenbeschmutzer beschimpft wird sollte man in dem Bereich sehr vorsichtig mit dummen Ideen sein und nicht noch extra Öl ins Feuer giessen ...

Gleichzeitig ist das für mich ein weiterer guter Grund auf GPL-Software zu setzen: wäre es eine Firma, deren Handeln ich nicht akzeptieren kann, würde ich auf den Einsatz der Software verzichten müssen. So kann ich die Software weiter benutzen - denn der eigentliche Programmierer ist relativ wurscht, ich kann jederzeit einen Fork machen und meinen eigenen Weg mit der Software gehen. Die Trennung zwischen dem Lieferanten der Software und der Software selber ist eben sehr viel offener.

Mal sehen was in der Community-Diskussion über das Thema rund kommt, notfalls wirds halt Zeit für einen Fork ...

Erster Fallout: wordpress.org ist aus dem Google-Index rausgeflogen.

Und da immer wieder die Diskussion um die Finanzierung von Projekten kommt und das als Entschuldigung für das Verhalten herangezogen wird: sorry, aber das ist Bullshit. Man kann nicht mit dem Zweck die Mittel heiligen - wer selber massiv unter Spammern leidet und sich durchaus gegen diese wehrt kann nicht zu ähnlichen Mitteln greifen. Und ja, es ist und bleibt Spam: wer Suchmaschinen - und damit die Suchenden! - missbraucht um sein Ranking hochzupushen ist ein Suchmaschinenspammer. Basta. Auch die Kommentarspammer reden sich gerne damit raus das sie ja nur offene Resourcen benutzen und garnicht wirklich spammen würden - Bullshit, alles beides.

Yahoo 360 Grad

Rundumblick verpasst bekommen. Wer sich das Spielzeug auch mal angucken will: theoretisch müsste ich in der Lage sein Invites zu schicken. Wer meint das ich ihm eigentlich einen Invite hätte verpassen sollen und tatsächlich einen will um sich das mal anzugucken: melden. Achja, man braucht ne Yahoo-ID dazu. Achso, und wer nen Invite will obwohl ich seinen Blog hier noch nie verlinkt habe oder ihn irgendwoher kenne: lasst euch wenigstens einen interessanten Grund einfallen warum ich euch inviten sollte

Pheed RSS Specification sind Erweiterungen für RSS mit denen man Links auf Fotos explizit rausreichen kann. Könnte für mein Fotoblog interessant sein. Allerdings hat WordPress etwas wenig Hooks für die Manipulation von Feeds.

Mein neues Fotoblog - und der erste Marienkäfer

Mein neues Fotoblog - und der erste Marienkäfer

Mein neues Fotoblog - und der erste Marienkäfer

Den ersten Marienkäfer dieses Jahr. Ein paar weitere Bilder gibts in meinem neuen Fotoblog (seit 2007 nicht mehr). Das übrigens auch mit WordPress arbeitet, aber mit ein paar selbstgestrickten Plugins für die Fotoverwaltung und den Streifenkalender (irgendwann pack ich das mal zusammen und machs downloadbar). Ich bin schon ganz zufrieden mit dem Stand da drüben. Auf Dauer werde ich wohl einen Mechanismus basteln mit dem die Fotos als Thumbs in diese Site hier reinwandern und hier dann eher selten Bilder posten (allenfalls die üblichen Snapshots).

Warum ich mir überhaupt was eigenes gebastelt habe? Naja, ich finde zwar eine Reihe von Features von Flickr sehr nett, aber ich habe eine massive Abneigung dagegen meine Inhalte fremden Servern anzuvertrauen bei denen ich weder über den Betrieb noch bei der Softwaregestaltung mitreden kann. Von daher habe ich mir einige der Ideen von Flickr geklaut und auch mich fleissig bei anderen Projekten bedient (die Idee für den Streifenkalender hab ich mir bei PixelPost abgeguckt zum Beispiel) und das ganze in WordPress integriert. Das Layout war mal früher Kubrick, aber ich hoffe es ist auch für die Kubrick-Allergiker genügend abweichend davon geworden

Ich hatte mir vorher auch eine ganze Reihe von Content-Management-Systemen angeguckt daraufhin wie geeignet die für sowas gewesen wären (den FallOut dazu konnte man ja teilweise hier lesen). Und sogar eine Weile mit der Idee gespielt das ganze mit PixelPost direkt zu machen. Aber die deutlich überlegenen Kommentarfeatures bei WordPress (speziell die ganzen Anti-Spam-Techniken) haben mich dann dazu gebracht bei WordPress zu bleiben.

Ein paar Sachen stehen noch auf der ToDo, aber im Prinzip ist es schon so ganz brauchbar und wird daher hiermit offiziös angeläutet.

Mein neues Fotoblog - und der erste Marienkäfer

Mein neues Fotoblog - und der erste Marienkäfer

Mein neues Fotoblog - und der erste Marienkäfer

Yahoo kauft wirklich Flickr

Yahoo kauft Flickr - was einer der Gründe ist, warum ich meine Daten nicht mehr Zentraldiensten anvertraue sondern alles selber mache (und für Bilder derzeit an einer auf Wordpress aufbauenden Site arbeite mit ein paar selbstgestrickten Plugins - stay tuned). Ich hab das mit OneList mitgemacht, ich hab das bei eGroups erlebt. Yahoo kauft es auf und danach kommen haufenweise Umstellungsschmerzen bei der Zusammenführung der Accounts. Und hinterher gibts dann haufenweise Werbung in den Seiten, Zwangswerbung auf Zwischenseiten und was noch alles für einen Unfug.

Social Software wird leider oft von Dissocial Guys betrieben ...

Social Software und un-Social Behaviour

Mal wieder tickt ein Social-Software-Hersteller aus: Technorati censoring employee blogs? - klar, ein Mitarbeiter kann unter Umständen einem Unternehmen schaden wenn er negativ sich über das Unternehmen oder das Business äussert. Das ist ein Grund warum auf meinem Weblog nichts über meinen Arbeitgeber zu finden ist und nichts über unsere Kunden - man muss halt Grenzen ziehen. Aber würde ich hinnehmen, wenn mein Arbeitgeber mir vorschreiben will was ich zu denken habe? Wenn ich nicht mehr negativ über den Unfug der IT-Industrie berichten dürfte, weil mein Arbeitgeber in der Branche ist? Ich glaube nicht - das geht deutlich zu weit.

Auch als Mitarbeiter eines Unternehmens muss es einem erlaubt sein seine Meinung frei zu äussern - im Rahmen dessen was gesetzlich erlaubt ist, natürlich. Ich bin letztens noch in einer Diskussion als Deutscher beschimpft worden, weil wir ja garnicht wüssten was freie Meinungsäußerung ist - wir wären ja alle zensiert und reglementiert und hirngewaschen. Und dann lese ich aus dem Land der unbegrenzten Idiotie wie freie Meinungsäusserung dort mit den Füssen getreten wird, in den Knast fliegt oder gefeuert wird. Komische Vorstellung von freier Meinungsäußerung. Und wenn ich mir die Reaktion des Bloggers durchlese - wer ist da eigentlich hirngewaschen worden?

Was für ein Licht das auf Hersteller sogenannter Social-Software wirft, ist ein ganz anderes Thema. Es ist ja nicht das erste Mal das so ein Unternehmen extrem negativ auffällt ( friendster fällt mir da spontan ein) - Kommunikation scheint für die Kommunikationsexperten eine schreckliche Bedrohung zu sein.

blo.gs: for sale - hups. Der Betreiber von blo.gs will sein ganzes System (Domains, Software, Datenbank) verkaufen.

Bei Lummaland gesehen: BlogFox: alles nur geklaut - über eine Suchmaschine, die ihren Inhalt einfach bei blogg.de absaugt und eintütet. Nicht gerade die feine englische Art ...

Im Lummaland gefunden: Wir werden alle entlassen werden. Hui, spannend, ein Filter der Mitarbeitern eines Unternehmens den Zugriff auf Weblogs sperrt, damit dort keine Firmengeheimnisse veröffentlicht und kein falsches Bild von der Firma gezeichnet wird. Grober Unfug. Aber mit solchen Marketinglügen macht man Geld.

Blogs! Warum Verisign bzw. Jamba Six Apart und Livejournal kaufen wird - und warum mir Don Alphonso manchmal Angst macht ...

GeoURL (2.0) - das andere GeoURL, also das originale, ist wieder da. Nicht ganz original, weil anderer Betreiber, aber gleiche URL und gleiche Datenbank scheinbar. Eigentlich auch gleiche Karte und so. Also eigentlich alles gleich. Auch die magere Geschwindigkeit. Egal - geourl.info tut genauso gut und ein bischen Redundanz hat noch niemandem geschadet.

Sehr nette FireFox Extension: JustBlogIt with a simple right-click. Und in der dort zu findenden 0.2er Version klappts auch mit dem Bloggen von Seiten mit Umlauten im Titel. Die 0.1er auf der FireFox Extensions Seite ist da ziemlich buggy.

Die Technorati Plugin Beta stellt eine ähnliche Liste wie die normalen Kommentare zur Verfügung - nur stammen die Links und Textauszüge aus dem Technorati Link-Kosmos zu einem Artikel. Ich überlege gerade ob man sowas nicht sinnvollerweise auch mit blogger.de machen könnte - damit könnte man auch die erwischen, die nicht über Trackback oder Pingback automatisch verlinkt sind. Man müsste natürlich Duplikate gegen die normalen Trackbacks und Pingbacks testen. Hmm.

Neues Spiel, neues Glück: b2evolution

Heute hab ich mir mal b2evolution angeguckt (wie üblich nur ein kurzer oberflächlicher Testflug). Das ist ja mit WordPress verwandt und alleine deshalb schon interessant - mal gucken was andere aus dem gleichen Basiscode gemacht haben. Also das Zeug geholt, das Kubrick Skin geholt (hey, ich mag Kubrick mitlerweile ) und losgelegt.

Was mir sofort auffällt: b2evolution legt wesentlich mehr Wert auf multi-allesmögliche. Multi-Blog (es werden gleich 4 Blogs vorinstalliert mitgeliefert, wovon eines ein "alle Blogs" Blog ist und eines ein Linkblog), Multi-User (mit Berechtigungen für Blogs etc. - also als Bloggerplattform für kleinere Usergruppen geeignet) und Multi-Language (nett: man kann an jedem Posting die Sprache festlegen, Sprachen pro Blog festlegen). Das gefällt schon mal. Das Backend ist leidlich gut zu bedienen und man findet das meiste recht fix wieder.

Aber dann die Dokumentation. Ok, ja, das wichtigste ist dokumentiert und auffindbar. Aber sobald man in die Tiefe geht, ist nahezu nichts selbsterklärend oder dokumentiert. Ok, ich gebs zu, ich hätte mir nicht gleich auf die Fahnen schreiben sollen die URIs auf die komplizierteste Form zu bringen - nämlich über sogenannte Stub-Dateien. Das sind alternative PHP-Files über die alles gezogen wird um darüber spezielle Einstellungen vorzubelegen. Angeblich soll man damit auch eine URI-Struktur wie bei Wordpress hinkriegen - der b2evolution-Standard ist nämlich so, das in der URI immer das index.php vorkommt und die zusätzlichen Elemente hinten drangehängt sind. Das ist hässlich. Das will ich nicht. Das zu ändern geht scheinbar nur mit Apache-Mitteln in Handarbeit (nein, nicht wie bei WordPress die nette und freundliche Unterstützung der automatisch generierten .htaccess Datei) und dann entsprechenden Einstellungen in b2evolution. Ok, kann man machen - ich kenne Apache gut genug. Aber wieso so umständlich, wenns auch einfacher geht?

Nunja, aber der echte Pferdefuss für mich kommt noch: b2evolution kann nur Blogs. Jedenfalls in der Standardausstattung. Genau - nur Listen von Postings die zeitlich geordnet sind. Langweilig. Nicht mal einfache statische Pages - sorry, aber wo pack ich das Impressum hin? Von Hand erstellte Files, die man daneben packt? Möglich, klar. Aber nicht gerade anwenderfreundlich.

Antispam-Mittel gibts auch einige, zum Beispiel eine zentral gepflegte Sperrwortliste (naja, Sperrwortlisten halte ich persönlich nicht für so geeignet) und Benutzerregistrierung. Nicht viel, aber erstmal ausreichend. Mehr kann man sicherlich über Plugins machen. Beim Stichwort Plugins ist eine sehr nette Eigenschaft zu nennen: man kann am Posting unterschiedliche Filter aktiviert haben. Je nach Posting immer wieder neu. Sehr nett - WordPress hat da ein echtes Defizit, die aktivierten Filter gelten für alles über alles - eine Änderung und alte Postings werden plötzlich falsch formatiert (wenn es ein Output-Filter ist).

Ebenfalls nett: die hierarchischen Kategorien verhalten sich wirklich hierarchisch - bei WordPress sind die ja nur hierarchisch gruppiert, aber z.B. wird mit der Hierarchie nicht viel gemacht. Bei b2evolution wandern Postings einer Kategorie automatisch an die übergeordnete, wenn eine Kategorie gelöscht wird. Ausserdem kann man durch die Multiblog-Eigenschaft an einem Posting Kategorien verschiedener Blogs aktivieren und damit sozusagen crossposten - wenn es denn in den Settings erlaubt ist.

Layoutanpassungen gehen über Templates und Skins. Templates sind vergleichbar zum WordPress 1.2 Modus und Skins eher zum WordPress 1.5 Modus. Also bei Templates wird alles durch ein PHP-File gezogen und bei Skins werden mehrere Vorlagen zusammengefasst und dann daraus das Blog gebaut. Spezialanpassungen kann man dann über eigene Stubdateien machen (die gleichen die auch für die hübscheren URIs genommen werden sollen) und darüber z.B. feste Layouts aufbauen mit denen man dann zum Beispiel statische Seiten simulieren könnte.

Alles in allem das Ergebnis des Kurzfluges: nettes System (trotz der etwas barocken Ecken in der URI-Erstellung und der recht spartanischen Dokumentation) für Hacker und Leute die sich in den Code reinwühlen mögen. So zum direkt losstarten finde ich es weniger geeignet - da ist WordPress wesentlich einfacher zu verstehen und zu starten. Und um mit Drupal zu konkurrieren ist b2evolution in den Features zu mager - einfach zu stark auf Blogs ausgerichtet. Man kann es zwar in die passende Richtung verbiegen - aber warum sollte man das machen wollen, wenn man auch was fertiges nehmen kann, das all das schon kann?

Hmm. Klingt relativ ähnlich zu dem was ich vor fast einem Jahr über b2evolution geschrieben habe. Viel Entwicklung hat es dort irgendwie nicht gegeben in der Zwischenzeit.

Aus gegebenem Anlass ...

... weise ich darauf hin das ich Trackbacks von Blogs einfach lösche, wenn deren einziger Zweck die Promotion von irgendwelchen obskuren Amazon-Shops ist. Sorry, aber bloss weil der Werbemüll in einer Weblogsoftware abgelegt ist heisst das nicht, das ich jeden unpassenden Trackback durchwinke. Und nein, nur weil ein Stichwort aus dem Posting auch bei mir in einem Posting vorkommt ist das noch lange kein interessanter Trackback sondern einfach nur Spam.

Deep Links finden in Logfiles

Weil mich der Pepino gerade danach fragte hab ich mal mein Deep Link Finder Script online gestellt. Es ist ein einfaches Python Script. Sollte ab Python 2.2 laufen, möglicherweise sogar mit Python 2.1 (ist aber nicht getestet). Das Script wird im Source konfiguriert (ich hab Kommentare dazu geschrieben) und dann einfach mit mehreren Logfiles als Parameter aufgerufen. Es sammelt aus Apache Combined Logs raus welche Sites wie oft auf angegebene Dateitypen (konfigurierbar, eingestellt sind einige Bildertypen) deep linked. Es spuckt dazu ein HTML Fragment raus das man mit Header und Footer garnieren kann um es online zu stellen - zum Beispiel entstehen so meine Zeitgeist-Seite für Deep Links. Die anderen Seiten haben ähnlich aufgebaute Scripte, nur das halt Suchbegriffe und generelle Referrer eingesammelt werden.

Ich guck mir ab und an die Deep Linker Liste an und wenn dann da jemand auftaucht der recht viel deep linkt und kein Aggregator oder News-Service ist, dann kriegt derjenige ein entsprechendes Austauschbild vorgesetzt. Aber eben auch wirklich nur diese Sites. Mich stört das nämlich auch immer wenn mir in meinem Feedreader unterstellt wird ich sei ein Bilderdieb oder Traffic-Räuber

Podcasts? Nö.

podcast.jpg

liquid design auf em/ex Basis

Aus dem CSS Zen Garden: ein liquid Design das sich an em und ex orientiert und deshalb im Layout mit einer geänderten Fontgrösse mitwächst und schrumpft. Das wäre eventuell eine brauchbare Basis für mein Blog, denn gerade die Tatsache das ein fixed Design bei Fontgrössenänderung nicht sonderlich stabil reagiert stört mich an Kubrick.

Jetzt muss ich nur noch rauskriegen wie ich das vernünftig umsetze. Vor allem die Kopfgrafik muss ich dann wohl deutlich anders einbringen - Bilder wachsen ja nunmal nicht sinnvoll mit. Mal schauen ob ich irgendwann Lust zum Basteln finde.

GeoURL ist wieder da

GeoURL ist neu belebt worden - bzw. es ist ein neuer GeoURL Service aufgebaut worden. Einfach hingehen, die eigene Site anmelden und dann einen Link wie meinen in der Nähe Link einbauen. Und schon können wir wieder sehen wer in der Nähe sitzt. Das ganze ist noch etwas spartanisch, aber es reicht um Nachbarn zu finden (Grüsse rüber nach Paderborn en Groetjes naar Enschede!).

Um meinem eingerostetes Niederländisch (ich kanns zwar relativ fliessend lesen, aber nur extrem holperig schreiben) zu helfen hat mir übrigens das deutsch-niederländische Wörterbuch bei pauker.at geholfen.

Update: cool, kaum postet man darüber, schon kommen auch andere Nachbarn wieder zum Vorschein. Und was stelle ich fest: die Gedankenschnipsel sind jetzt auch mit WordPress unterwegs.

Bloglines an Ask Jeeves verkauft

Bloglines ist an Ask Jeeves verkauft - und wie seht ihr das jetzt mit der Verwendung eures Feeds in Bloglines? Ist das immer noch genauso ok wie vorher? Oder ist da jetzt ein Unterschied, wo plötzlich grösseres Geld fliesst?

Tagging bei blogg.de

blogg.de macht jetzt auch Tagging - und nach Rückfrage von mir jetzt auch so wie Technorati. Also mit dem category-Tag im RSS-Feed, wenn dort eines vorkommt. Da ich bei mir die Kategorien sowieso schon immer wie Tags benutze ist das also ausgesprochen praktisch - mein Postings landen in der richtigen Ecke bei blogg.de. Fein. Übrigens ist das auch meiner Meinung nach die intelligentere Alternative zu den einfach aufzusetzenden Gruppenblogs wie sie über Topicexchange realisiert werden sollten - einfach einen zentralen Pingdienst und entsprechende Einträge im RSS Feed.

NZZ Online-Archiv nicht mehr frei verfügbar - und damit ist die NZZ im Internet nicht mehr präsent. Was zum Geier soll eine Online-Verfügbarkeit nur am Tag der Printveröffentlichung bringen? Lächerlicher Murks der ach so professionellen Presse, die sich im Internet mal wieder als totale Stümper outen …

Trackback Thinking

A Whole Lotta Nothing: No one can have nice things! - Matt schaltet bei sich Trackback aus. Interessant ist seine Beobachtung, das erst ein paar Test-Trackbacks gekommen sind und 8 Stunden nachdem diese immer noch da waren erst der grosse Schwung kam. Deckt sich mit den Erfahrungen anderer - die Spambots sind wohl im Moment noch halbautomatisch.

Bei Phil Ringnalda gibts noch mehr Überlegungen über Trackback und ob es überhaupt noch relevant ist - und ob die Art wie es meistens benutzt wird überhaupt Sinn macht. Sein Hauptpunkt ist die Tatsache das viele Trackbacks eher sinnlos sind - sie zeigen einfach nur auf ein Posting das letzten Endes nur ein klassisches Me Too enthält und wieder auf den Ursprung zurückzeigt. Er hätte lieber context-bezogene Pings - du hast was zu einem Thema geschrieben, das woanders auch diskutiert wird? Manuelles Trackback zu dem Posting hin verbindet diese beiden Seiten. Dieses themenbezogene Trackbacken war auch die Hauptidee hinter dem Internet Topic Exchange - im Prinzip einfach nur eine Trackback-Adresse und ein angehängtes Wiki. Zum Teil ist das auch ans Fliegen gekommen, aber weit durchgesetzt hat es sich nicht. Auch LazyWeb - ein Posting mit einem Problem, ein Trackback auf LazyWeb und vielleicht findet jemand eine Lösung - hat sich nicht so richtig durchgesetzt. Ok, es läuft, aber man hätte eigentlich mehr Echo erwartet.

Genau diese Verbindungen sind natürlich etwas die mit PingBack nicht so einfach machbar sind - PingBack setzt ja gerade auf der bidirektionalen Verlinkung auf, wohingegen Trackback bei diesen Beispielen gerade wegen seiner Entkoppelung von tatsächlichen Links interessant wäre.

Andererseits sehe ich ständig auf TopicExchange-Topics Poker-Spam - und damit ist auch so ein System früher oder später schlicht tot, ausser es finden sich genug Gärtner die das Unkraut rausrupfen.

Soviel mal wieder aus der selbstreferentiellen techno-babble Ecke.

Erster Fallout von rel="nofollow"

Rogers Cadenhead mit ein paar Kommentare darüber, das die Wikipedia alle externen Links mit rel="nofollow" markiert. Besonders schade finde ich daran, das die Wikipedia ja üblicherweise nur auf solche externen Links verweist, die tatsächlich fachliche Qualität haben - oder zumindestens vom Wikipedia-Autor als solches angesehen wurden. Gerade ein Linkmonster wie die Wikipedia hat durch Links auf andere Seiten deren Positionierung verbessert - was nun besonders bei Info-Webseiten zu eher obskuren Themen sicherlich hilfreich war. Denn wer ausser Wikipedia linkt dort hin?

Huch? Mediazahlen im Januar ...

Also normalerweise erwähn ich die nicht, weil die sind ja doch eher putzig. Nur war ich dann doch heute ein bischen erstaunt:

8210 Besucher 15413 Besuche 73858 Seitenabrufe 1.96 GB Traffic

Das ist deutlich mehr als ich sonst immer hatte. Strange. Und da fehlt noch die erste Woche des Monats, da lief das ganze ja noch mit PyDS. Übrigens hab ich auch mehr Kommentare als sonst. Strange. Ich schreib doch garnicht besser als sonst ...

Weg mit Trackback

Isotopp grübelt anlässlich des Spamtags über Trackback Spam und stellt mehrere Ansätze vor. Einer davon arbeitet mit einer Gegenprüfung der Trackback-URL gegen die IP des einsendenden Rechners - wenn der Rechner eine andere IP hat als der im Trackback beworbene Server, dann wäre das warscheinlich Spam. Ich hab mal meine eigenen Kommentare dazu zusammengeschrieben - und begründet, warum ich Trackback lieber heute als morgen los wäre. Komplett. Und ja, das ist eine komlette 180-Grad Wendung meinerseits zum Thema Trackback.

Der IP-Test-Ansatz kommt mal wieder aus der Sicht der reinen servererstellten Blogs. Es gibt aber dummerweise einen grossen Haufen Trackback-fähiger Softwareinstallationen die nicht auf dem Server laufen müssen (oft auch nicht laufen) auf dem die Blogseiten liegen - alle Tools die statischen Output produzieren zum Beispiel. Grosse Installationen sind Radio Userland Blogs. Kleinere PyDS Blogs. Oder auch Blosxom-Varianten im offline-Modus (sofern es da mitlerweile trackbackfähige Versionen gibt - aber das es typische Hackertools sind, gibts das mit Sicherheit).

Dann gibts noch die diversen Tools die nicht Trackback-fähig sind, wo die User dann einen externen Trackback-Agent benutzen um die Trackbacks abzusetzen.

Und last but not least kommen auch noch die diversen Blogger/MetaWeblogAPI-Clients hinzu, die selber den Trackback absetzen weil z.B. nur MoveableType im MetaWeblogAPI das Triggern von Trackbacks erlaubt, aber andere APIs nicht.

Von daher ist der Ansatz mit der IP entweder nur als ein Filter zu sehen der einen Teil der Trackbacks durchwinkt, oder aber eine Verhinderung von Trackbacks von den oben genannten Usern. Und letzteres wäre ausgesprochen unschön.

Eigentlich ist das Problem ganz einfach: Trackback ist ein krankes Protokoll das mit der heissen Nadel gestrickt wurde, ohne das sich der Entwickler auch nur einen Hauch von Gedanken zu dem ganzen Thema gemacht hat. Und gehört daher IMO auf den Müllhaufen der API-Geschichte. Das ich es hier unterstütze liegt einfach nur daran, das WordPress es standardmäßig implementiert hat. Sobald der manuelle Moderationsaufwand zu hoch wird, fliegt Trackback hier ganz raus.

Sorry, aber in dem Punkt Trackback haben die MoveableType-Macher wirklich Nähe zu Microsoft-Verhalten gezeigt: einen völlig unzureichenden Pseudo-Standard durch Marktdominanz durchgedrückt - ohne sich überhaupt mal über die Sicherheitsimplikationen Gedanken zu machen. Warum wohl bei RFCs immer ein entsprechender Absatz über Sicherheitsprobleme zwingend ist? Leider haben die ganzen Blogentwickler alle fleissig mitgezogen (ja, ich auch - bei Python Desktop Server) und wir haben dieses alberne Protokoll am Hals. Und seine - völlig erwartbaren - Probleme.

Besser jetzt eine bessere Alternative entwickeln und forcieren - z.B. PingBack. Bei PingBack ist definiert, das die Seite die einen PingBack auf eine andere Seite ausführen will auch wirklich diesen Link dort exakt so enthalten muss - im API werden immer zwei URLs übertragen, die eigene und die fremde URL. Die eigene URL muss im Source auf die fremde URL zeigen, nur dann wird der fremde Server den PingBack annehmen.

Für Spammer ist das ziemlich absurd zu handhaben - sie müssten vor jedem Spam die Seite umschiessen oder über entsprechende Servermechanismen dafür sorgen, das die gespammten Weblogs dann beim Test entsprechend eine Seite vorgegaukelt bekommen, in der dieser Link drin ist. Natürlich ist das durchaus machbar - aber der Aufwand ist deutlich höher und durch die nötige Servertechnik ist das nicht mehr mit fremden offenen Proxies und/oder Dialup-Zugang machbar.

Von daher wäre der richtige Weg einfach der Wechsel des Linkprotokolls. Weg mit Trackback. Das Trackback-Loch kann man nicht stopfen. PS: wer sich mal meinen Trackback in Isotopps Posting anguckt sieht gleich das zweite Problem von Trackback: abgesehen vom riesigen Sicherheitsproblem ist nämlich die Zeichensatzunterstützung von Trackbacks schlichtweg ein totales Debakel. Auch hier hat der ursprüngliche Autor des Pseudo-Standards keine Minute über mögliche Probleme nachgedacht. Und dann wundern sich noch manche Leute wenn TypeKey von den Moveable-Type-Leuten nicht so richtig akzeptiert wird - sorry, aber Leute die so bescheidene Standards machen werde ich auch noch gerade die Loginverwaltung übertragen ...

Interview with a link spammer | The Register - kann natürlich ein Fake sein, aber die Jungs vom Register behaupten sie haben hier ein Interview mit einem Blog-Spammer.

phil ringnalda dot com: How do you stand it? - wie Phil Ringnalda die Geschichte von RSS träumt

Eric's Archived Thoughts: WP-Gatekeeper

Eric's Archived Thoughts: WP-Gatekeeper ist ein sehr interessanter Ansatz gegen Kommentarspam: es wird einfach eine von vielen vorkonfigurierten Fragen gestellt, auf die ein Mensch sehr einfach eine Antwort geben kann, ein Spambot aber nicht. Wird in ähnlicher Form ja schon in diversen Blogs benutzt, aber hier ist es schön ausgearbeitet (allerdings könnte es meines Erachtens auch komplett als Plugin realisiert werden). Die Grundidee ist im Prinzip die eines Captchas - aber eben ein textuelles Captcha. Ein Mensch kann die Frage was ist 1+1 gut beantworten - ein Spambot wird da nicht weiter kommen. Klar, Spammer können Datenbanken von Fragen und Antworten anlegen. Aber wenn jeder seine eigene Sammlung von Fragen einrichtet, wird es sie nicht weit bringen. Für Kommentarspam sollte es eine sehr brauchbare Lösung darstellen.

Leider gibts für Trackbacks nicht so eine einfache Lösung ...

Update: da ich die Idee irgendwie witzig finde, schreibe ich gerade ein entsprechendes Plugin. Kann also sein das meine Kommentare heute nacht etwas seltsam sich verhalten

heute.de - Die ungleichen Brüder. Mal ne gute Zusammenfassung der Blogwelt und der Beziehung zum Journalismus.

mit dem Link-Kondom rel="nofollow"

MT-Blacklist -> Hijacked comments.cgi

MT-Blacklist -> Hijacked comments.cgi - wer Moveable Type benutzt sollte das Kommentarscript abschalten. Die eMail-Verifizierung die prüft ob die Absenderadresseingabe keine Mist enthält ist falsch - wodurch man zusätzliche Empfängeradressen reinmogeln kann wenn man diese mit einem Linefeed von der eigentlichen Absenderadresse trennt. Und damit kann man dann lustig MT benutzen um andere Leute zu spammen.

Ein echter Anfängerfehler - die eMail-Validierung geschieht mit einer Regex die nicht auf das Ende des Strings matched und dotall benutzt - dadurch geht sie nur bis zu einem eventuellen Linefeed und ignoriert den Rest danach. Saublöd.

verwirrtes Gesicht

nofollow no do

Der Schockwellenreiter mag rel="nofollow" nicht sonderlich und in diversen anderen Blogs kam das auch schon. Interessant auch der offene Brief der S9Y Entwickler an Google zu dem Thema.

Ich bin auch nicht sonderlich begeistert davon - einfach weil es der falsche Ansatz ist. Man kann kein defektes System reparieren in dem man neugierigen Leuten sagt sie sollen weggucken. Kommentarspammer wird das ganze in keinster Weise abhalten ihren Kram zu machen.

Ich kann Phil Rignalda nur zustimmen, das rel="nofollow" ist sowas wie der Monster-Disclaimer der Leute im Web. Letztendlich genauso seltsam wie die Link-Distanzierung die viele auf ihren Webseiten haben - wenn man sich distanziert, warum linkt man? Wenn man sich generell von seinen Kommentatoren distanziert, warum hat man dann eine Kommentarfunktion?

Egal wie, ich werd also nicht rel="nofollow" benutzen - jedenfalls nicht mittels eines grossen Eimers der sich über alles ausschüttet, nur weils Kommentar oder Trackback ist. Kommentarspam addressiert man anders. Zur Not dadurch, das alles in eine Moderationsqueue wandert, die dann eben mittels geeigneter Mittel vom Spam befreit werden muss - da setzen dann die gleichen Techniken an wie bei eMail-Spam. Das ist ein weitaus lohnenderes Betätigungsfeld.

WordPress : Tackling Comment Spam ist eine recht vollständige Zusammenstellung der diversen Ansätze gegen Kommentarspam und Trackbackspam in WordPress.

Got New Spam Tactic Figured

Asymptomatic » Got New Spam Tactic Figured berichtet übert eine neue Taktik der Blogspammer. Und zwar tauchen relativ harmlose Kommentare auf Blogs auf, die keinen einzigen Link enthalten. Wenn die Spammer diese Kommentare über Google wiederfinden wissen sie, das sie dort höchstwarscheinlich weitere Kommentare ablassen können - und umgehen die Sperren, die darauf beruhen das ein Kommentar automatisch freigegeben wird wenn ein Besucher unter seiner eMail-Adresse schon mal einen freigegebenen Kommentar hatte. Es könnte also sein das nach einem Hey, Deine Seite finde ich toll Kommentar dann plötzlich ein Berg von Blogspam aufschlägt ...

RSS 1.1: RDF Site Summary (DRAFT)

RSS 1.1: RDF Site Summary (DRAFT) - wie sinnvoll. Irgendjemand hat sich RSS 1.0 (ja, dieses ungeliebte RDF-basierte Format das eigentlich keiner so richtig kennt) und dazu einen Update entworfen. Weil, es gibt ja noch nicht genug Feed-Formate, da muss man ja unbedingt noch eins dazu packen.

Passend dazu bin ich dann auch noch über das HTML Syndication Format gestolpert - auch so eine sinnvolle Sache, da hat sich jemand gedacht den Feed einfach als speziell getaggten XHTML Source auszuliefern.

Und im Gegensatz zur RSS 3.0(das auf YAML basiert statt auf XML) meinen die anderen beiden es wohl mehr oder weniger ernst (beim HTML Syndication Format hoffe ich ja immer noch das es nur eine aufwändig gestaltete Ente war ...)