PageRank has not been available for a few days
Moe blogged about it, I hadn't noticed it yet. Doesn't seem really important to me ...
Moe blogged about it, I hadn't noticed it yet. Doesn't seem really important to me ...
Blechtrommeln machen Lärm and like Heiko, I'll keep banging on my little drum. Even if I'm just one Oskar Matzerat among many.
Ann Elisabeth was diligent and identified the Bulgarian twin spammers - who are likely responsible for a large part of blog spam.
Michael Hampton examines what nofollow has really brought: Nofollow revisited. If you're still using the raw version of WordPress: NoNoFollow install and disable nofollow.
That's the summary of Don's complaint about RSS readers. Sorry, but at this point, it's really getting on my nerves (Don isn't the first, just the loudest on this topic): if you provide an RSS feed, you have to accept at least one thing: that people will use it. If you're so cheap and don't offer a full-text feed, but at the same time are too lazy to write an excerpt for an article, then you can't complain that people judge you after the first few sentences - you only give them the first few sentences to see.
No, it's ridiculous to expect everyone to only read blogs in their original form on the website. Yes, this means, for example, that the layout of blogs is lost because you can't see it in the RSS reader. Yes, that's definitely a good thing - especially with various far-right blogs or blogs with stupid color choices with insufficient contrast between text and background.
If a user with an RSS reader doesn't manage to entice me to read an article (if it's not fully included in the feed, then also on the website) with their entries, they've done something wrong with their RSS feed. Period.
Insulting users with RSS readers is a rarely stupid action for someone who always claims to understand blogs in discussions and always mocks other bloggers - be it because of their tech obsession, their arrogance, or whatever else displeases the gentleman ...
Chaoswind hit a round number here: this is the 1000th comment on this blog. I mean, I'm already surprised that I have made over 4600 posts here myself, but that people write comments here and that there are even 1000 of them (ok, I wrote part of them), I find that even more astonishing.
Phillip Pearson has written a WP-plugin that simplifies simple pinging of TopicExchange. TopicExchange is essentially just a list of trackback targets with its own wiki for each trackback target. The idea is to provide a simple group blogging function that users can access through their own blogs.
So, tomorrow we're off to Flensburg. Taking photos, lounging around, checking out Flensburg, watching the Rum Regatta. Let's see if the weather gives us a chance - the forecasts sound more like frostbite and water damage.
In the meantime, I'll just let the blog keep drifting along. Check out the old clutter - there's plenty. Or alternatively, check out more interesting blogs or watch the wallpaper dry ...
Lewis Perdue claims that parts of Dan Brown's "The Da Vinci Code" were copied from his book "Da Vinci Legacy" and has set up a blog describing, for example, the publisher's reaction to the allegations in the lawsuit: Da Vinci Crock
Normally, such things are quickly and discreetly settled (no, not what you think - through payments, of course!), but with a megaseller like "The Da Vinci Code," the publisher naturally makes a fuss.
And now I'm wondering whether to give the whole thing the category "Law" or "Entertainment" or whether I need a category "Blogsoap."
(I found the whole thing at photomatt)
... that Google: my PyDS-Homepage always had a PageRank of 7 before, now only 6. Tsk. Such a thing. Somehow I now have the feeling that something has been taken away from me - I just don't know exactly what yet.
... if I get the following message when accessing your weblog:
Sorry, your IP address is listed in the local realtime blackhole list. You may not enter this site.
then you have done something wrong by definition. Blogs are meant as a means of communication - and installing silly communication preventers just because you don't want links in your referrer log that come from spammers is simply ridiculous. In that case, you might as well take your blog completely off the network.
XFN Graph graphically displays link relationships that are provided with XFN attributes.
News - Bombenstimmung im WWW - someone is upset here that George Orwell didn't censor the entire internet right away because there are so many bomb-making instructions on the net. If you read the article more closely, you will find a gem like this:
His company, a Hamburg-based internet filter provider, discovered a shocking record during the regular update of their blocking systems.
Well, so an online magazine has done nothing more than give a filter company free advertising and disguise it as a journalistic contribution. And then simply use the link to the filter manufacturer as a source - of course, filter manufacturers are always so neutral in their assessment of the net ...
Since the online magazine has an editorial staff according to the imprint, they probably think they fall under the category "professional journalists". Well, in that case, I would rather take a stack of bad blogs as reading material than such a stealth advertising heap ...
Seen at Netzbuch: Wordpress Website's Search Engine Spam - photomatt funds WordPress servers and the first WordPress employee through search engine spam. This is done through articles and hidden links to various high-cost search terms that then point to search engine spam pages provided by a service provider. photomatt is just the middleman - the spam bot, only he doesn't spam comments but search engine results.
In German: that's absolute crap. Such behavior is - especially for someone who suffers massively from spammers with his software - absolutely unacceptable behavior. The talk of "if the community doesn't like it, I'll stop" is bullshit - why did he even start such crap? Especially since blog software is repeatedly accused of being a search engine polluter, one should be very careful in this area with stupid ideas and not pour more oil on the fire ...
At the same time, this is another good reason for me to use GPL software: if it were a company whose actions I cannot accept, I would have to refrain from using the software. So I can continue to use the software - because the actual programmer is relatively indifferent, I can fork it anytime and go my own way with the software. The separation between the software provider and the software itself is much more open.
Let's see what comes out of the community discussion on the topic, if necessary, it's time for a fork ...
First fallout: wordpress.org has been removed from the Google index.
And since the discussion about the financing of projects keeps coming up and is used as an excuse for the behavior: sorry, but that's bullshit. You can't sanctify the means with the purpose - someone who suffers massively from spammers and indeed fights against them cannot resort to similar means. And yes, it is and remains spam: anyone who abuses search engines - and thus the searchers! - to push their ranking is a search engine spammer. Period. The comment spammers also like to excuse themselves by saying they only use open resources and don't really spam - bullshit, both.
Missed the all-around view. Anyone who also wants to check out the toy: theoretically, I should be able to send invites. If you think I actually should have passed you an invite and really want one to check it out: speak up. Oh yeah, you need a Yahoo ID for that. Oh, and if you want an invite even though I've never linked to your blog here or know you from anywhere: at least come up with an interesting reason why I should invite you.
The Pheed RSS Specification is an extension for RSS that allows you to explicitly include links to photos. Could be interesting for my Fotoblog. However, WordPress has few hooks for manipulating feeds.

The first ladybug of the year. There are a few more pictures in my new photoblog (not active since 2007). By the way, it also works with WordPress, but with a few self-knitted plugins for photo management and the strip calendar (I'll put that together someday and make it downloadable). I'm already quite satisfied with the state over there. In the long run, I will probably create a mechanism that allows the photos to wander into this site here as thumbnails and then post pictures here rather rarely (at most the usual snapshots).
Why did I build something myself at all? Well, I find a number of features of Flickr quite nice, but I have a massive aversion to entrusting my content to foreign servers where I have no say in the operation or software design. Therefore, I have stolen some of the ideas from Flickr and also helped myself generously from other projects (for example, I copied the idea for the strip calendar from PixelPost) and integrated everything into WordPress. The layout was once Kubrick, but I hope it has become sufficiently different from it even for Kubrick allergics.
I had also looked at a whole range of content management systems beforehand to see how suitable they would be for something like this (you could read about the fallout from this partly here). And even toyed with the idea of doing the whole thing directly with PixelPost for a while. But the clearly superior comment features in WordPress (especially all the anti-spam techniques) eventually led me to stay with WordPress.
A few things are still on the to-do list, but in principle it is already quite usable and is therefore officially announced herewith.
Yahoo buys Flickr - which is one of the reasons why I no longer entrust my data to central services but do everything myself (and am currently working on a site based on WordPress with a few self-knitted plugins - stay tuned). I experienced this with OneList, I went through it with eGroups. Yahoo buys it and then there are tons of transition pains when merging the accounts. And afterwards there are tons of ads on the pages, forced ads on interstitial pages and all sorts of nonsense.
Unfortunately, social software is often operated by antisocial guys ...
Again, a social software manufacturer is causing a stir: Technorati censoring employee blogs? - of course, an employee can potentially harm a company if they speak negatively about the company or the business. That's one reason why there's nothing about my employer on my blog and nothing about our customers - you have to draw the line somewhere. But would I accept if my employer wanted to dictate what I think? If I were no longer allowed to report negatively about the nonsense of the IT industry because my employer is in the industry? I don't think so - that goes way too far.
Even as an employee of a company, one should be allowed to express one's opinion freely - within the limits of what is legally permitted, of course. Recently, I was even insulted as a German because we supposedly don't know what free speech is - we are all censored, regulated, and brainwashed. And then I read from the land of unlimited idiocy how free speech is trampled on there, lands you in jail, or gets you fired. Strange idea of free speech. And when I read the blogger's reaction - who was brainwashed there?
What kind of light this sheds on manufacturers of so-called social software is a whole different topic. It's not the first time that such a company has stood out extremely negatively (I spontaneously think of friendster) - communication seems to be a terrible threat to the communication experts.
blo.gs: for sale - oops. The operator of blo.gs wants to sell his entire system (domains, software, database).
Seen at Lummaland: BlogFox: everything just stolen - about a search engine that simply sucks up content from blogg.de and bags it. Not exactly the fine English way ...
Found in Lummaland: We will all be fired. Wow, exciting, a filter that blocks employees of a company from accessing weblogs so that no corporate secrets are published and no false image of the company is drawn. Nonsense. But you can make money with such marketing lies.
Blogs! Why Verisign or Jamba Six Apart and Livejournal will be bought - and why Don Alphonso sometimes scares me ...
GeoURL (2.0) - the other GeoURL, meaning the original one, is back. Not entirely original because it's operated by someone else, but it has the same URL and apparently the same database. Essentially, it's the same map and everything. So essentially everything is the same. Also the slow speed. Doesn't matter - geourl.info works just as well and a bit of redundancy never hurt anyone.
Nice Firefox extension: JustBlogIt with a simple right-click. And in the 0.2 version found there, it also works with blogging pages with umlauts in the title. The 0.1 version on the Firefox Extensions page is quite buggy.
Die Technorati Plugin Beta stellt eine ähnliche Liste wie die normalen Kommentare zur Verfügung - nur stammen die Links und Textauszüge aus dem Technorati Link-Kosmos zu einem Artikel. Ich überlege gerade ob man sowas nicht sinnvollerweise auch mit blogger.de machen könnte - damit könnte man auch die erwischen, die nicht über Trackback oder Pingback automatisch verlinkt sind. Man müsste natürlich Duplikate gegen die normalen Trackbacks und Pingbacks testen. Hmm.
Heute hab ich mir mal b2evolution angeguckt (wie üblich nur ein kurzer oberflächlicher Testflug). Das ist ja mit WordPress verwandt und alleine deshalb schon interessant - mal gucken was andere aus dem gleichen Basiscode gemacht haben. Also das Zeug geholt, das Kubrick Skin geholt (hey, ich mag Kubrick mitlerweile ) und losgelegt.
Was mir sofort auffällt: b2evolution legt wesentlich mehr Wert auf multi-allesmögliche. Multi-Blog (es werden gleich 4 Blogs vorinstalliert mitgeliefert, wovon eines ein "alle Blogs" Blog ist und eines ein Linkblog), Multi-User (mit Berechtigungen für Blogs etc. - also als Bloggerplattform für kleinere Usergruppen geeignet) und Multi-Language (nett: man kann an jedem Posting die Sprache festlegen, Sprachen pro Blog festlegen). Das gefällt schon mal. Das Backend ist leidlich gut zu bedienen und man findet das meiste recht fix wieder.
Aber dann die Dokumentation. Ok, ja, das wichtigste ist dokumentiert und auffindbar. Aber sobald man in die Tiefe geht, ist nahezu nichts selbsterklärend oder dokumentiert. Ok, ich gebs zu, ich hätte mir nicht gleich auf die Fahnen schreiben sollen die URIs auf die komplizierteste Form zu bringen - nämlich über sogenannte Stub-Dateien. Das sind alternative PHP-Files über die alles gezogen wird um darüber spezielle Einstellungen vorzubelegen. Angeblich soll man damit auch eine URI-Struktur wie bei Wordpress hinkriegen - der b2evolution-Standard ist nämlich so, das in der URI immer das index.php vorkommt und die zusätzlichen Elemente hinten drangehängt sind. Das ist hässlich. Das will ich nicht. Das zu ändern geht scheinbar nur mit Apache-Mitteln in Handarbeit (nein, nicht wie bei WordPress die nette und freundliche Unterstützung der automatisch generierten .htaccess Datei) und dann entsprechenden Einstellungen in b2evolution. Ok, kann man machen - ich kenne Apache gut genug. Aber wieso so umständlich, wenns auch einfacher geht?
Nunja, aber der echte Pferdefuss für mich kommt noch: b2evolution kann nur Blogs. Jedenfalls in der Standardausstattung. Genau - nur Listen von Postings die zeitlich geordnet sind. Langweilig. Nicht mal einfache statische Pages - sorry, aber wo pack ich das Impressum hin? Von Hand erstellte Files, die man daneben packt? Möglich, klar. Aber nicht gerade anwenderfreundlich.
Antispam-Mittel gibts auch einige, zum Beispiel eine zentral gepflegte Sperrwortliste (naja, Sperrwortlisten halte ich persönlich nicht für so geeignet) und Benutzerregistrierung. Nicht viel, aber erstmal ausreichend. Mehr kann man sicherlich über Plugins machen. Beim Stichwort Plugins ist eine sehr nette Eigenschaft zu nennen: man kann am Posting unterschiedliche Filter aktiviert haben. Je nach Posting immer wieder neu. Sehr nett - WordPress hat da ein echtes Defizit, die aktivierten Filter gelten für alles über alles - eine Änderung und alte Postings werden plötzlich falsch formatiert (wenn es ein Output-Filter ist).
Ebenfalls nett: die hierarchischen Kategorien verhalten sich wirklich hierarchisch - bei WordPress sind die ja nur hierarchisch gruppiert, aber z.B. wird mit der Hierarchie nicht viel gemacht. Bei b2evolution wandern Postings einer Kategorie automatisch an die übergeordnete, wenn eine Kategorie gelöscht wird. Ausserdem kann man durch die Multiblog-Eigenschaft an einem Posting Kategorien verschiedener Blogs aktivieren und damit sozusagen crossposten - wenn es denn in den Settings erlaubt ist.
Layoutanpassungen gehen über Templates und Skins. Templates sind vergleichbar zum WordPress 1.2 Modus und Skins eher zum WordPress 1.5 Modus. Also bei Templates wird alles durch ein PHP-File gezogen und bei Skins werden mehrere Vorlagen zusammengefasst und dann daraus das Blog gebaut. Spezialanpassungen kann man dann über eigene Stubdateien machen (die gleichen die auch für die hübscheren URIs genommen werden sollen) und darüber z.B. feste Layouts aufbauen mit denen man dann zum Beispiel statische Seiten simulieren könnte.
Alles in allem das Ergebnis des Kurzfluges: nettes System (trotz der etwas barocken Ecken in der URI-Erstellung und der recht spartanischen Dokumentation) für Hacker und Leute die sich in den Code reinwühlen mögen. So zum direkt losstarten finde ich es weniger geeignet - da ist WordPress wesentlich einfacher zu verstehen und zu starten. Und um mit Drupal zu konkurrieren ist b2evolution in den Features zu mager - einfach zu stark auf Blogs ausgerichtet. Man kann es zwar in die passende Richtung verbiegen - aber warum sollte man das machen wollen, wenn man auch was fertiges nehmen kann, das all das schon kann?
Hmm. Klingt relativ ähnlich zu dem was ich vor fast einem Jahr über b2evolution geschrieben habe. Viel Entwicklung hat es dort irgendwie nicht gegeben in der Zwischenzeit.
... weise ich darauf hin das ich Trackbacks von Blogs einfach lösche, wenn deren einziger Zweck die Promotion von irgendwelchen obskuren Amazon-Shops ist. Sorry, aber bloss weil der Werbemüll in einer Weblogsoftware abgelegt ist heisst das nicht, das ich jeden unpassenden Trackback durchwinke. Und nein, nur weil ein Stichwort aus dem Posting auch bei mir in einem Posting vorkommt ist das noch lange kein interessanter Trackback sondern einfach nur Spam.
Weil mich der Pepino gerade danach fragte hab ich mal mein Deep Link Finder Script online gestellt. Es ist ein einfaches Python Script. Sollte ab Python 2.2 laufen, möglicherweise sogar mit Python 2.1 (ist aber nicht getestet). Das Script wird im Source konfiguriert (ich hab Kommentare dazu geschrieben) und dann einfach mit mehreren Logfiles als Parameter aufgerufen. Es sammelt aus Apache Combined Logs raus welche Sites wie oft auf angegebene Dateitypen (konfigurierbar, eingestellt sind einige Bildertypen) deep linked. Es spuckt dazu ein HTML Fragment raus das man mit Header und Footer garnieren kann um es online zu stellen - zum Beispiel entstehen so meine Zeitgeist-Seite für Deep Links. Die anderen Seiten haben ähnlich aufgebaute Scripte, nur das halt Suchbegriffe und generelle Referrer eingesammelt werden.
Ich guck mir ab und an die Deep Linker Liste an und wenn dann da jemand auftaucht der recht viel deep linkt und kein Aggregator oder News-Service ist, dann kriegt derjenige ein entsprechendes Austauschbild vorgesetzt. Aber eben auch wirklich nur diese Sites. Mich stört das nämlich auch immer wenn mir in meinem Feedreader unterstellt wird ich sei ein Bilderdieb oder Traffic-Räuber
Aus dem CSS Zen Garden: ein liquid Design das sich an em und ex orientiert und deshalb im Layout mit einer geänderten Fontgrösse mitwächst und schrumpft. Das wäre eventuell eine brauchbare Basis für mein Blog, denn gerade die Tatsache das ein fixed Design bei Fontgrössenänderung nicht sonderlich stabil reagiert stört mich an Kubrick.
Jetzt muss ich nur noch rauskriegen wie ich das vernünftig umsetze. Vor allem die Kopfgrafik muss ich dann wohl deutlich anders einbringen - Bilder wachsen ja nunmal nicht sinnvoll mit. Mal schauen ob ich irgendwann Lust zum Basteln finde.
GeoURL ist neu belebt worden - bzw. es ist ein neuer GeoURL Service aufgebaut worden. Einfach hingehen, die eigene Site anmelden und dann einen Link wie meinen in der Nähe Link einbauen. Und schon können wir wieder sehen wer in der Nähe sitzt. Das ganze ist noch etwas spartanisch, aber es reicht um Nachbarn zu finden (Grüsse rüber nach Paderborn en Groetjes naar Enschede!).
Um meinem eingerostetes Niederländisch (ich kanns zwar relativ fliessend lesen, aber nur extrem holperig schreiben) zu helfen hat mir übrigens das deutsch-niederländische Wörterbuch bei pauker.at geholfen.
Update: cool, kaum postet man darüber, schon kommen auch andere Nachbarn wieder zum Vorschein. Und was stelle ich fest: die Gedankenschnipsel sind jetzt auch mit WordPress unterwegs.
Bloglines ist an Ask Jeeves verkauft - und wie seht ihr das jetzt mit der Verwendung eures Feeds in Bloglines? Ist das immer noch genauso ok wie vorher? Oder ist da jetzt ein Unterschied, wo plötzlich grösseres Geld fliesst?
blogg.de macht jetzt auch Tagging - und nach Rückfrage von mir jetzt auch so wie Technorati. Also mit dem category-Tag im RSS-Feed, wenn dort eines vorkommt. Da ich bei mir die Kategorien sowieso schon immer wie Tags benutze ist das also ausgesprochen praktisch - mein Postings landen in der richtigen Ecke bei blogg.de. Fein. Übrigens ist das auch meiner Meinung nach die intelligentere Alternative zu den einfach aufzusetzenden Gruppenblogs wie sie über Topicexchange realisiert werden sollten - einfach einen zentralen Pingdienst und entsprechende Einträge im RSS Feed.
NZZ Online-Archiv nicht mehr frei verfügbar - und damit ist die NZZ im Internet nicht mehr präsent. Was zum Geier soll eine Online-Verfügbarkeit nur am Tag der Printveröffentlichung bringen? Lächerlicher Murks der ach so professionellen Presse, die sich im Internet mal wieder als totale Stümper outen …
A Whole Lotta Nothing: No one can have nice things! - Matt schaltet bei sich Trackback aus. Interessant ist seine Beobachtung, das erst ein paar Test-Trackbacks gekommen sind und 8 Stunden nachdem diese immer noch da waren erst der grosse Schwung kam. Deckt sich mit den Erfahrungen anderer - die Spambots sind wohl im Moment noch halbautomatisch.
Bei Phil Ringnalda gibts noch mehr Überlegungen über Trackback und ob es überhaupt noch relevant ist - und ob die Art wie es meistens benutzt wird überhaupt Sinn macht. Sein Hauptpunkt ist die Tatsache das viele Trackbacks eher sinnlos sind - sie zeigen einfach nur auf ein Posting das letzten Endes nur ein klassisches Me Too enthält und wieder auf den Ursprung zurückzeigt. Er hätte lieber context-bezogene Pings - du hast was zu einem Thema geschrieben, das woanders auch diskutiert wird? Manuelles Trackback zu dem Posting hin verbindet diese beiden Seiten. Dieses themenbezogene Trackbacken war auch die Hauptidee hinter dem Internet Topic Exchange - im Prinzip einfach nur eine Trackback-Adresse und ein angehängtes Wiki. Zum Teil ist das auch ans Fliegen gekommen, aber weit durchgesetzt hat es sich nicht. Auch LazyWeb - ein Posting mit einem Problem, ein Trackback auf LazyWeb und vielleicht findet jemand eine Lösung - hat sich nicht so richtig durchgesetzt. Ok, es läuft, aber man hätte eigentlich mehr Echo erwartet.
Genau diese Verbindungen sind natürlich etwas die mit PingBack nicht so einfach machbar sind - PingBack setzt ja gerade auf der bidirektionalen Verlinkung auf, wohingegen Trackback bei diesen Beispielen gerade wegen seiner Entkoppelung von tatsächlichen Links interessant wäre.
Andererseits sehe ich ständig auf TopicExchange-Topics Poker-Spam - und damit ist auch so ein System früher oder später schlicht tot, ausser es finden sich genug Gärtner die das Unkraut rausrupfen.
Soviel mal wieder aus der selbstreferentiellen techno-babble Ecke.
Rogers Cadenhead mit ein paar Kommentare darüber, das die Wikipedia alle externen Links mit rel="nofollow" markiert. Besonders schade finde ich daran, das die Wikipedia ja üblicherweise nur auf solche externen Links verweist, die tatsächlich fachliche Qualität haben - oder zumindestens vom Wikipedia-Autor als solches angesehen wurden. Gerade ein Linkmonster wie die Wikipedia hat durch Links auf andere Seiten deren Positionierung verbessert - was nun besonders bei Info-Webseiten zu eher obskuren Themen sicherlich hilfreich war. Denn wer ausser Wikipedia linkt dort hin?
Also normalerweise erwähn ich die nicht, weil die sind ja doch eher putzig. Nur war ich dann doch heute ein bischen erstaunt:
8210 Besucher 15413 Besuche 73858 Seitenabrufe 1.96 GB Traffic
Das ist deutlich mehr als ich sonst immer hatte. Strange. Und da fehlt noch die erste Woche des Monats, da lief das ganze ja noch mit PyDS. Übrigens hab ich auch mehr Kommentare als sonst. Strange. Ich schreib doch garnicht besser als sonst ...
Isotopp grübelt anlässlich des Spamtags über Trackback Spam und stellt mehrere Ansätze vor. Einer davon arbeitet mit einer Gegenprüfung der Trackback-URL gegen die IP des einsendenden Rechners - wenn der Rechner eine andere IP hat als der im Trackback beworbene Server, dann wäre das warscheinlich Spam. Ich hab mal meine eigenen Kommentare dazu zusammengeschrieben - und begründet, warum ich Trackback lieber heute als morgen los wäre. Komplett. Und ja, das ist eine komlette 180-Grad Wendung meinerseits zum Thema Trackback.
Der IP-Test-Ansatz kommt mal wieder aus der Sicht der reinen servererstellten Blogs. Es gibt aber dummerweise einen grossen Haufen Trackback-fähiger Softwareinstallationen die nicht auf dem Server laufen müssen (oft auch nicht laufen) auf dem die Blogseiten liegen - alle Tools die statischen Output produzieren zum Beispiel. Grosse Installationen sind Radio Userland Blogs. Kleinere PyDS Blogs. Oder auch Blosxom-Varianten im offline-Modus (sofern es da mitlerweile trackbackfähige Versionen gibt - aber das es typische Hackertools sind, gibts das mit Sicherheit).
Dann gibts noch die diversen Tools die nicht Trackback-fähig sind, wo die User dann einen externen Trackback-Agent benutzen um die Trackbacks abzusetzen.
Und last but not least kommen auch noch die diversen Blogger/MetaWeblogAPI-Clients hinzu, die selber den Trackback absetzen weil z.B. nur MoveableType im MetaWeblogAPI das Triggern von Trackbacks erlaubt, aber andere APIs nicht.
Von daher ist der Ansatz mit der IP entweder nur als ein Filter zu sehen der einen Teil der Trackbacks durchwinkt, oder aber eine Verhinderung von Trackbacks von den oben genannten Usern. Und letzteres wäre ausgesprochen unschön.
Eigentlich ist das Problem ganz einfach: Trackback ist ein krankes Protokoll das mit der heissen Nadel gestrickt wurde, ohne das sich der Entwickler auch nur einen Hauch von Gedanken zu dem ganzen Thema gemacht hat. Und gehört daher IMO auf den Müllhaufen der API-Geschichte. Das ich es hier unterstütze liegt einfach nur daran, das WordPress es standardmäßig implementiert hat. Sobald der manuelle Moderationsaufwand zu hoch wird, fliegt Trackback hier ganz raus.
Sorry, aber in dem Punkt Trackback haben die MoveableType-Macher wirklich Nähe zu Microsoft-Verhalten gezeigt: einen völlig unzureichenden Pseudo-Standard durch Marktdominanz durchgedrückt - ohne sich überhaupt mal über die Sicherheitsimplikationen Gedanken zu machen. Warum wohl bei RFCs immer ein entsprechender Absatz über Sicherheitsprobleme zwingend ist? Leider haben die ganzen Blogentwickler alle fleissig mitgezogen (ja, ich auch - bei Python Desktop Server) und wir haben dieses alberne Protokoll am Hals. Und seine - völlig erwartbaren - Probleme.
Besser jetzt eine bessere Alternative entwickeln und forcieren - z.B. PingBack. Bei PingBack ist definiert, das die Seite die einen PingBack auf eine andere Seite ausführen will auch wirklich diesen Link dort exakt so enthalten muss - im API werden immer zwei URLs übertragen, die eigene und die fremde URL. Die eigene URL muss im Source auf die fremde URL zeigen, nur dann wird der fremde Server den PingBack annehmen.
Für Spammer ist das ziemlich absurd zu handhaben - sie müssten vor jedem Spam die Seite umschiessen oder über entsprechende Servermechanismen dafür sorgen, das die gespammten Weblogs dann beim Test entsprechend eine Seite vorgegaukelt bekommen, in der dieser Link drin ist. Natürlich ist das durchaus machbar - aber der Aufwand ist deutlich höher und durch die nötige Servertechnik ist das nicht mehr mit fremden offenen Proxies und/oder Dialup-Zugang machbar.
Von daher wäre der richtige Weg einfach der Wechsel des Linkprotokolls. Weg mit Trackback. Das Trackback-Loch kann man nicht stopfen. PS: wer sich mal meinen Trackback in Isotopps Posting anguckt sieht gleich das zweite Problem von Trackback: abgesehen vom riesigen Sicherheitsproblem ist nämlich die Zeichensatzunterstützung von Trackbacks schlichtweg ein totales Debakel. Auch hier hat der ursprüngliche Autor des Pseudo-Standards keine Minute über mögliche Probleme nachgedacht. Und dann wundern sich noch manche Leute wenn TypeKey von den Moveable-Type-Leuten nicht so richtig akzeptiert wird - sorry, aber Leute die so bescheidene Standards machen werde ich auch noch gerade die Loginverwaltung übertragen ...
Interview with a link spammer | The Register - kann natürlich ein Fake sein, aber die Jungs vom Register behaupten sie haben hier ein Interview mit einem Blog-Spammer.
phil ringnalda dot com: How do you stand it? - wie Phil Ringnalda die Geschichte von RSS träumt
Eric's Archived Thoughts: WP-Gatekeeper ist ein sehr interessanter Ansatz gegen Kommentarspam: es wird einfach eine von vielen vorkonfigurierten Fragen gestellt, auf die ein Mensch sehr einfach eine Antwort geben kann, ein Spambot aber nicht. Wird in ähnlicher Form ja schon in diversen Blogs benutzt, aber hier ist es schön ausgearbeitet (allerdings könnte es meines Erachtens auch komplett als Plugin realisiert werden). Die Grundidee ist im Prinzip die eines Captchas - aber eben ein textuelles Captcha. Ein Mensch kann die Frage was ist 1+1 gut beantworten - ein Spambot wird da nicht weiter kommen. Klar, Spammer können Datenbanken von Fragen und Antworten anlegen. Aber wenn jeder seine eigene Sammlung von Fragen einrichtet, wird es sie nicht weit bringen. Für Kommentarspam sollte es eine sehr brauchbare Lösung darstellen.
Leider gibts für Trackbacks nicht so eine einfache Lösung ...
Update: da ich die Idee irgendwie witzig finde, schreibe ich gerade ein entsprechendes Plugin. Kann also sein das meine Kommentare heute nacht etwas seltsam sich verhalten
heute.de - Die ungleichen Brüder. Mal ne gute Zusammenfassung der Blogwelt und der Beziehung zum Journalismus.
mit dem Link-Kondom rel="nofollow"
MT-Blacklist -> Hijacked comments.cgi - wer Moveable Type benutzt sollte das Kommentarscript abschalten. Die eMail-Verifizierung die prüft ob die Absenderadresseingabe keine Mist enthält ist falsch - wodurch man zusätzliche Empfängeradressen reinmogeln kann wenn man diese mit einem Linefeed von der eigentlichen Absenderadresse trennt. Und damit kann man dann lustig MT benutzen um andere Leute zu spammen.
Ein echter Anfängerfehler - die eMail-Validierung geschieht mit einer Regex die nicht auf das Ende des Strings matched und dotall benutzt - dadurch geht sie nur bis zu einem eventuellen Linefeed und ignoriert den Rest danach. Saublöd.

Der Schockwellenreiter mag rel="nofollow" nicht sonderlich und in diversen anderen Blogs kam das auch schon. Interessant auch der offene Brief der S9Y Entwickler an Google zu dem Thema.
Ich bin auch nicht sonderlich begeistert davon - einfach weil es der falsche Ansatz ist. Man kann kein defektes System reparieren in dem man neugierigen Leuten sagt sie sollen weggucken. Kommentarspammer wird das ganze in keinster Weise abhalten ihren Kram zu machen.
Ich kann Phil Rignalda nur zustimmen, das rel="nofollow" ist sowas wie der Monster-Disclaimer der Leute im Web. Letztendlich genauso seltsam wie die Link-Distanzierung die viele auf ihren Webseiten haben - wenn man sich distanziert, warum linkt man? Wenn man sich generell von seinen Kommentatoren distanziert, warum hat man dann eine Kommentarfunktion?
Egal wie, ich werd also nicht rel="nofollow" benutzen - jedenfalls nicht mittels eines grossen Eimers der sich über alles ausschüttet, nur weils Kommentar oder Trackback ist. Kommentarspam addressiert man anders. Zur Not dadurch, das alles in eine Moderationsqueue wandert, die dann eben mittels geeigneter Mittel vom Spam befreit werden muss - da setzen dann die gleichen Techniken an wie bei eMail-Spam. Das ist ein weitaus lohnenderes Betätigungsfeld.
WordPress : Tackling Comment Spam ist eine recht vollständige Zusammenstellung der diversen Ansätze gegen Kommentarspam und Trackbackspam in WordPress.
Asymptomatic » Got New Spam Tactic Figured berichtet übert eine neue Taktik der Blogspammer. Und zwar tauchen relativ harmlose Kommentare auf Blogs auf, die keinen einzigen Link enthalten. Wenn die Spammer diese Kommentare über Google wiederfinden wissen sie, das sie dort höchstwarscheinlich weitere Kommentare ablassen können - und umgehen die Sperren, die darauf beruhen das ein Kommentar automatisch freigegeben wird wenn ein Besucher unter seiner eMail-Adresse schon mal einen freigegebenen Kommentar hatte. Es könnte also sein das nach einem Hey, Deine Seite finde ich toll Kommentar dann plötzlich ein Berg von Blogspam aufschlägt ...
RSS 1.1: RDF Site Summary (DRAFT) - wie sinnvoll. Irgendjemand hat sich RSS 1.0 (ja, dieses ungeliebte RDF-basierte Format das eigentlich keiner so richtig kennt) und dazu einen Update entworfen. Weil, es gibt ja noch nicht genug Feed-Formate, da muss man ja unbedingt noch eins dazu packen.
Passend dazu bin ich dann auch noch über das HTML Syndication Format gestolpert - auch so eine sinnvolle Sache, da hat sich jemand gedacht den Feed einfach als speziell getaggten XHTML Source auszuliefern.
Und im Gegensatz zur RSS 3.0(das auf YAML basiert statt auf XML) meinen die anderen beiden es wohl mehr oder weniger ernst (beim HTML Syndication Format hoffe ich ja immer noch das es nur eine aufwändig gestaltete Ente war ...)