sysadmin - 22.5.2004 - 12.7.2004

ICANN bleibt beim Sitefinder hart

Gute Entscheidung. Und am besten wirklich den RFC dicht machen bei Wildcards auf der Toplevel-Domain. Sorry, aber die Toplevel-Domain ist immer ein Punkt der Machtkonzentration - und damit grundsätzlich natürlich verlockend. Genauso grundsätzlich sollte sie aber von wirtschaftlichen Interessen freigehalten werden, jedenfalls soweit diese über den normalen Registraturdienst hinausgehen, da sie nunmal immens wichtig für den Betrieb ist. Da gibts keinen Platz für alberne Spielchen - diese ach so tollen neuen Dienste sind schlicht Blödsinn auf der Ebene. Nur weil Lackhersteller gerne mehr Lack verkaufen würden lackieren wir ja auch nicht die Autobahnen ...

Bei heise online news gibts den Originalartikel.

Coriolis Systems :: Products :: iPartition - Sowas wie Partition Magic für OS X

SubrosaSoft.com - Product Information - Und noch ein Repartitioniertool ala Partition Magic

Abkommen über Spam unter der Ägide der ITU?

Und schon beginnen die Begehrlichkeiten: Die ITU sei als einzige Standardisierungsorganisation, die praktisch alle internationale Regierungen und Private an einen Tisch bringe, sehr gut dafür geeignet. Sorry, Mr. Hill, das ist falsch. Private ist bei der ITU gleichbedeutend mit Grossunternehmen. Aber richtig putzig: Gefragt sei auf der Protokollebene im Prinzip eine Lösung, die zwischen dem gegen die IP-Welt gescheiterten X.400-Standard und SMTP liege, sagte Hill. Autsch. Nein. Niemand will irgendetwas das auch nur annähernd auf der Linie oder in der Richtung von X400 liegt. Das ist eine der Totgeburten der Design-by-Commitee-Philosophie der ITU. Ein Haufen Müll. Berge von Papier. Viel zu kompliziert.

Bei heise online news gibts den Originalartikel.

UN: Spam-Problem in zwei Jahren lösbar

Oh Mann, viel Ahnung haben die bei der Netzzeitung nicht, oder? Die ITU als UN zu titulieren ist mehr als albern. Die ITU ist zwar eine UN-Organisation - aber sie wird primär von Firmen, insbesondere grossen Telekommunikationsunternehmen, getragen. Vor allem ist die ITU eines: der Erzfeind der IETF.

Denn die ITU meint für alle Kommunikationssysteme verantwortlich zu sein und meint auch im Internet das Sagen zu haben. Dort ist aber die IETF der Standardgeber (bzw. eben nicht Standardgeber, sondern nur RFC Verwalter). Standards in der IETF entstehen ganz anders als in der ITU.

Die ITU definiert Standards in Kommitees. Der Zugang ist reglementiert und mit heftigen Gebühren belegt. Privatpersonen haben keine Chance in die ITU zu kommen, das geht nur über nationale Einrichtungen oder Grossunternehmen. Was Standard wird, wird in den geschlossenen Arbeitsgruppen entworfen - und zwar danach, was die Teilnehmer alles wollen. In der Regel endet ein ITU Standard als gemeinsame Sammlung aller Anforderungen. Der Standard selber ist oft sogar nur gegen Zahlung erhältlich, Referenzimplementierungen im Vorfeld der Standarderarbeitung existieren nur selten und Implementierungen generell sind meistens proprietär und kostenpflichtig.

Die IETF hingegen verwaltet nur den organisatorischen Teil - die eigentlichen RFCs entstehen in offenen Workinggroups. Jeder der will kann teilnehmen. RFCs müssen - wenn sie in den Standard-Track wollen - zwei unabhängige aber interoperatible Implementierungen vorweisen, die jedermann zugänglich sein müssen. Existierender und freier Code definiert was Standard wird.

Äusserungen der ITU zum Thema Internet sind oft einfach nur der Versuch in einem Bereich Einfluss zu gewinnen, in dem die ITU keine Rolle spielt, obwohl die Kommunikationstechnik sich immer stärker dorthin orientiert. Man braucht nur mal über Internet-Telefonie nachdenken um zu sehen zu was für einem Problem sich das für die ITU - die derzeit den Telefoniesektor fast komplett kontrolliert - auswirken kann.

Aber gerade wegen der sehr unterschiedlichen Arbeitsweise will eigentlich niemand die ITU im Internetsektor als relevante Organisation. Ein Internet, in dem die Standards durch nationale Vertreter und Grossunternehmen definiert werden, wäre nicht da wo das Internet heute durch die hemdsärmelige und pragmatische Vorgehensweise der IETF ist.

Also bitte die ITU nicht in Titel als UN unterschummeln. Nicht die UN will etwas, sondern die ITU - und das was sie will hat nur indirekt mit unseren Problemen zu tun. Was sie will ist Einfluss und Kontrolle.

Bei NETZEITUNG.DE Internet gibts den Originalartikel.

iPods a security risk, warns complete idiot

Spannend. Gartner warnt vor iPods, weil die ja Firewalls und Virenscans auf Mailservern umgehen können - User können da ja Daten drauf transportieren. Gilt zwar auch für alle anderen mobilen Festplatten, USB Memory Sticks, Disketten und weiss der Himmel was noch, aber man muss natürlich explizit vor dem iPod warnen.

Wollen die Gartner-Jungs einfach nur ein paar iPods bei verängstigten Unternehmen abzocken, oder sind die wirklich so blöd?

Bei Engadget gibts den Originalartikel.

Weils gestern um Online-Oldies ging ...

... hab ich in groups.google.com mal danach gesucht wann die ersten Newspostings auftauchen, in denen der Providerverein, mit dem ich angefangen bin (als User und als Gründungsmitglied), referenziert wurde. Gegründet haben wir uns (OUT e.V. - Domain westfalen.de) in 1993. Das kann man in der Vereinsgeschichte nachlesen. Allerdings hatten wir anfangs nur UUCP, da wir noch keine Anbindung für IP kriegen konnten - die Uni Münster weigerte sich, entgegen der Richtungsvorgabe des DFN, uns anzuschliessen.Ab 1995 hatten wir Anbindung über einen lokalen Provider. Und am 1. Mai 1995 ist das erste Posting archiviert, in dem einer unserer User seine Homepage angegeben hat. Leider geht http://archive.org/ nicht weit genug zurück, die ersten Homepages wären schon interessant ... Hier gibts den Originalartikel.

MUTE: Simple, Anonymous File Sharing - Filesharing auf Basis eines "chaotischen" Routings

BSI stellt Behörden-Desktop zum Download bereit

Nett. Vor allem das sie auf Debian aufbauen.

Bei heise online news gibts den Originalartikel.

Glibc-based Debian GNU/kFreeBSD - Debian auf dem FreeBSD Kernel

Sicherheitsloch in iptables bei Linux-Kernel 2.6

Ekelig. Ok, nicht für alle Konfigurationen relevant, aber trotzdem ekelig. Und mal wieder ein Beweis dafür das C eine bescheuerte Sprache ist - bestenfalls ein glorifizierter Assembler.

Bei heise online news gibts den Originalartikel.

Bergen Linux User Group

RFC 1149 - TCP over Avian Carrier - wurde tatsächlich mal implementiert. Es gibt Bilder von dem Event und eine kurze Beschreibung. Pingzeiten von über 6000 Sekunden. Wow.

Hier gibts den Originalartikel.

LinuxTag: Global File System unter GPL

Na endlich. Vielleicht gibts ja jetzt endlich eine brauchbare Cluster-Filesystem-Lösung für Linux. Brauchen würden wir das schon länger ...

Bei heise online news gibts den Originalartikel.

News: Microsoft distanziert sich von AdTI-Studie

Na sowas, nicht mal Microsoft will den Unfug unterstützen, und die sind sich doch sonst nicht zu schade für Lügen über Open Source

Hier gibts den Originalartikel.

Gravierende Sicherheitslücke im Linux-Kernel 2.4 und 2.6

Och Menno ...

(Zum Glück hab ich auf meinen Servern nur vertrauenswürdige User)

Bei heise online news gibts den Originalartikel.

Zurück in der Zukunft

DSL tut wieder

Katastrophe! Weltuntergang! Anarchie!

Mein DSL ist ausgefallen. Grauenhaft. Ich musste meine alten Modem-Kenntnisse auskramen, Kollegen wegen Einwahltelefonnummern anrufen und noch einige andere Hirnakrobatie ausführen (wie zum Beispiel mich an die Einwahlmodalitäten bei http://www.westfalen.de/ erinnern) um wenigstens wieder einen ISDN Internet-Zugang zum Laufen zu bekommen. Jetzt ruckelt das Weltnetz hier mit dörflichen 64 KBit per X75 Kodierung über die Strippe ... Willkommen in der Steinzeit

New image gallery plugin - needs testers - Wordpress Plugin für Bilder an Postings

PyWork - Web-Framework auf Basis Apache, mod_python, XSLT und ZPT

PS/2 and MCA History - Geschichte der IBM PS/2 Systeme

Rebuttal to Ken Brown

Tanenbaum ist cool

Hier gibts den Originalartikel.

iSync ist Moppelkotze

Ich hab einfach nur nach mehreren Tagen mal wieder einen Sync machen wollen, schon meint iSync meine ganzen Termine vom Organizer auf den Mac kopieren zu müssen - ohne das ich auf dem Organizer auch nur eine einzige Änderung gemacht hätte, die sich auf diese ganzen Termine bezieht. Das ist doch hirnrissig. Und man kann nicht mal in der Meldung, die einem was von 132 neuen Objekten erzählt, erkennen welche Objekte das denn nun sind und von welchem Gerät sie kommen - erst hatte ich den Sync mit dem Handy im Verdacht.

Warum kriegt Apple keine vernünftige Synchronisation hin und nervt uns mit diesem lächerlichen Haufen Mist?

Ist ja ganz nett das man mit iSync alle möglichen Geräte synchronisieren kann und auch mehrere Geräte auf einmal synchronisieren kann. Nur bringt das garnichts, wenn die Synchronisation mit schöner Regelmäßigkeit die Daten dupliziert und durcheinanderwirft.

QDB: Quote #330261

Oh Mann ...

Hier gibts den Originalartikel.

The Spinning Cube of Potential Doom

Sehr interessant: eine grafische Darstellung von Security-Events, die verschiedene Portscan-Techniken optisch erkennbar macht.

Hier gibts den Originalartikel.

E-MailRelay -- SMTP proxy and store-and-forward MTA - allgemeiner SMTP Proxy mit eigenem Spoolhandling und der Möglichkeit externe Filter einzubinden

mtaproxy.py - Teergrube utuility for SpamBayes - Teergrube mit integriertem SpamBayes

RoughingIT - pyblosxom 1.0 Release

PyBlosxom (Blosxom in Python) gibts jetzt als 1.0 Release seit dem 25. Mai - noch neu genug, das man jetzt noch drüber schreiben darf

Hier gibts den Originalartikel.

Stopping spam with the Anti-Spam-SMTP-Proxy (ASSP) - SMTP Proxy mit Bayesian Filtering, der hier ist ohne Teergrube

Tollef Fog Heen : tech/Debian/2004-03-14-15-55_greylisting - Greylisting mit Exim und PostgreSQL

Tollef Fog Heen : Yahoo Breaking SMTP Standards

Einer der Gründe warum ich Greylisting nicht mag. Kurzfassung, was Greylisting ist: wenn ein Server eine Verbindung zu einem anderen Server zur Mailzustellung macht, wird ein Trippel aus Sendendem Host, Zieladresse und Quelladresse gebildet und nachgesehen, ob diese Kombination bekannt ist. Wenn nicht, wird die Kombination vorgemerkt und die aktuelle Mail wird erstmal mit einer temporären Abweisung verweigert. Theorie ist, das Mailserver erneute Zustellungen versuchen aber Spambots und Virenschleudern in der Regel nicht. So weit, so gut. Probleme mit dieser Vorgehensweise:

  • nicht jeder Mailserver reagiert auf temporäre Abweisungen korrekt. Beispiel Yahoo. Und das ist beileibe nicht der einzige Server der so reagiert.
  • auch bei temporären Abweisungen entstehend immer noch oft Bounces, die dann Mailinglistenhosts dazu bringen einen aus Listen auszutragen.
  • ein Spammer muss nur den Spam zweimal kurz nacheinander versuchen zuzustellen und der Spam geht durch. Das ist minimaler Aufwand für Spambots, entweder kriegt der User einen oder zwei Spams - bekommen wird er sie
  • Greylisting tuts nur, wenn man über alle MX Server Kontrolle hat für die eigene Domain, da sonst einfach Spam über die anderen Mailserver reinkommt, auf denen kein Greylisting läuft
  • wenn alle MXe Greylisting nutzen, werden Zustellversuche legitimer Mail verlangsamt, da diese normalerweise bei temporären Abweisungen die anderen MXe ausprobieren und da dann auch scheitern. Je nach Konfiguration rutscht man dann bei dem Server automatisch in langsamere Queues oder höhere Wartezeiten (weil halt schon bei drei MXen drei Zustellversuche fehlgeschlagen sind)
  • Whitelisting (was als Lösung für einige Probleme genannt wird) ist in sich ein Problem: Spam über Server auf der Whitelist wird nicht erkannt. Aber gerade manche von den grossen Verteilerservern muss man in die Whitelist eintragen, weil genau die die genannten Probleme haben (Yahoo ist nicht nur Quelle für viele Mailinglisten, sondern auch für viel Spam).
  • Probleme mit dem Greylisting bekommt man in der Regel eben nur indirekt mit - da es sich um einen weitestgehend transparenten Vorgang handelt und man eigentlich nur aus Reaktionen von anderen auf Probleme mit dem Greylisting schliessen kann.

Alles in allem hat Greylisting nur temporär einen Vorteil: weil es selten verbreitet ist, wird es derzeit von Spambots nicht berücksichtigt. Aber die Berücksichtigung ist trivial und würde automatisch bei verbreiteter Nutzung kommen. Damit ist Greylisting dazu verdammt unwirksam zu werden, wenn es sich weiter verbreitet.

Natürlich kann man viele der Probleme reparieren. Aber im Endeffekt ist das genauso der Versuch bei einem Sieb die Löcher mit Papier zu stopfen wie mit Regelbasierten Spam-Filtern gegen Spam vorzugehen. Immer noch ist die statistische Spam-Filterung (Bayesian Filter) die beste verfügbare Lösung.

Hier gibts den Originalartikel.

Gallery :: your photos on your website - Interessante Software für Fotoalben im Web

Photo Organizer - Feature-reiches Web-Photo-Album mit recht schickem Default-Look

SCO vs. Linux: Mission impossible

Ok. Erst stellt sich SCO hin und sagt das es Millionen von geklauten Zeilen gibt. Und das sie diese nennen können. Dann fordern sie Sourcen. Bekommen sie. Suchen ewige Zeiten darin rum und finden nichts. Hallo? Wieso müssen die überhaupt suchen, wenn die Stellen doch angeblich bekannt sind? Und wieso merken die nicht, das das JFS für Linux auf dem OS/2 JFS basiert? Das steht da doch sogar in der Dokumentation drin - wenn die in den Sourcen suchen, wieso lesen die die nicht gleich auch? Aber vermutlich wird das genau das Problem sein: wenn man Text nicht liest, kann man darin ewig lange suchen ohne jemals was zu finden

Bei heise online news gibts den Originalartikel.

Symantec-Chef: Windows ist nicht unsicherer als Linux

Jau, ganz klar. Windows ist das leichter zu treffende Ziel, deshalb ist es nicht von Natur aus unsicherer als Linux. Und natürlich liegen die Sicherheitsprobleme bei Anhängeklickern - komisch nur, das wesentlich mehr Serverattacken gegen Windows möglich sind, die alle nichts mit Anhängen zu tun haben. Und das ganze, obwohl bei Servern definitiv Linux und Apache der Zug sind der durch die ganze Stadt rollt, wärend der IIS - neben dem IE und Outlook das Sicherheitsloch schlechthin - eher nur in den schmuddeligen Vororten fährt ... Bei heise online news gibts den Originalartikel.

EditThisPagePHP - Seiten online editieren in PHP - Alternative für Situationen wo ein echtes CMS zu gross und ein Wiki oder Weblog zu starr in der Struktur ist

SCO vs. Linux: Investor Baystar steigt aus

Endgültiger Anfang des vorläufigen Endes?

Bei heise online news gibts den Originalartikel.

Vellum: a weblogging system in Python - Nettes kleines Weblog System in Python

drbs - Distributed Replicated Blob Server - Dem Google File System nachempfundenes Serversystem

paramiko: ssh2 protocol for python - SSH2 Protokoll Implementierung in Python

PYSH: A Python Shell - Shell die Python als Shellsprache benutzt

SoftPear - PC/Mac Interoperability

Wow - jetzt haben die auch einen Recompiler für Maschinencode mit drin. Das klingt immer interessanter - ein Recompiler ist der wichtigste Schritt für brauchbare Performance für solche Systeme.

Hier gibts den Originalartikel.

Sun Insists that Red Hat Linux is Proprietary

Nur um mal zu zeigen das die IT-Welt mehr Bekloppte hat als nur den SCO-Chef. Der Realitätsverlust des SUN-Chefs ist auch ganz beachtlich

Hier gibts den Originalartikel.

The Contiki Operating System - System für Rechner mit beschränktem Speicher

=F6 über Debian ...

Tja. Was erwarte ich von einer Distribution? Und warum benutze ich ausgerechnet Debian - und das schon seit Jahren? Vermutlich sind es unterschiedliche Erwartungshaltungen, warum ich mit Debian so gut zufrieden bin.

Eine Distribution muss für mich das Basis-System realisieren - dieses muss stabil sein (aus dem Grund setze ich fast immer Debian Stable ein), sollte aber leicht erweiterbar sein (aus diesem Grund benutze ich an ausgewählten Stellen Rückportierungen aus Unstable oder Testing).

Die Distribution muss die Aktualisierung des Basis-Systems einfach machen - ein Basis-System besteht aus einem Haufen von Komponenten, die alle irgendwelche Löcher haben können. Ich hab keine Lust mich mit diesen potentiellen Löchern rumschlagen - das ist der Job der Distribution. Debian macht das durch apt nahezu trivial. Ich will sehen können was ein Upgrade bedeutet - damit ich entscheiden kann, ob ich ihn machen will oder nicht. Debian bietet dazu die Werkzeuge (z.B. die automatische Anzeige von Changelogs und kritischen Bugs vor der Installation eines Paketes). Die Distribution muss mir an definierten Stellen und mit einfachen Mitteln das Ausbrechen aus der normalen Distribution ermöglichen. Jede Binärdistribution hat das gleiche Problem: Paketmaintainer suchen aus, wie Programme konfiguriert sein sollen. Das geht oft gut - gelegentlich geht es aber auch extrem schief. Daher muss eine Binärdistribution es ermöglichen die Pakete notfalls selber zusammenzustellen. Bei Debian ist die Buildstruktur für Pakete sehr einfach aufgebaut. Die Anpassung von Paketen, die Rückportierung von Paketen aus Unstable oder Testing (um neuere Versionen als in der Stable zu bekommen) und die Erstellung eigener Pakete ist einfach. Ich bin nicht in das Korsett der Stable gezwungen - kann aber trotzdem in der Stable für das Grundsystem bleiben, um die gute Security-Infrastruktur von Debian zu nutzen. Das es zusätzlich trivial ist die eigenen Pakete auf viele Maschinen zu verteilen in dem man ein eigenes Paketrepository aufbaut und dieses neben den Standardrepositories einbindet ist nicht nur nice to have - es ist bei genügend grosser Anzahl von Maschinen essentiell.Eine Distribution muss funktionierende Paketabhängigkeiten haben und diese verdammt noch mal auch benutzen. Und zwar durchgängig. Ich habe keine Lust ein Programm zu starten und dann komische Meldungen zu kriegen, nur weil irgendwelche Libraries oder andere Tools fehlen. Klar, andere Distributionen haben auch Abhängigkeiten - aber manchmal sind sie optional oder nur sehr flach im Einsatz. Debian ist durchgängig und geht sehr in die Tiefe - alles baut auf den Dependencies auf. Dadurch kann man sich relativ sicher sein, das Abhängigkeiten erfüllt sind, wenn man ein Paket normal installiert. Wenn nicht, ist das ein klarer Bug und kann über das Bugreporting gemeldet werden - und wird auch behoben. Abhängigkeiten sind nicht nice to have , sondern essential . Punkt. Natürlich muss eine Distribution auch bei den Abhängigkeiten Ausbrüche aus dem Korsett erlauben. Debian hat dazu mehrere nette Utilities, mit denen man Abhängigkeiten lösen kann - z.B. Pseudopakete, die einfach nur sagen das ein bestimmtes Paket installiert sei. Dieses Paket kann dann durchaus handinstalliert sein. Eine Distribution muss wissen was Config-Files sind. Das heisst das sie unter keinen Umständen auf meinen Config-Files rumzutrampeln hat. Wenn eine Distribution bei einem Update meine Configs überschreibt und ich Kommentare ala mach vorher Backups davon kriege, fliegt die Distribution raus. Sorry, aber da habe ich absolut keine Toleranz. Eine Distribution hat eine Konfiguration nur unter klar definierten Umständen zu ändern. Und nein, ich habe da auch mit Debians debconf nicht viel Mitleid - wenn der Paketupgrade meine Configs schreddert, hagelt es Bugreports. Configfiles gehören mir, nicht der Distribution. Basta. Eine Distribution soll verdammt noch mal nicht versuchen alle Probleme der Welt zu lösen. Und vor allem soll sie möglichst nicht versuchen schlauer zu sein als die ursprünglichen Programmierer eines Paketes. Wenn ein Programm eine Struktur an Configfiles hat, dann soll die mindestens optional ohne Probleme mit der Distribution genutzt werden können. Und das heisst auch, das die Distribution nicht drauf rumtrampelt, nur weil sie meint das sie ein besseres Tool dafür hat. Abgesehen davon stinken alle Konfigurationswerkzeuge aus dem Mund.

Worauf ich nicht unbedingt scharf bin: immer die allerneuesten Pakete zu haben. Sorry Leute, aber das ist die blöde Updateritis die im Windows-Land um sich greift. Immer das neueste haben müssen. So ein Blödsinn. Apache 1.3 macht seinen Dienst gut, nicht mal die neueste 1.3 muss man haben - wenn die Security-Patches rückportiert wurden. Und das macht Debian. Security-Pastches für die Stable aktualisieren nicht einfach kommentarlos auf eine neue Version mit neuen, unbekannten Problemen. Statt dessen wird - wenn möglich - der Patch in die alte Version rückportiert und darüber verfügbar gemacht. Security-Updates sollten nur unter absoluten Ausnahmezuständen Konfigurationsänderungen des Admins erfordern oder Systemkomponenten abändern, was zu potentiellen Problemen führt. Ich will vor und nach dem Update ein glatt laufendes System haben!

Auch bin ich nicht besonders scharf auf tolle grafische oder textorientierte Konfigurations- oder Administrationswerkzeuge. Sorry, aber das ideale Werkzeug für diese Zwecke heisst vim und das perfekte Datenformat sind Textdateien. Und ja, ich kann debconf nicht sonderlich gut leiden - zum Glück kann man es an den Stellen wo es nervig wäre schlicht umgehen - und Debian lässt die Pfoten von den vorhandenen Standardkonfigurationen, auch wenn ein Paket normalerweise debconf benutzt. Wenn nicht, ist das ein Bug.

Ich erwarte aber von einer Distribution eine gewisse Transparenz in dem was sie treibt. Ich halte nichts von Ein-Mann-Shows in die man nicht reingucken kann - wo einer selbstherrlich entscheided was gut oder richtig ist. Oder vielleicht auch wenige. Ich will in alles reingucken können - denn auch der Prozess der Distributionserstellung kann Bugs haben, die für mich wesentlich sind. Daher bin ich auch garnicht scharf darauf das eine Firma eine Distribution aufbaut. Sorry, aber früher oder später kommen dann die tollen Gewinnmaximierungsstrategien ala RedHat Enterprise oder den vergleichbaren Suse-Ansätzen. Wenn eine Distribution den Standardmailer wechselt, will ich die Diskussion dazu sehen, warum er gewechselt wird - mit den Pro- und Contra-Argumenten. Ich will nachvollziehen können, warum sich etwas wie entwickelt. Ich will vorgewarnt sein. Natürlich interessiert mich das nicht bei jedem Paket - aber bei den wesentlichen, die mich interessieren, will ich diese Informationen. Transparenz ist wichtig - das fängt bei einem transparenten Bugtracking an und endet bei einer transparenten Projektstruktur. Hätte ich kein Interesse an Transparenz könnte ich genausogut Solaris installieren. Oder Windows. Womit ich keine Probleme habe: eine Lernkurve beim Einsatz des Systems. Systemadministration ist ein Job. Ein Job erfordert Lernen. Wer nicht bereit ist zu lernen sollte die Finger von dem Job lassen. Argumente ala da muss ich ja erst verstehen wie das System arbeitet zählen nicht. Es gibt Haufenweise Dokumentationen und gute Bücher zur Debian als Startpunkt. Lesen. Lernen. Das gehört nunmal dazu. Dagegen helfen auch keine bunten Werkzeuge und keine vollmundigen Versprechungen von Herstellern über die einfachste zu installierende Linux Distribution - alles Bullshit. Wenn es hart auf hart geht, muss man das System vom Kernel bis zum Dotfile beherrschen können. Und dazu muss man sowieso lernen, egal wie die das System heisst. Das Erlernen einer Distribution und deren Funktionieren ist eine Investition für Jahre. Daher will ich auch nicht meine Investition den Bach runter gehen sehen, nur weil mal eben das System wild umgebaut wurde, weil es dem Hersteller so gefällt oder weil es cooler ist oder weil es sich so besser verkauft, weil ein weiteres Buzzwort erfüllt ist. Distributionen benötigen Evolution, nicht Revolution.

Debian ist nicht die perfekte Linux Distribution - die gibt es nicht. Aber Debian ist verdammt nah dran.

Bei Die wunderbare Welt von Isotopp gibts den Originalartikel.

Datenbank Ingres wird Open Source

Ein weiterer getuneter Dinosaurier kehrt in seine angestammte Welt zurück

Bei heise online news gibts den Originalartikel.

Little Snitch - Reverse Firewall für Mac OS X - mal angucken, wenn ich Zeit hab

Die schlimmste aller Susen

Jedesmal wenn ich mir solche Upgrade-Stories durchlese frage ich mich, wo jetzt eigentlich der tolle Vorteil der Suse gegenüber der Debian liegt. Was bringt mir eine Distribution, die bei der Installation hübsch bunt aussieht, aber nicht vernünftig upgradebar ist? Und erzählt mir jetzt nicht, das sei ein Einzelfall mit der Suse 9.1 - ich habe ähnliche Horrorstories von nahezu jedem Suse-Upgrade gelesen.

Bei Die wunderbare Welt von Isotopp gibts den Originalartikel.

Rubicode - RCDefaultApp

Sehr praktisch: einstellen der diversen Default-Handler für diverse Dateitypen, URL-Typen, Mime-Typen etc. Genau das Panel, das Apple aus den Systemeinstellungen rausgelassen hat ...

Hier gibts den Originalartikel.

WordPress 1.2

Die finale ist draussen. Allerdings tuts das Trackbacken immer noch nicht so ganz richtig - jedenfalls wenn das Ziel ein Topic bei TopicExchange ist. Bei WordPress WordBlog gibts den Originalartikel.