sysadmin - 17.12.2010 - 19.5.2011

TiddlySpace/tiddlyspace. Und weil ich gerade TiddlyWiki interessant finde: das Projekt hier ist ein Hostingprojekt für TiddlyWikis, die dort mit Benutzern verknüpft werden können und untereinander vernetzt werden können - klingt nach einer interessanten Plattform für Zusammenarbeit an Projekten zum Beispiel (also Projekte bei denen es nicht um Code geht - dafür gibts ja Github und Bitbucket). TiddlySpace ist auch eine direkte Plattform auf der man sich anmelden kann, oder man greift sich hier einfach deren Opensource Projekt und hostet eben selber.

On TermKit. Ein ziemlich cooles Projekt zur Neu-Erfindung von Terminals. In diesem Fall wird der Output als HTML gemacht und das Terminal wird nicht als einfache Konsole sondern als Browserfenster gerendert. Dadurch kann man zum Beispiel Verzeichnislisten grafisch machen oder Bilder direkt ausgeben. Das ganze geht auch auf Sachen wie Pipes ein und auf die Idee wie man Daten zwischen Werkzeugen transportiert, so das sie alle damit universell arbeiten können - hier kommt JSON zum Einsatz. Das ganze macht durchaus einen durchdachten Eindruck.

michaelmacinnis/oh. Eine Shell in Go. Die Shell hat einige interessante Features, zum Beispiel Prototyp-basierte Objektorientierung, first-class Funktionen und explizite Kanäle (was andere Shells implizit hinter Pipes liegen haben). Sieht auf den ersten Blick ganz interessant aus.

Javascript PC Emulator - Technical Notes. Ja, ein PC Emulator. Basiert auf QEmu, also durchaus ausgereifter Code. Bootet Linux im Browser. Weils geht.

ZenphotoPress ist ein Plugin für WordPress mit dem man auf Bilder und Galerien in ZenPhoto von WordPress aus zugreifen kann. Da man bei ZenPhoto ganze Ordner per FTP oder anderen Wegen hochladen kann (z.B. auch einfach in dem man das Albums-Verzeichnis in die Dropbox verlinkt) und damit Bilder recht simpel in Galerien landen, könnte man so auch schnell und simpel auf diese Bilder in WordPress zugreifen. Wär vielleicht mal was als Bastelprojekt, da ich immer noch auf der Suche nach simplen Wegen bin, wie ich aus Lightroom heraus mein Fotoblog füttern kann.

Dropbox Lied to Users About Data Security, Complaint to FTC Alleges. Nur nochmal als Erinnerung: wer sowas wie Dropbox (oder jeden der anderen Dienste mit vergleichbarer Funktion) benutzt, sollte clientseitig verschlüsseln (auf Macs bieten sich sparse Bundles an), wenn es kritische oder persönliche Inhalte sind. Denn selbst wenn ein Dienst verspricht, alles zu verschlüsseln und niemand könne die Daten lesen, kann dieser Dienst auch einfach lügen. Oder eine falsche Implementierung haben. Die Deduplizierung, das Foldersharing und die Tatsache, dass seit einigen Versionen auf jedes File eine public URL erzeugt werden kann - und damit in beiden Fällen Leute auf Files Zugriff bekommen, denen man ja nun nicht sein Passwort verraten hat - sollte klar machen, dass Dropbox zwangsweise dazu in der Lage sein muss serverseitig zu entschlüsseln. Was natürlich die falsche Präsentation in deren Werbeseiten nicht besser macht - klar, es war nur weglassen von Informationen, aber bei Sicherheitsaussagen sagt man lieber etwas mehr um klar zu machen was man tatsächlich garantiert. Wenn man wesentliche Informationen weglässt, braucht man sich nicht wundern wenn man (zu Recht!) als Lügner hingestellt wird. Und gerade in den USA könnte sowas eine Firma ziemlich in Bedrängnis bringen.

Metaowl ist life!. Uiuiui, gerade gemerkt, am 16. Juni steht der 6. Geburtstag der Meta-Eule an! Da sind mittlerweile fast 8700 Beiträge drin gesammelt. Und inzwischen hat sich auch der automatische Cache der Beiträge gelohnt, denn das eine oder andere Blog (zum Beispiel ist meine alte muensterland.org Adresse ja schon länger futsch) ist dann doch mal verschwunden, aber die Inhalte (zu mindestens die Texte) sind noch abrufbar. Selbst mehrere Serverumzüge hat das ganze unbeschadet überlebt.

Microsoft Near Deal to Buy Skype for Nearly $8 Billion - WSJ.com. Urks. Skype ist ja schon alleine ziemlicher Murks (leider für mich notwendiger Murks), aber wenn der jetzt noch von Microsoft "verbessert" wird, wirds ja ganz lustig ...

obensonne / hg-autosync. Eine Erweiterung für Mercurial, die automatische Syncs zwischen Arbeitsverzeichnissen über ein zentrales Repository realisiert. Kann manuell als Kommando ausgeführt werden oder im Daemon-Modus (dann wird das einfach per Intervall zyklisch durchlaufen). Damit kann man sowas wie ein kontrolliertes Dropbox machen - nur die aufgenommenen Dateien werden synchronisiert. Wobei ich anstelle der Intervall-Lösung lieber eine Kombination von inotify und xmpp Notify hätte - dadurch würde der Daemon nicht ständig anspringen. Aber sowas könnte man daraus vielleicht sogar bauen. Update sowas gibts schon.

philikon / weaveclient-chromium. Hmm, ein Mozilla Sync Client als Erweiterung für Chrome. Leider ist nirgendwo richtig angegeben wie man das installiert und einige Kommentare im Netz deuten darauf hin, dass es mit neueren Versionen wohl nicht mehr stabil läuft. Aber vielleicht trotzdem mal reingucken wenn ich irgendwo überzählige Zeit finde. Damit könnte ich dann nämlich z.B. Chrome auf Mac oder Linux mit Firefox Mobile auf Android verbinden. Da auf Android der normale Browser ja nichtmal mit Googles eigenem Desktop Browser syncen kann (was echt peinlich ist), wär das ja vielleicht was.

PayPal Money Module « Snoopy Pfeffer’s Blog. Der ursprüngliche Artikel, in dem Snoopy ein bischen mehr über die Erweiterungen gegenüber Adam Frisby's DTL PayPal Money Module beschreibt. Nicht mehr auf dem ganz aktuellen Stand was die Installation angeht, aber die Features passen noch.

SnoopyPfeffer/Mod-PayPal - GitHub. Sollte ich mir mal genauer angucken, damit kann man PayPal als Money-Modul in OpenSim benutzen. Wäre vielleicht interessant, wenn ich irgendwann meine OpenSim-Projekte wieder mal einboxen und weitergeben will. Baut auf OpenSim 0.7.1 auf, kann ich also erst ausprobieren wenn die neue Diva D2 raus ist (die schon in der Mache ist).

inotify - get your file system supervised. Mal für später vorgemerkt - ein Daemon, der Scripte automatisch bei Dateievents anwirft. Damit könnte man z.B. automatische Bilderimporte durch Upload aus der Dropbox realisieren.

PDP-11 emulator. In JavaScript. Führt Unix System 6 aus. Ja, so richtig so mit Plattenzugriff und all den bekannten Programmen von damals. Weil es noch nicht genug seltsame Sachen gibt.

Nochmal iPhone Location Daten

Nur nochmal zu der Antwort von Apple zu den Bewegungsprofil-Vorwürfen und warum Apple Recht hat, aber trotzdem ein Problem besteht (aber eines, das deutlich kleiner ist als das dramatisierte Problem in der Presse).

Apple produziert mit - anonym gesammelten, bisher gibt es da auch keine Anzeichen, dass es nicht anonym wäre - Positionsdaten der iPhones mit aktiviertem GPS eine Datenbank, in der Positionen von Netzen gespeichert werden. Netze sind hierbei Funktürme für GSM, 3G und WLANs die das iPhone zu dem Zeitpunkt sieht. Das ist allerdings nicht das, was in dieser Datenbank gespeichert wird, von der alle Reden. Das ist nur die Grundlage, auf der etwas aufgebaut wird, was dann in der Datenbank landet.

Die an Apple gesendeten Daten werden intern gemittelt und daraus für die von diversen iPhones gemeldeten Netze ein "Zentrum" ermittelt (denn die genaue Position von WLAN Routern oder Funktürmen kriegt man ja nicht einfach so geliefert - die muss erst irgendwie ermittelt werden). Diese Daten werden in einer großen Datenbank bei Apple gespeichert. Die Positionsdaten beziehen sich also auf das Zentrum von Funkidentifikationen. Die Originalen Positionsdaten sind nur Basismaterial für die ermittelten Positionsdaten.

Das iPhone kann jetzt über die sichtbaren Funkidentifikationen und deren Positionsinformationen und eine über die Sendestärke gewichtete Mittelung der Daten eine ungefähre Position ermitteln - dazu ist aber Internet Zugriff notwendig. Und Zugriff über Internet auf die Datenbank bei Apple. Daher lädt das iPhone die Informationen zu Funkidentifikationen herunter und cached diese lokal. Aber natürlich nicht die ganze Datenbank - das wäre zu viel. Sondern eben ein nach Algorithmen ermittelter relevanter Ausschnitt. Das jetzt ist die Datenbank auf dem iPhone.

Dazu wird von Apple scheinbar nicht nur das an Netzen runtergeladen was das iPhone gerade sieht, sondern wohl auch Nachbarnetze - macht nur Sinn, da der Benutzer sich ja öfter mal bewegt und man damit die Daten von Nachbarnetzen brauchen wird (potentiell - das iPhon weiss ja nicht voraus wohin ich gehe). Vermutlich wird also das iPhone sagen "ich sehe Netze A, B, C" und die Datenbank liefert dann "hier sind die Netze A-M aus dem Großraum in dem du dich befindest". Das iPhone nimmt dann X% von A, Y% von B und Z% von C als Basis und errechnet daraus eine grobe Position und sagt "hier bin ich". Wenn es sich dann in die Sichtbarkeit von Netz D bewegt, ist dessen Position schon bekannt und das iPhone kann die Positionsberechnung ohne Download direkt vornehmen.

Zusätzlich scheint das iPhone eine zeitliche Historie dieser Downloads zu speichern - vermutlich hat der Entwickler angenommen, wenn der Benutzer da schon mal war, ist die Chance hoch, dass er da wieder hin will. Dabei hält das iPhone wohl ein Jahr an diesen Daten parat. Die Behauptung von Apple, die Dauer der Speicherung sei ein Bug, ist sicherlich eher eine Beschönigung - vermutlich hat da einfach ein Entwickler sich eine Dauer ausgedacht und benutzt, ohne sich darüber Gedanken zu machen wieviel wirklich sinnvoll wäre - schließlich waren das ja keine besonderen Daten nach seinem Verständnis. Nur technische Caches für Downloads die er sowieso macht, wenn der Benutzer nach seiner Position fragt.

Was bedeutet das jetzt für den Benutzer? Die Daten geben in den Koordinaten nicht wieder, wo er war - sie geben nur wieder, wo die Funkidentifikationen sind, in deren Nähe er ungefähr mal war. Und da es auch Nachbarnetze enthält, ist das wirklich sehr ungefähr. Natürlich lässt sich dadurch ein grobes räumliches Profil des Benutzers ableiten - z.B. habe ich in meinen Daten durchaus sehen können, dass ich in Amsterdam, in Frankfurt und in Berlin war.

Aber z.B. bedeutet es auch im Umkehrschluss, dass nur die ungefähren Regionen drin sind, wenn man dort auch Netzempfang hatte, mit Downloadmöglichkeiten. Ich war in Kopenhagen - dort habe ich auch über das Hotel Netzzugang gehabt, also sind davon Spuren. In Malmö und zum Jahreswechsel in Russland hatte ich keinen Netzzugang - also zwar GSM, aber eben keinen Internetzugang - und daher konnte das iPhone auf diese Lokationsdaten nicht zugreifen und keine Funkidentifikationen mit Positionen runterladen. Daher fehlen diese Daten auch komplett in meinem iPhone und es gibt keine Spuren von Malmö, Ekaterinburg oder Nischni Tagil (ähnliches dürfte gelten wenn man den Flugzeugmodus aktiviert hat oder einfach WLAN und mobile Daten ausschaltet).

Desweiteren dürften die Räume größer werden wenn man in mehr ländliche Regionen kommt - wenige WLANs, also hauptsächlich GSM Zellen und diese mit größerer Sendereichweite und weiter gestreut. Wenn man da eine Zelle mit den Nachbarn speichert, ist das schon ein ziemlich großer Raum, der abgedeckt ist. In Großstädten hingegen dürften die abgedeckte Fläche deutlich kleiner sein, einfach weil WLANs deutlich kleinere Reichweiten haben und von denen dort mehr da sind. Und Funkzellen dort auch in der Regel kleiner sind (allein schon weil eine Zelle nur endlich viele User abdecken kann, aber die Dichte der User in Städten größer ist).

Interessant ist das ganze besonders für Programmierer: denkt ihr bei eurer Programmierung darüber nach, was sich z.B. aus gecachten Daten ableiten lässt? Nehmt mal als Überlegungsgrundlage mal an, jemand hat Zugriff auf euren DNS Cache - den ja jedes System intern hat, einfach um DNS-Abfragen zu reduzieren. Was könnte diese eigentlich technisch doch völlig harmlose Information über euch als Bild produzieren? Es sind diese kleinen Fallen über die man als Programmierer gerne stolpert. Eigentlich ist es ja harmlos - Hilfsdaten, die man aus dem Netz holt sind der Anfang. Wegwerfen nach der Nutzung - naja, wenn sie wieder gebraucht werden, dann macht es Sinn die häufigsten parat zu haben, oder? Und genau dann rennt man in solche Probleme wie sie Apple derzeit hat.

Die Diskussion, warum euer Browsercache Pornobildchen enthält (weil ihr z.B. mit Outlook eure Mails lest und eine Spammail geöffnet habt und bei euch Bilderanzeige aktiviert war - keine abwegige Situation!), wenn eure Frau die dort findet, könnte schon recht interessant werden. Den Daten sieht man eben nicht mehr an, warum sie dort gelandet sind, wo sie gelandet sind.

Wie im Titel gesagt: ich beziehe mich hier auf die Antwort von Apple und habe das nur mit meinen eigenen Daten gegengeprüft. Meine eigenen Daten passen zu den Informationen aus der Stellungnahme von Apple und diese Stellungnahme selber ist auch schlüssig - sowohl die Inhalte als auch die Angabe der Nutzung passen durchaus. Ich sehe also keinen Grund, warum ich der Stellungnahme misstrauen sollte.

Die Antwort von Apple, dass das iPhone kein Bewegungsprofil des Benutzers festhält, ist also korrekt - es speichert eben nur Informationen für eine Positionsbestimmung als Alternative zum GPS. Gleichzeitig ist das aber zumindestens ein Profil des Aufenthaltes in Großräumen. Kritik ist also durchaus angebracht. Sollte aber meiner Meinung nach intelligenter als "Apple speichert die Positionen des Benutzers im letzten Jahr" sein, denn das ist schlicht falsch.

Aber wie Apple in der Einleitung der Antwort ja sagt: das sind technische Zusammenhänge, die eben komplizierter sind als einfach nur "speichert Apple ein Bewegungsprofil Ja/Nein". Und unsere Presse hat mit Fragen, auf die eine Antwort mehr als zwei Sätze enthält, massive Probleme. "Apple speichert Daten aus denen sich die Anwesenheit in Großräumen ableiten lässt" klingt auch nicht so toll und griffig als Überschrift.

Leider kann aber gerade diese sehr unpräzise Berichterstattung dazu führen, dass die Probleme erst entstehen - wenn ich weiß, dass die Daten nur Regionen abdecken in denen ich mal war, aber nicht präzise Punkte meines Aufenthalts, ist die Erklärung, warum meine Daten aus Frankfurt auch das Rotlichtviertel umfassen (ist halt Nähe Bahnhof) deutlich leichter als wenn ich davon ausgehen muss, das sind alles Orte wo ich war.

Apple muss (und wird ja auch nach eigener Erklärung) da nachbessern - denn ein Jahr an Daten zu cachen ist Quatsch. Auch die Daten zu sichern ist Unsinn, die können einfach neu runtergeladen werden wenn sie fehlen. Genauso braucht man die Daten nicht speichern, wenn alle Lokationsdienste global abgeschaltet sind. Vielleicht wäre es auch generell interessant da einen Schalter "Pseudo-GPS Ja/Nein" oder so anzulegen, mit dem diese Art der Positionsermittlung abgeschaltet werden kann - dann muss der Benutzer eben warten, bis die GPS Satelliten eingebucht sind. Genauso wie man meiner Meinung nach die anonymisierte Datensammlung zu WLAN und Funktürmen abschaltbar machen sollte.

Meines Erachtens sollte kein Cache ohne eine Kontrollfunktion für diesen Cache (so wie man den Browsercache ja auch leeren kann) existieren. Denn eines muss klar sein: durch die generelle Notwendigkeit der Verknüpfung von Zugriffszeitpunkt und geladenen Daten (denn nur so kann ein Cache mit zeitlich begrenzter Zwischenspeicherung funktionieren) liefert jede Art von Cache eine Art von Benutzerprofil. Und das sollte vom Benutzer zumindest rudimentär (im Sinne von Löschen) kontrollierbar sein. Caches grundsätzlich mit einer Leeren-Funktion und einem UI dafür anzulegen sollte genauso eine best-practice werden wie die verschlüsselte Speicherung von Passwörtern auf Servern (hallo Sony!).

Folgenschwerer PSN-Hack: Persönliche Kundendaten kopiert. Jetzt ist also raus, warum PSN so lange offline war (nicht das es mich sonderlich betroffen hätte - hab keine Playstation - aber die Stille rund um die Downtime war schon seltsam).

AWS Developer Forums: Life of our patients is at stake - I am ... - ich hoffe mal, das ist ein Fake, aber ich fürchte es ist tatsächlich so, das da eine Firma lebenswichtige Monitoringsysteme für herzkranke Patienten auf EC2 betrieben hat, ohne mehrere Availabilityzonen zu nutzen oder einen Ausfallplan zu haben ....

Alex Levinson hat da so ein oaar Kommentare zu der "neuen" Entdeckung der gesammelten Geodaten auf dem iPhone. Neben der Feststellung, dass nicht Aplle die Daten sammelt, sondern nur das eigene Device und der eigene Rechner des Besitzers ist recht interessant, dass diese "neue" Entdeckung so bekannt war, dass Alex darüber auff Konferenzen geredet hat und es Ende Dezember 2010 schon in seinem Buch über iPhone Forensics beschrieben hat. Gedrucktes Buch. So eins von denen aus Papier. Sowas, das Forscher eigentlich Lesen sollten, wenn sie Diinge untersuchen. Damit sie sich nicht lächerlich machen, wenn sie gehypte Artikel über längst bekannte Themen schreiben, ohne auf vorherige Forschungen zu dem Thema zu verweisen ...

Gondor — effortless production Django hosting. Hmm, das klingt recht interessant - ein Tool zum einfacheren Deployment inklusive Datenbankmigrationen (über South). Soviel ich das verstehe ist es aber an deren Infrastruktur gebunden - also eher eine Alternative für die Google AppEngine, direkt auf Python aufbauend.

Broadway update 3 « Alexander Larsson. Keine Ahnung wie ich das benutzen will oder wofür, aber ich will! GTK+ Anwendungen als Client-Server App mit Oberfläche im Browser laufen lassen - und Gimp tuts schon. Crazy.

Toshiba veröffentlicht selbstlöschende Laufwerke. Was könnte schon schiefgehen.

Code rant: Message Queue Shootout!. Kein echter Shootout und nur eine unvollständige Auswahl an Messagequeues. Aber trotzdem was interessantes als Ergebnis: wenn man Knoten hat, die schon eigene Persistenz und Transaktionslösungen haben, zwischen denen man nur maximal schnell Nachrichten schicken will - es gibt dann nichts besseres als ZeroMQ. Es ist - bedingt durch seine Architektur - schlichtweg die schnellste Lösung. Und wir reden hier von wirklich drastischen Unterschieden.

NOSQL Databases. Sehr gute Übersicht über alle möglichen verfügbaren NoSQL-Datenbanken. Guter Startpunkt wenn man sich über die verfügbaren Systeme und deren Ausrichtung und Implementierung infomieren will.

BBC News - Net giants challenge French data law. Ganz tolle Idee aus Frankreich, zwangsweises speichern von Klartextpasswörtern, damit die dann an jede dahergelaufene Behörde abgegeben werden. Wird doch bestimmt dem Bundesinnenfriedrich auch gefallen, wo der doch so wild auf alle Daten ist ... (Diskussionen auf reddit behaupten, bbc hätte die Sachlage falsch dargestelt, es ginge nur um die Speicherung von Accountdaten auch nach Schliessen des Accounts für ein Jahr - wenn ein Dienst das nicht macht, wird er nachträglich für Aktivitäten der nicht mehr identifizierbaren User haftbar gemacht - also nicht ganz das, was man aus dem BBC Artikel lesen könnte)

HBase vs Cassandra: why we moved « Dominic Williams. Nicht ganz uninteressanter Blog-Post, der einen Vergleich von Hadoop/HBase mit Cassandra wagt und die verschiedenen Schwerpunkte herauszuarbeiten versucht. Sein Fazit: HBase ist mehr für Warehousing, Cassandra mehr für Transaction-Processing. Allein dadurch wäre sowas wie Brix noch viel interessanter, wenn es diese beiden Aspekte wirklich vereinen kann.

The Secrets of Building Realtime Big Data Systems. Darüber bin ich auf Cascalog und ElephantDB gestoßen: ein Vortrag des Programmierers der beiden Projekte über Große Datenbanken. Er schreibt auch gerade an einem Buch "Big Data". Könnte sehr interessant sein.

Microsoft Shuts off HTTPS in Hotmail for Over a Dozen Countries | Electronic Frontier Foundation - ein Schelm wer böses dabei denkt. Sicherlich purer Zufall, dass die Liste der betroffenen Länder sich wie die "Elite" der demokratischen Staaten liest. Die Verlogenheit von Großkonzernen wird eigentlich nur noch von FDP Wirtschaftsministern übertroffen.

WordPress › Really Static « WordPress Plugins. Mal weggeblogged, weil man damit direkt statische Seiten aus Wordpress generieren kann (ginge auch mit WP Super Cache und dessen directly cached pages, aber die werden dabei nicht automatisch aktualisiert) und vielleicht wäre das auf Dauer mal ein interessanter Weg. Ok, ich müsste wahrscheinlich auf einige Elemente verzichten, damit das ganze auch ohne "Artefakte" funktioniert - aber viele davon sind eh eigentlich verzichtbar. Zum Beispiel wäre eine Tag Cloud auf dem Stand des letzten Renderings eingefroren, wenn sie Teil der Seite ist. Genauso wie Angaben wie "letzte Kommentare" oder "letzte Posts". Dito mit Kalendern, die auf neueren Seiten mehr markierte Tage haben wie auf älteren Seiten. Das ist auch der Hauptgrund warum ich bisher immer wieder von baked Sites abgekommen bin - andererseits, sind diese Problemfälle für ein Blog wirklich wichtig?

Vundle 0.7 is out. Ich benutze ja normalerweise Pathogen, aber Vundle hat ein paar Eigenschaften die es doch recht interessant machen - vielleicht sollte ich doch mal damit rumspielen. Andererseits habe ich an meiner Vim-Installation schon länger keine Updates und Änderungen mehr gemacht. Aber da jetzt alle vim.org Scripts auf GitHub liegen, ist die GitHub-Integration von Vundle sicherlich sehr interessant.

Datenschützer: Piwik statt Google Analytics - das ist doch mal ein Anfang, konkrete Vorschläge was Sitebetreiber denn machen sollen, wenn sie Statistiken wollen. Sollten wir uns auf der Arbeit wohl mal näher angucken, um es Kunden die nach Statistiken fragen zu empfehlen.

Durch das Hinzufügen von zusätzlichem Code zu einer digitalen Musikdatei konnten sie ein auf CD gebranntes Lied in ein Trojanisches Pferd verwandeln. Wenn dieses Lied auf dem Autoradio abgespielt wird, kann es die Firmware des Autoradios ändern und Angreifern einen Einstiegspunkt bieten, um andere Komponenten des Autos zu verändern.

via With hacking, music can take control of your car | ITworld.

Mal angucken: pqc - PostgreSQL Query Cache. Ein PostgreSQL Proxy, der Abfragen über eine Memcache-DB cached um Performance für wiederkehrende Abfragen zu verbessern. Dadurch, dass er als Proxy arbeitet, kann er auch Anwendungen beschleunigen, die nicht von Hause aus schon Caching selber realisieren.

Apple kann einfach keine Verschlüsselung

Ich bin mal wieder drauf reingefallen und dachte, schalte doch die Verschlüsselung der iPad Backups an. Schön blöd. Ich hätte nach den Debakeln mit dem verschlüsselten Homeverzeichnis gewarnt sein müssen. Aber natürlich hab ichs doch mal wieder gemacht. Hat alles geklappt, bis jetzt heute der Backup Mist gemacht hat - er hing im ersten Step und ging einfach nicht weiter. Möglicherweise korrupte Backupfiles auf dem Mac. Ok, der Standard dabei ist einfach das Backup in den Einstellungen unter Geräte wegzuwerfen und ein neues zu machen. Nur geht das nicht, wenn man die Verschlüsselung an hat - er meckert, natürlich erst nachdem alle Steps durchlaufen sind, dass er keine Backups machen kann, weil keine Session mit dem iPad gestartet werden kann. Häh?

Und ich kann natürlich das Kennwort nicht zurücksetzen - er behauptet immer es wäre falsch (auch schon bevor ich das Backup gelöscht habe). Mein Verdacht: das Kennwort wird gegen das Backup getestet und wenn da keines ist, oder dieses defekt ist, kann man natürlich keine erfolgreiche Prüfung machen. Zurücksetzen des Kennwortes geht nicht, neue Backups anlegen geht nicht und dem iTunes einfach das iPad vergessen lassen geht auch nicht. Bevor jemand meint mir erzählen zu müssen ich wüsste das Passwort nicht: iTunes speichert auf Wunsch das Passwort im Schlüsselbund und ja, das Passwort ist das welches ich eingebe. Und ja, das ist garantiert das richtige - die Geräte-Kennung wird als Accountname an dem Passwort gespeichert. Und nein, genau dieses Passwort wird natürlich nicht akzeptiert ...

Lösung laut Apple? Komplett das iPad zurücksetzen und neu einrichten. Ganz tolle, ganz großartige Idee. Klar, viele Daten die ich habe liegen auf meinem Mac, aber im Laufe der Zeit sind eben auch Daten so dazugekommen, die eben nicht auf dem Mac liegen. Und die würde man schon gerne irgendwie übernehmen.

Wohlgemerkt, normale Sicherungen und Restores tuns - und bei unverschlüsseltem Backup kann man auch bei kaputten Backups einfach ein neues machen lassen. Nur eben nicht wenn man die Verschlüsselung an hat.

Ehrlich gesagt lässt mich diese erneute Erfahrung mit der Unfähigkeit Apples vernünftig stabil laufende Verschlüsselungslösungen zu bauen doch eher skeptisch auf deren full-disk Encryption im kommenden 10.7 schauen ...

Update: nach ein paar Experimenten (testweise an anderem Rechner angehängt, Backup des iPad aus der TimeMachine Sicherung rekonstruiert und damit versucht) vermute ich, das Kennwort wird auch auf dem Gerät vermerkt - und dieser Vermerk scheint korrumpierbar zu sein. Denn auch an einem anderen Gerät wird das definitiv korrekte Kennwort als falsch abgewiesen und auch ein anderes Gerät will zwingend verschlüsseltes Backup machen (macht ja auch Sinn, sonst käme man ja trivial an die Daten über ein Backup auf ein anderes Gerät dran). Das Problem ist auch nicht, dass es sich absichert gegen Manipulation - das Problem ist, dass dieser Mist kaputt gehen kann und zwar ohne äußere Anzeichen - die Backups haben bisher immer problemlos funktioneirt, sie sind nur jetzt plötzlich nichts mehr wert (genauso wie die Daten auf dem Gerät).

Naked Password - jQuery Plugin to Encourage Stronger Passwords. Ja, das ist das, was draufsteht. Das Internet ist sehr, sehr seltsam.

IP-Adressen und Datenschutz

IP-Adresse: Datenschützer geht gegen AdSense, Amazon-Links und IVW vor. Ich weiss nicht, aber ich glaube so langsam schiesst das leicht über das Ziel hinaus. Ja, Datensammlung muss vermieden werden wenn vermeidbar. Und sicherlich, man sollte immer im Auge haben was mit den Daten für eine zentrale Figur wie Google machbar ist. Aber wenn das dann darauf hinausläuft, dass z.B. irgendwann die Google API Loader für jQuery nicht benutzbar werden weil deren Zugriffe ja auch auf Google Server gehen, oder wenn wie hier über Amazon-Affiliate-Links gemeckert wird - die erst bei Anklicken auf Amazon zugreifen, nicht schon generell - dann wirds langsam haarig.

Dann stehen wir nur ganz kurz vor dem Punkt an dem generell Links auf Seiten bei größeren Anbietern verboten werden. Oder so Absurdidäten, wie die hier geäußerte Idee der Illegalität der Nutzung von Google Mail in Deutschland. Ja, IP-Adressen sind bedingt personenidentifizierbar. Und mit IPv6 wird das sicherlich nochmal deutlicher werden (da dort der Reuse von IP-Adressen nicht so zwingend ist wie bei IPv4). Aber die IP-Adresse ist gleichzeitig auch der zentrale Dreh- und Angelpunkt des Internet und wenn man sich allzusehr darauf fokussiert, steht man irgendwann an dem Punkt an dem der oberste Datenschützer den Zugriff auf das internationale Internet verbietet, weil man da ja seine IP-Adresse Rechnern ausserhalb Deutschlands bekannt gibt ...

Datenschutz ist in einem ganz großen Umfang auch Schulung der Nutzer und Selbstverantwortung der Benutzer - letztere kann natürlich nur bei geeignetem Wissensstand erfolgen. Mir wäre wesentlich wohler, wenn aus den Datenschutzbehörden auch brauchbarer Output in der Form von Bürgerunterrichtung käme. Aber da ist es irgendwie mau.

Also mit den großen Anbietern diskutieren und unter Umständen auch vor Gericht diese dazu zwingen Datenschutzrichtlinien einzuhalten: ja. Öffentliche Diskussion über die Probleme und Gefahren: ja. Wildes draufhauen auf irgendwelche Forenbetreiber: nein.

Wieso geht der Datenschützer gegen sowas irrelevantes wie in dem Artikel genanntes vor, und nicht mal gegen einen der Großen in der Forenbranche, also zum Beispiel Heise, Spiegel, Focus oder Golem? Zuviel Respekt vor der dort zu erwartenden Reaktion?

Irgendwas klingt an der ganzen Sache faul. Möglicherweise haben wir nicht alle Informationen - aber mir fällt nicht ein welche Informationen da fehlen könnten, die aus dem ganzen eine angemessene Reaktion machen würde.

lsyncd ist sowas wie Dropbox in sehr simpel. Im Prinzip nur ein Daemon, der per inotify auf Verzeichnissänderungen lauscht und bei Bedarf automatisch einen rsync anwirft um Verzeichnisbäume zu synchronisieren. Da man damit beliebige Verzeichnisse syncen kann und über die Lua-Integration in lsyncd noch zusätzlich in den Syncprozess eingreifen kann, könnte das für manche lose gekoppelten Sync-Situationen gute Dienste leisten (z.B. autonome Knoten in einem sehr lose gekoppelten Cluster oder Homeserver der automatisch auf einen Server im Internet synced). Ausserdem bietet es Funktionen analog zu Hazel - man kann also diverse Aktionen (nicht nur Sync) auf verschiedene Dateiänderungsevents legen.

Und wer einen Überblick über verschiedene S3-Dateisysteme haben will: Comparison of S3QL and other S3 file systems. Da sind auch kommerzielle Pakete mit in der Liste und ein einfacher Featurevergleich wird gemacht.

s3fs - auch das mal angucken, denn damit könnte ich Amazon S3 auf dem Server mounten und damit von außen per WebDAV auf meinen Server und indirekt auch auf S3 gehen. Für meine Bilder wäre es auf Dauer vielleicht schon sinnvoll zwei offsite-Backups mit verschiedenen Techniken zu haben. Dazu vielleicht den s3fslight fork davon angucken, denn der soll explizit besser mit rsync arbeiten und das wäre gerade für automatische Backups interessant. Beide speichern Files direkt in S3, dadurch kann man sie trivial herunterladen. Andererseits haben beide dadurch Probleme mit dem eventually-consistency-Feature von S3, man muss den Abgleich mehrfach laufen lassen gerade wenn man viele Änderungen macht. Daher vielleicht auch mal s3ql angucken, das ein vollständiges Filesystem bildet, welches S3 nur als Storage benutzt. Dadurch ist es allerdings schwieriger an Dateiinhalte ausserhalb s3ql heranzukommen - aber dafür gibt es auch so Sachen wie Deduplizierung und Verschlüsselung (bei cloud-Speicher irgendwie sympathischer als die Sachen unverschlüsselt abzulegen, auch wenn man manchen Providern mehr trauen kann als anderen).

nginx HttpDavModule. Will ich mir mal angucken um einfacheren Zugriff auf meinen Server vom OSX aus zu bekommen - für manche Sachen vielleicht nicht ganz uninteressant (z.B. Backups meiner Bilder auf meinen Server um einen offsite-Speicherort zu haben).

Advanced sign-in security for your Google account - Official Gmail Blog. Grundsätzlich eine gute Idee, denn dadurch wird der Login - bei korrekter Anwendung - wirklich sicherer. Aber ob man seinen inneren Schweinehund überwindet und das auch tatsächlich anwendet ... (bin mir bei mir selber nicht mal ganz sicher ob ich das für eMail mir antun will)

Streitfall: Telekom will einheitlichen De-Mail-Domainnamen per Gesetz - staatlich geförderte Abzocke frei von technischem Sachverstand. An Lächerlichkeit ist das gane de-mail-Debakel kaum noch zu übertreffen.

Gravatars: why publishing your email's hash is not a good idea. Und erklärt auch, warum Avatare wieder aus meinem Blog verschwunden sind für Kommentatoren - nicht dass ich da groß an Paranoia leide, aber wozu für ein Gimmick die Möglichkeit eröffnen eine Mailadresse zu ermitteln?

using negotiate authentication (GSSAPI Kerberos) with Firefox. Da wir danach immer mal wieder geguckt haben und uns gewundert haben, wie man Firefox an Kerberos-Anmeldungen koppeln kann.

Google: Bing Is Cheating, Copying Our Search Results. Interessanter Artikel, wenn das stimmt, hat sich Microsoft da einen ziemlich dicken (und peinlichen) Klops geleistet.

Java Hangs When Converting 2.2250738585072012e-308. PHP ebenfalls. Des Rätsels Lösung in beiden Fällen: die Zahl ist die kleinste darstellbare Zahl in double floats und für die Konvertierung werden in Java und PHP Näherungen ermittelt, aber bei diesen werden ungünstige Werte als Start angenommen - und damit ergeben sich Endlosschleifen, weil der Zielwert nie erreicht wird. Und ja, das ist kritisch, weil man damit Server in eine Schleife schicken kann, wenn man diese Zahlenwerte in Eingebefelder die zu double float konvertieren eingibt. Mit Python hab ich es auch mal probiert (CPython und PyPy), aber die rennen nicht in eine Schleife, die liefern einfach einen etwas anderen Wert.

CoRD: Remote Desktop for Mac OS X. Open Source und mac-typischer als die Version von Microsoft.

IPython as a system shell erklärt die Funktion des sh Profils für iPython. Muss ich mal mit rumspielen, denn Python als Systemshell kann schon sehr hilfreich sein.

Bug 1044 – CVE-2010-4345 exim privilege escalation. Der zweite Teil des Exim-Durchmarsches. Dieser ist die Rechteeskalation über Exim und ein alternatives Config-File. Denn dadurch, dass Exim ein monolitischer Server unter suid Rechten (also Start mit Root-Rechten auch wenn als anderer Benutzer ausgeführt) ist, gibt es ein kleines Zeitfenster in dem der Dienst immer als root läuft - und durch das alternative Configfile wird das dann ausgenutzt. Der Patch beschränkt die Orte an denen diese Config-Files liegen dürfen und kombiniert mit der Konfiguration der Schreibrechte auf diesen Ort kann man damit vermeiden, dass nicht-root-User eigene Configs einschleusen.

Bug 787 – memory corruption in string_format code. Wichtig, wenn man Debian älter als Lenny betreibt, denn dafür gibt es dann keine Sicherheitsupdates mehr und man muss selber patchen. Der hier macht die Tür zu. Übrigens durchaus interessant mal auf das Datum zu gucken - der ist seit 2008 gefixt, aber durch die frühe Aufgabe von Security-Updates von auslaufenden Debian-Releases ist es in vielen Debian-Systemen auf Etch Basis (und älter) noch drin. Debian ist nur noch empfehlenswert einzusetzen wenn man tatsächlich auch jeden Releasewechsel zeitnah mitmachen kann. Ansonsten sind Lösungen wie Ubuntu LTS deutlich die bessere Wahl. Abgesehen davon ist es doch reichlich peinlich, dass Lenny noch so eine gammelalte Exim hatte ...

rhodecode ist sowas wie bitbucket oder github. Benutzt wie bitbucket mercurial und bietet diverse Werkzeuge in der Oberfläche. Das besondere? Der Code ist frei und damit sowas wie Bitbucket zum selber hosten. Vielleicht eine Alternative zu Trac.