Is it just み?

Computer

NAS – Fertig kaufen oder selber bauen?

by on Mar.15, 2012, under Computer, Technik

Ich wollte schon seit längerem ein NAS haben, bisher tat es ein preiswertes Festplattengehäuse (5-fach) an unserem Multimedia-Rechner, aber besonders Stromsparend war das nicht, daher sollte nun ein NAS her. Ich stand also vor der Wahl entweder ein fertiges NAS-gerät zu kaufen oder mir selbst ein NAS zu bauen – hier beschreibe ich jetzt meine Entscheidung und das Gerät, dass ich jetzt besitze.

Entscheidungskriterien

Ein Freund hatte mir sein kleines Synology-NAS gezeigt und die Weboberfläche hat mich wirklich beeindruckt – nur kam für mich kein Gerät mit gerade einmal 2 Festplatten in Frage, schließlich sollte es ja mein vorhandenes 5-Platten Raid ersetzen oder (noch besser) erweitern.

Die Alternative zu Synology sind die Geräte von Qnap – alle anderen Hersteller scheinen mir keine gute Bandbreite an Produkten zu liefern, WD liefert nur Mini-NAS, Buffalo und Netgear haben IMHO keine sinnvolle Mittelklasse. Abgesehen vom fertigen NAS kann man natürlich auch selbst eins zusammenbauen, hier meine Entscheidungsfindung:

Synology Mid Synology High Qnap Mid Qnap High Selbstgebaut
Preis 0 – – – + – – – 0
Erwerterbarkeit – – 0 – – + + + + +
Stromverbrauch + + – –
Größe + + + +
Bedienung + + + + + + + + + + 0
Software + + + + + + + + +
Aufwand + + + + + + + + + + – –

Die Synology-Geräte der Mittelklasse sind handlich und hübsch, die Qnap-Geräte sehen auf ähnlichem Preisniveau eher aus wie ich mir ein NAS vorstelle (mit Festplatten-Slots außen sichtbar), die Höheren Klassen (allerdings unter 2000€) sind bei beiden Herstellern recht robust, bieten allerdings bei Synology weniger Erweiterungsmöglichkeiten. Der Eigenbau kann natürlich theoretisch alles was ein normaler Rechner kann und darüber hinaus noch Port-Multiplier-Unterstützung auf allen (E)SATA-Ports – was den Betrieb meines alten RAID5 sicherstellen würde.

Nach bloßem zusammenrechnen gewinnt das Mittelklasse-Gerät von Synology auf Grund der wirklich guten Grafischen Oberfläche knapp vor dem Qnap-Gerät. Allerdings haben beide den Nachteil der schlechten (nicht vorhandenen) Erweiterbarkeit, die ich persönlich höher bewerte als die Bedienung – da ich davon ausgehe die grafische Oberfläche bei einem NAS-System im Optimalfall möglicht wenig benutzen zu müssen. Weiterhin ist mir der Aufwand der Einrichtung auch ziemlich egal, schließlich ist es mein Hobby und ich lerne etwas dabei.

Wenn ich also nun diese drei Faktoren als Gewichtung mit einbringe, gewinnt der Eigenbau deutlich gegenüber den Fertiglösungen.

Der Eigenbau

Nachdem ich mich nun also für den Eigenbau entschieden hatte, musste ich die Komponenten zusammensuchen:

Das Herz ist ein Asus E35M1-I DELUXE Mainboard, das ist komplett passiv gekühlt und bietet dennoch genügend Power um so ziemlich jede Software auf dem NAS laufen zu lassen. Wichtig sind mir natürlich die vielen SATA-Ports mit Port-Multiplier, schließlich will ich ja externe Festplattengehäuse mit mehreren Platten anschließen. Das Board hat zwar nur einen ESATA-Port, aber die anderen internen Ports führe ich (nicht ganz Standardkonform aber problemlos) über solche Kabel ganz einfach nach außen. Da das Board “nur” 6 SATA-ports hat, habe ich mir dazu noch die günstige Asus U3S6 Erweiterungskarte bestellt, die zwar kein Performancewunder ist, aber für meine zwecke günstig zwei vollwertige SATA-Ports hinzufügt und dazu noch zwei USB3-Ports hat (die brauche ich zwar nicht, aber schaden können die auch nicht). Dazu noch günstige 8GB Speicher, damit ich wirklich nie in Speichernöte gerate (Ich gebe zu, da hätten wohl 2GB auch gereicht, aber Speicher ist günstig und schadet nie). Das ganze packe ich in das kompakte Eolize SVD-NC11-4 mini ITX Gehäuse mit integriertem Netzteil und ich bin quasi fertig.

Nutzung

Zusätzlich zu den 4 Festplatteneinschüben (von denen ich im Moment nur einen nutze) konnte ich meine komplette alte externe SATA-Hardware weiter nutzen. An dem NAS hängen nun 5 Festplatten im Software-RAID5 in einem Lian Li EX-50 und dazu noch einmal 4 Festplatten in einem Fantec QB-35US2. Wenn man auf die 5. Festplatte verzichten kann würde ich das Fantec eher empfehlen, da es deutlich kompakter ist und generell für mich subjektiv stabiler wirkt – außerdem schaltet es sich automatisch ein und aus, wenn man es zusätzlich zum SATA per USB verbindet. Das Lian Li Gehäuse hatte dafür eine ESATA-Karte im Lieferumfang – als ich mir das Gehäuse gekauft habe unterstütze mein Onboard-Controller noch keinen Multiplier, daher hätte ich die Karte in jedem Fall benötigt. Die letzten beiden freien ESATA-Ports habe ich dann mit meinem Alten Sharkoon Quickport Duo2 verbunden – davon gibt es mittlerweile eine neue Version mit Port-Multiplier für 2 Platten und eine mit 4 Festplattenslots die nur einen ESATA-Port brauchen.

Als Betriebssystem benutze ich derzeitig ein Ubuntu Server 10.04 LTS das ich dann demnächst wohl auf die nächste LTS-Version aktualisieren werde. Das Betriebssystem startet derzeitig über einen USB-Stick, dafür wollte ich keine Festplatte “verschwenden”, da besteht aber noch Optimierungspotential.

Da ich jetzt eine kleine stromsparende Powerbox vor mir stehen habe, dachte ich mir, kann ich auch gleich mal meiner paranoia nachgehen und alle meine Festplatten und Raids verschlüsseln. Dafür benutze ich LUKS mit Schlüsseldateien statt Passwörtern, die dann wieder in einem (diesmal per Passwort) verschlüsseltem Image liegen. So muss ich nur ein Passwort eingeben und die Festplatten sind dennoch jeweils mit einem anderen Schlüssel versehen. Ich habe um das ganze zu automatisieren einen kleinen Server in C++ geschrieben, so dass man die ganzen Platten im LAN über eine Weboberfläche automatisch entschlüsseln und Mounten kann. Dazu aber in einem eigenen Artikel mehr (Der Artikel kommt noch).

Zusätzlich kann ich jetzt natürlich jede unter Ubuntu verfügbare Software auf meinem NAS einsetzen – sogar HD-Videos könnte das Ding ohne Probleme abspielen, das brauche ich zwar nicht, aber es ist gut zu Wissen, dass da noch Luft nach oben ist. Derzeitig laufen auf dem Gerät ein FTP-Server, ein Torrent-Client, ein NFS-Server, ein Samba-Server und ein Webserver – demnächst werde ich noch versuchen die eingebaute WiFi-Karte zu benutzen um einen weiteren Access-Point zu haben – ich werde berichten ob und wie das klappt. Für die Zukunft ist auch noch ein Backup-Server geplant, der sich aktiv per SSH auf den Client-Rechnern einloggt und vorher definierte Daten sichert – das wird mein nächstes Projekt.

Fazit

Ich bin rundum glücklich mit meiner Entscheidung selbst gebaut zu haben, nur um die schöne grafische Oberfläche beneide ich die Synology-Nutzer ein wenig – dem Nerd in mir ist das aber egal, schließlich hab ich einen root-Zugang per ssh auf mein NAS.

Was ich noch suche ist eine Möglichkeit meine langsame Betriebssystem-“Festplatte” zu beschleunigen, das System wird zwar dank des vielen Speichers schon jetzt automatisch sehr gut gepuffert, aber ich habe das Gefühl da geht noch was. Kennt vielleicht jemand eine Dateisystem-Lösung, die alles in den Hauptspeicher lädt und Änderungen im Hintergrund nach und nach auf die Festplatte schreibt? Sicherheit bzw. Fehleranfälligkeit (z.B. bei Stromausfall) wäre mir ziemlich egal, da kann ich jederzeit ein Backup des Systems einspielen.

 

 

 

 


  1. Glücklicherweise ein Software-RAID, ansonsten hätte ich mir die Idee das an ein NAS übernehmen zu können direkt abschminken können.
  2. Das Ding scheint es nicht mehr im Handel zu geben, da moderne SATA-Chips aber Multiplier unterstützen sehe ich keinen Nachteil im Nachfolgemodell. Der Multiplier macht es langsamer bei Parallelzugriff, aber wenn man den letzten Rest Geschwindigkeit rauskitzeln will nutzt man wahrscheinlich eh kein ESATA.

PS: Die Links zu Amazon sind Partner-Links, die habe ich mal testweise eingefügt – bei einem Kauf über diesen Link würde ich also eine Provision bekommen.

Comments Off on NAS – Fertig kaufen oder selber bauen? :, , , , , more...

Windows 7 ist dumm

by on Jul.08, 2010, under Argh!, Computer

Ich benutze Windows nun wirklich nur noch selten, und selbst das wird hoffentlich bald noch seltener werden, wenn Steam unter Linux läuft. Dennoch schaffe ich es in lustige Fallen zu tappen, die wie in diesem Fall mit einem Mausklick das System zumindest temporär unbrauchbar machen können.

Niemals sollte man auf die Idee kommen, die Optionen zu nutzen, die Windows einem bietet. Ich z.B. bin auf die Idee gekommen den Festplattenplatz doch ein wenig effizienter zu nutzen und meine Systempartition zu komprimieren. Die Theorie dahinter: Mein Prozessor ist deutlich unterbelastet, meine Festplatte ist der Flaschenhals – warum also nicht durch Komprimierung die Last ein wenig in Richtung Prozessor verlagern?

Gesagt, getan: C: komprimieren, “für Unterordner übernehmen”, warten, neustarten, “BOOTMGR is compressed“. No shit, Sherlock. Du hast das gerade selbst komprimiert. Wie dem auch sei, die Lösung ist einfach: Die Datei BOOTMGR einfach nicht komprimieren.

Wer den gleichen Fehler hat findet hier eine Erläuterung mit 4 verschiedenen Wegen das Problem zu lösen: http://www.cybervaldez.com/how-to-fix-bootmgr-is-compressed-error/2009/

Comments Off on Windows 7 ist dumm :, , more...

[Linux] Festplatte sicher löschen

by on May.06, 2010, under Computer, Linux

Wenn man eine Festplatte wegwirft oder verkauft, will man ja normalerweise sicher gehen, dass keine persönlichen Daten mehr von dieser Platte ausgelesen werden können – einfaches “Löschen” reicht da nicht, weil “löschen” nur bedeutet, dass der Verweis im Dateisystem auf die Daten entfernt wird, jedoch die Daten selbst werden nicht überschrieben (das wäre nämlich ziemlich langsam). Um nun also sicher zu gehen, kann man die Festplatte mit Daten voll schreiben, das ist einfach und effektiv, denn aller Paranoia zum Trotz hat es bisher niemand geschafft einfach überschriebene Daten wiederherzustellen.

(Im folgenden muss man natürlich /dev/DEVICE noch durch das echte Festplatten-Gerät ersetzen, also sowas wie /dev/sdb oder /dev/sdc – aber bitte vorher sicher gehen, dass man nicht die falsche Platte platt macht z.B. indem man die Platte mountet und dann mit “df -h” oder “mount” überprüft welches Gerät wirklich an der Stelle hängt. Aber Vorsicht: Nicht im normalen System das Gerät raussuchen, dann mit Livesystem von CD starten und die Platte überschreiben, da könnte sich der Gerätenahme ändern.)

Die einfache Version schreibt die Festplatte mit Nullen voll:

dd if=/dev/zero of=/dev/DEVICE bs=1M

bzw. mit pseudo-zufälligen Daten:

dd if=/dev/urandom of=/dev/DEVICE bs=1M

Wichtig: /dev/urandom benutzen, sonst kann es ziemlich lange dauern, /dev/random wartet nämlich bis das System wirklich halbwegs zufällige Daten gesammelt hat und gibt diese dann aus, während /dev/urandom (u für “unlocked”) nicht wartet und dann weniger sichere Zufallszahlen liefert – was bei dieser Verwendung aber relativ Schnuppe ist.

Mit Hilfe des bs-Parameters kann man ein wenig an der Geschwindigkeit schrauben – einfach mal ein paar Werte ausprobieren und 20 Sekunden schreiben lassen, dann mit Strg-C abbrechen – dd zeigt dann an wie schnell geschrieben wurde in MB/sec.

Wenn man die Festplatte gleich noch testen will während man sie überschreibt, gibt es folgende Möglichkeit:

badblocks -w -t random /dev/DEVICE

Dieses Programm schreibt nämlich nicht nur alle Sektoren voll, sonder überprüft hinterher auch ob die Daten genau so wieder gelesen werden können. Also die perfekte Möglichkeit Daten zu vernichten, wenn man eine Festplatte verkaufen oder selbst weiter nutzen möchte. Diese Methode ist natürlich langsamer als die dd-Variante oben.

Comments Off on [Linux] Festplatte sicher löschen :, , more...

Zen Coding

by on May.03, 2010, under Computer

Nur ganz kurz. Interessant für alle die HTML per Hand schreiben und nicht mit irgend einem WYSIWYMGIYAL-Editor arbeiten (What you see is what you might get if you are lucky): Zen Coding

Zen Coding ermöglicht es nach einer kurzen Einarbeitungszeit (sehr kurz, wenn man CSS kennt) unheimlich schnell HTML-Strukturen zu bauen. Das Demostrationsvideo auf dieser Seite hat mich erst einmal umgehauen.

Mal sehen wie es sich im täglichen Gebrauch schlägt.

Comments Off on Zen Coding :, , , , more...

Barcamp Mainz 09 – #bcmz – Mein Rückblick

by on Nov.29, 2009, under Computer

Mein Kollege hat mich nachdem er mir vom Heidelberger Barcamp erzählt hat auf das Mainzer Barcamp geschleppt – zumindest den Samstag konnten wir mitnehmen und an jeweils 6 Vorträgen teilnemhen. Es hat sich gelohnt.

Update: Hier gibt es eine Übersicht über einige der berichtenden Blogs direkt von der Barcamp Orga.

Update: Ralf von Carrot Business Solutions (Der vom Screencast-Vortrag) berichtet über seine Erfahrungen auf dem Barcamp.
Update: Noch ein Blogeintrag als Rückblick auf das Barcamp. Hier geht es vor allem um die Unterschiede zu anderen Barcamps.
Update: Noch ein geblogter Rückblick.
Update: Es gibt auch kritische Stimmen. Allerdings nur im Detail. Dieser Blogger bemängelt das Fehlen der Vorstellungsrunde. Dieser auch. Und eine Antwort darauf gibt es auch bereits.

Update: Hier noch ein netter Artikel der noch einmal erklärt was so ein BarCamp überhaupt ist und woher es kommt.

Ich habe mir nen Wolf getwittert, ein mögliches neues Thema für meine Magisterarbeit gefunden, ein cooles Projekt kennen gelernt, dass einem die Informationsflut filtert, gelernt wie Garbage Collection unter Java funktioniert (und funktionieren wird), Dinge über Schwärme gelernt, und was von JavaFX gehört. Aber der Reihe nach…

Wo war ich? Auf dem Barcamp in Mainz.
Was ist das? Eine Konferenz, bei der die Teilnehmer Themen vorbereiten, vorschlagen und dann abgestimmt wird was gehört wird.
Und sonst? Es gibt Kaffee, Frühstück, Mittagessen, Kuchen, Getränke, T-Shirts und Werbegeschenke.
Was kostet das? Nix.
Wie finanziert sich das ganze? Sponsoren geben viel Geld, damit Ihre Namen dort stehen und sie schicken selbst Teilnehmer mit Vorträgen.
Also nur Werbung? Nein, aber man sollte die Vorträge zu Sponsorenthemen schon kritisch hinterfragen. Die sind aber auch informativ.

Die Idee ist so simpel wie genial – hol Dir die Teilnehmer, lass Sie die Arbeit für die Themen machen und das Programm bestimmen – auf dich kommt ein Haufen Organisationsarbeit zu, aber niemand kann sich über schlechte Themen beschweren, hätte er ja selbst ändern können. Dementsprechend motiviert sind dann die einzelnen Teilnehmer auch: Es gab viele Themenvorschläge und 30 davon konnten angenommen werden (es standen jeweils 3 Vorlesungssähle und 2 Seminarräume bei 6 Vortragszeiten zur Verfügung). Die Sessions sind 45 Minuten lang, sollten aus 30 Minuten Vortrag und 15 Minuten Diskussion bestehen und nicht mehr als 5 Minuten überziehen.
Die Teilnehmer waren auch durchweg motiviert und man hatte keine Probleme einfach mal mit wildfremden Leuten ein Gespräch anzufangen – “Du” hießen sowieso alle.
Mein Programm am Samstag sah dann so aus:

05:00 Aufstehen, duschen.
05:45 Ralf anrufen, wo er bleibt, ihn dabei wecken…
06:00 An der Bushaltestelle warten, feststellen, dass weder Bus noch Bahn jetzt noch pünktlich am Hbf wären.
06:30 Doch das Auto nehmen.
08:00 Ankunft in Mainz. Schlecht geparkt – 20min Fußweg zum Camp, dabei verlaufen…
08:40 Endlich. Barcamp.
09:00 Kostenloses Frühstück.
09:30 Sessionauswahl (Vorstellung und Abstimmung).
11:00 Vortrag: Wie kann man Usability im Web (automatisch) messen?
12:00 Vortrag: Einführung in JavaFX
13:00 Mittagspause
14:00 Vortrag: Garbage Collection Algorithmen
15:00 Vortrag: Das Schwarm Projektmanagement
16:15 Vortrag: Der Kampf um Aufmerksamkeit – ein Vorschlag für persönlich relevante Nachrichten (relevanZer)
17:15 Vortrag: Rapid Prototyping mit jQuery
18:30 Ende. Party machen wir nicht mehr mit. Abfahrt nach Heidelberg.

Die Vorträge haben mir einiges gebracht, allein den Stichworten die ich mir auf Karteikarten geschrieben habe hinterher zu googeln wird mich Wochen kosten – ganz zu schweigen davon das auch noch auszuprobieren.

Wie kann man Usability im Web (automatisch) messen?

Der Vortrag von einem Mainzer Informatiker wurde von ihm schon als akademisch angekündigt und obwohl es mich interessiert, habe ich mir nicht allzu viele Hoffungen auf einen wirklich interessanten Beitrag gemacht. Ich sollte überrascht werden – nicht nur war der Vortrag kurzweilig er enthielt vor allem das für mich als Sprachwissenschaftler äußerst interessante Thema automatische Textanalyse und stellte zudem noch ein paar einfache theoretische Möglichkeiten zur Verbesserung der Webseitenusability vor. Einer der beiden Vorträge bei dem ich mir wirklich viele Notizen gemacht habe. – tweet

Einführung in JavaFX

Wie der “Sunday” vor ein paar jahren in Aachen eini wirkliche Zeitverschwendung. Viele marketingfolien und ein paar Hello-World Codebeispiele. Dazu kam noch, dass mir das Konzept der auf Java aufgesetzten, pseudo-typfreihen Sprache mit eigener Syntax so gar nciht gefällt. Irgendwie scheint es Sun jedesmal zu schaffen mich mit seinen “Evangelists” davon zu überzeugen, dass sie die falsche Firma sind um ein so geniales Konzept wie Java zu tragen. Meinem Unmut habe ich dann per Twitter Luft gemacht.

Garbage Collection Algorithmen

Auch ein Java-Thema, aber mit deutlich interessanterem Vortrag. Diesmal auch nicht von einem Evangelist, sondern einem Mannheimer Informatikstudenten der mir und 4 weiteren Teilnehmern (und dem anwesenden Sun-Vertreter) die Arbeitsweise eines Garbage-Collectors erklärte und dabei auf die spezifische Implementierung in der JVM in derzeitigen und der kommenden 7er-Version einging. Der Sun-Mann der hier neben mir saß war, nebenbei bemerkt, nicht der JavaFX-Vortragende, sondern dessen Kollege. Er wirkte deutlich arroganter, dafür aber auch kompetenter – damit kann ich besser leben. Durch die geringe Teilnehmerzahl wurde diese Session quasi zu einer intensiven Frage-Stunde in der sowohl der Vortragende auf spezifische Rückfragen einging, als auch nähere Erläuterungen vom Herstellervertreter kamen. Bei dieser Session hatte ich gar keine Möglichkeit mitzuschreiben, dafür war es zu intensiv. Bisher hatte ich mich nicht damit auseinandergesetzt was der GC tatsächlich im Speicher anstellt, sondern ihn einfach benutzt (bzw. mich auf ihn verlassen) – jetzt habe ich immerhin ein besseres Gefühl dabei. – Nebenbei habe ich gelernt wofür der Name des ersten T-Mobile-Android Handys G1 steht – augenscheinlich für “Garbage First”. 😉 – tweet

Das Schwarm Projektmanagement

Nagut, ich habe nicht wirklich geglaubt, dass ich hier in 45 Minuten viel über Projektmanagement lerne, aber zumindest ein paar Hinweise worauf in großen Projekten zu achten ist oder ähnliches hätte ich nett gefunden. Leider wurde mir erst nach mehreren Minuten Vortrag klar, dass es sich beim Vortragenden um den Vertreter des Hauptsponsors (Samsung) handelte… Der erzählte dann munter drauf los von einem Pharao der eine Pyramide bauen ließ und dass das ja tolles Projektmanagement war, von den Problemen, Motivationsmöglichkeiten und zeigte uns so fast eine halbe Stunde lang Bildchen.  Danach kam er dann zu seiner Erzählung über das Samsung-Team, dass er als Projektleiter managed und damit zum eigentlichen Thema des Vortrags. Nur leider war das ganze dann eigentlich eher eine Erzählung darüber wie er als Zuschauer seinen vollkommen frei arbeitenden Mitarbeitern zuguckt und hin und wieder etwas twittert – wenn es hoch kommt also ein (closed) Community Manager Posten, aber leider nichts wirklich sinnvolles über Projektmanagement. Die zweifel waren dem Publikum anzumerken, die Aussagen des Vortragenden wurden attakiert und seine Position komplett in Frage gestellt. Was fehlte war die klare Aussage, dass ein Schwarm sich eben nicht wirklich managen lässt – für den kreativen Prozess im Team mag eine Schwarmstruktur ein grandioses Konzept sein, aber leider eigenen sich wohl 90% aller “real-world” Projekte nicht oder nur zu einem ganz kleinen Teil für eine solche Vorgehensweise. – tweet

Der Kampf um Aufmerksamkeit – ein Vorschlag für persönlich relevante Nachrichten

Den Vortragenden hatte ich bereits beim Frühstück getroffen und er hatte mir schon einmal grob das Konzept seiner Idee erklärt – mir war also vollkommen klar, dass dieser Vortrag nicht langweilig werden würde. Perfekt präsentiert mit Prezi und einem souveränen Vortragsstil (den Vortrag hat er bestimmt vor dem Spiegel geübt) wurde das Problem der Informationsüberflutung bei intensiver Nutzung von Social Networks und Twitter dargestellt und bisherige Lösungsansätze (Rating-Systeme) vorgestellt. Das Problem: Wenn man 300 RSS-Feeds abboniert hat und noch einmal 200 Leuten auf Twitter folgt, hat man nun einmal das Problem nicht alles lesen zu können und muss eine Vorauswahl treffen. Bisherige Systeme machen das über ein allgemeines Rating-System (z.B. je öfter ein Artikel in Twitter erwähnt wird, desto besser muss er wohl sein) bei dem man sich also quasi die Mainstream-Meinung zeigen lassen kann. Das nahm dann auch den ersten Teil des Vortrags ein. Das in diesem Vortrag vorgestellte neue System benutzt hingegen ein trainierbares Tagging-System, dass die RSS-Feeds und Twitter-Nachrichten des Benutzers automatisiert auswertet und über eine Textanalyse herausfindet, welche Beiträge den Benutzer am wahrscheinlichsten interessieren. Noch ist das System namens relevanZer (nein, hat nichts mit der Wikipedia-Debatte zu tun, auch wenn das von Teilnehmern vorgeschlagen wurde) im geschlossenen Betatest auf dem “Stromsparrechner” des Erfinders, er wird jedoch Zugänge an interessierte Teilnehmer verteilen. Ich hätte ja auch gerne einen, aber wahrscheinlich hätte ich in den nächsten Monaten nicht genügend Zeit um das System wirklich intensiv zu testen – aber ich werde es definitiv im Auge behalten, da ist Potential.

Rapid Prototyping mit jQuery

Zum Ende zeigte dann Paul Bakaus noch wie, warum und was man so alles schnell und beeindruckend mit jQuery machen kann und wieso es auch als Webentwickler nicht schadet herumzuspielen und neues auszuprobieren. Interessant fand ich vor allem seine Philosophie hinter dem prototyping nämlich, dass es überhaupt nicht darauf ankommt ob etwas funktioniert, sondern auf die Illusion; quasi die Anwedung der vollen psychologischen Trickkiste des Interface-Designs auf den Kunden. Zwar hagelte es nach seinem sehr lockeren und unterhaltsamen Vortrag mit dem “Greasemoneky” (sic) konstruktive Kritik aus dem Publikum, doch der Vortrag wurde – so mein Eindruck – durchweg positiv aufgenommen. Auch wenn er für meinen Geschmack das Wort “Millionenauftrag” deutlich zu oft verwendet hat. Man hatte zumindest das Gefühl, dass der Mann weiß wovon er spricht und nicht einfach nur leeres Marketinggeblubber aneinander reiht – außerdem haben sein Vortragsstil und die beeindruckenden Webkit/CSS3-Beispiele durchaus dazu beigetragen die Lust am experimentellen Designen wieder zu wecken. Bei diesem Vortrag habe ich mir eine meiner Notizseiten randvoll mit Stichworten geschriebenm die es nun alle zu googlen gilt. – tweet

Fazit

Das Barcamp war eine grandiose Erfahrung: Die Organisation war klasse, die Teilnehmer absolut motiviert und offen und die Themen waren äußerst interessant. Vor allem dafür, dass die Teilnahmekosten gerade einmal die Anreise umfassten war das eine unschlagbare Erfahrung für mich. Ich werde – sofern ich einen Platz bekomme -beim nächsten mal wieder dabei sein. Das Barcamp selbst ist natürlich auch mit einem Twitter-Account am Start, damit man keine Neuigkeit verpasst.

Ich wünsche allen Teilnehmern die auch am Sonntag dabei sein können einen Tag der dem heutigen in nichts nachsteht.

(Da es schon spät ist, werde ich jetzt nicht noch einmal drüber lesen – wer Fehler findet darf sie behalten – ich bessere die dann vielleicht morgen aus… gute Nacht.)

2 Comments :, , , , , , , , , , more...

Simple backups with windows 1

by on Nov.26, 2009, under Computer, Programmierung

Ich werde mal versuchen einige meiner Einträge auf Englisch zu verfassen – um in der Übung zu bleiben.

At my current workplace, working with Linux (or anything other than windows) seems to be something no one would even bother to think about.  So I had to dig into the world of Windows Batch Scripting in order to create those little tools that make my life  just a bit easier when using linux.

The first thing I had to do was creating a script that simply backups folders. I have a folder which contains other folders that should be archived – I usually zip (or 7zip) them and move them to the backup space later, which is a fairly easy task using a bash-script and nautilus actions.

Under windows it’s not that much harder to accomplish. (In the following example I used WinRAR to compress the files because that’s what we use at work.)

The first thing I needed was of course the batch-file that does the actual work. Here it is:

@echo off

rem ===================== Begin Configuration =====================
rem !!! Do not use quotes for the values of the following variables !!!

rem Path to the WinRAR executable file
set winrarPath=%PROGRAMFILES%\WinRAR\WinRAR.exe

rem ====================== End Configuration ======================

rem Please only edit after this line if you know exactly what you are doing.

set curVer=0.1 [2009-11-26]

rem ======================== Begin Script ========================

rem Tell the user which version of the tool they use
echo.
echo                     Mi ArchiveSubfolders version %curVer%
echo.
echo.

if not exist "%winrarPath%" (
    echo Cannot find WinRAR exe file: %winrarPath%
    goto eof
)

set dir=%*
if not exist "%dir%" (
    echo The directory "%dir%" cannot be found
    goto eof
)

set dateString=%DATE:~-4,4%-%DATE:~-7,2%-%DATE:~0,2%_%TIME:~0,2%-%TIME:~3,2%-%TIME:~6,2%

cd "%dir%"
for /D %%a in (*) do (
    rem Creating the archive
    echo Archiving "%%~na"...
    "%winrarPath%" M -afzip -ibck -inul -m5 "%dateString%-%%~na.zip" "%%a"
)

echo.
echo Archiving done

:eof

Now that is a nice, simple script, but what should I do with it? I wanted it to be useable directly in the explorer context-menu, so I made a small registry-entry. This is the exported .reg-file:

Windows Registry Editor Version 5.00

[HKEY_CLASSES_ROOT\Folder\shell\archiveSubfolders]
@="Mi: Archive Subfolders (ZIP)"

[HKEY_CLASSES_ROOT\Folder\shell\archiveSubfolders\Command]
@="cmd /c \"\"%%ProgramFiles%%\\MiTools\\archiveSubfolders\\archiveSubfolders.bat\"\" %1"

Now I wanted a simple installation-script, for really lazy people like me:

@echo off

set installDir=%PROGRAMFILES%\MiTools\archiveSubfolders

if not exist "%installDir%" (
    mkdir "%installDir%"
)

copy archiveSubfolders.bat "%installDir%"
copy "ArchiveSubfolders Context Menu Entry.reg" "%installDir%"

regedit /S "ArchiveSubfolders Context Menu Entry.reg"

echo Installation complete.

:eof
Comments Off on Simple backups with windows 1 :, , , , , more...

Keyboard vs. Mouse

by on Nov.13, 2009, under Asides, Computer

Ich werde mal versuchen einige meiner Einträge auf Englisch zu verfassen – um in der Übung zu bleiben.

Do most people really never use the keyboard to work with desktop applications more quickly? There are so many cases of applications that are completely unusable with the keyboard – and I am not talking about image processing which cannot work without a mouse (though those programs are mostly optimized for keyboard use as much as possible, just take a look at photoshop).

But many programs (especially under windows) don’t allow even the simplest tasks to be done via keyboard. While I can automate most of the tasks I have to do again and again and again in Office1 via Shortcut, most all of the addins I have to use do not support keyboard use.

Linux is usually better, but far from perfect in this respect: Can anyone tell me how to search in Synaptic (the default gnome package manager) and change where to search in? How do i change from “name” to “name and description” only using the keyboard?

1 I have to admit, Microsoft really did a good job to make Office 2007 usable via keyboard.

Comments Off on Keyboard vs. Mouse :, , , more...

Komprimierung mit 7z

by on Nov.09, 2009, under Computer, Linux

Dies ist einer der Einträge in meinem Blog, der wohl hauptsächlich deshalb da ist, weil ich es wohl selbst wieder vergessen und daher nachschlagen müssen werde.

Ich komprimiere meine Dateien fast immer mit 7z, nur wenn ich Quellcode weitergebe nutze ich das traditionelle tar.bz2. Vor allem habe ich mir angewöhnt alles was ich an CD und DVD Images besitze vor dem verschieben auf die Backupplatte noch einmal zu komprimieren – der Zugriff muss ja nicht schnell gehen, sondern im Optimalfall nicht einmal nötig sein.

Da ich in diesem Fall keine Rücksicht auf irgend wen nehmen muss, kann ich die Parameter so wählen, dass ein für meinen Rechner optimale Komprimierung herauskommt – auch wenn es sich deshalb auf Rechnern mit wenig Arbeitsspeicher nicht mehr entpacken lassen würde.

Mein Kommando zur Komprimierung lautet (Achtung, nicht auf Systemen nutzen die weniger als 4GB Hauptspeicher haben):
nice -n 10 7z a -mx=9 -mmt=16 -t7z -mfb=258 -md=384m -ms=8g "[ZIEL].7z" "[DATEN]"

Kurze Erklärung:

Kommandoteil Bedeutung
nice -n 10 Starte das folgende Kommando mit geringer Priorität. Das bedeutet, dass man nebenher noch relativ gut arbeiten kann, bzw. andere Prozesse weniger ausgebremst werden.
7z a Füge Daten zu einem Archiv hinzu (a steht für “add”).
-mx=9 Benutze die maximale Kompressionsstufe.
-mmt=16 Bestimmt die Anzahl der benutzten Threads. Alternativ kann man auch -mmt=on angeben, dann bestimmt 7z selbst die Anzahl der Threads. Bei meinen Tests war jedoch die Anzahl 16 (ich habe einen Dualcore Prozessor) seltsamerweise fast 10% schneller als die Angabe on.
-t7z Sagt 7z, dass es das 7z-Format benutzen soll. Eigentlich überflüssig wenn wir den Archivnamen auf .7z enden lassen. Da 7z aber auch so ziemlich alle anderen halbwegs frei verfügbaren Komprimierungsverfahren unterstützt, gehe ich hier noch einmal sicher, dass auch wirklich das effiziente 7z benutzt wird.
-mfb=258 Die Wortgröße wird hier festgelegt. Faustregel: Je höher die Wortgröße, desto besser die Kompression. Dies ist, soweit ich weiß, der derzeitig maximal zulässige Wert.
-md=384m Die Wörterbuchgröße. Auch heir gilt die gleiche Faustregel wie bei der Wortgröße, allerdings kann man hier noch deutlich größer werden. In diesem Fall ist die Wörterbuchgröße 384 MB – das bedeutet, dass man beim Entpacken schon mindestens 512 MB RAM haben muss und beim Komprimieren ungefähr das Zehnfache der Wörterbuchgröße. Ich habe 6 GB RAM und benutze daher diese Einstellung wenn ich über Nacht die Backups komprimiere. Sobald ich parallel noch Firefox, Thunderbird und Eclipse (um mal Speicherfresser zu nennen) benutzen will, setze ich den Wert auf unter 300m.
-ms=8g Die maximale Größe der soliden Blöcke – auch hier gilt die gleiche Faustregel, auch wenn der Einfluss mit steigender Größe immer geringer wird. Alternativ sollte ein -ms=on auch dafür Sorgen, dass ein ganzes DVD-Image als ein großer Block (“solid”) komprimiert wird.
“[ZIEL].7z” Das Zielarchiv. Es muss nicht auf .7z enden, aber das hat sich aus praktischen Gründen eingebürgert. Unter Windows sollte es natürlich auf jeden Fall so heißen, da Windows das Archiv nicht automatisch als solches erkennen kann.
“[DATEN]” Das ist dann die Datei, die Dateien oder das Verzeichnis das komprimiert werden soll. Die Anführungsstriche kommen allerdings nicht um mehrere Dateien oder Verzeichnisse, sondern jeweils um eins (damit es keine Probleme mit Leerzeichen gibt).

Um dann viele Images über Nacht zu komprimieren benutze ich folgendes Mini-Script:

#!/bin/bash
for i in *.iso; do
nice -n 10 7z a -mx=9 -mmt=16 -t7z -mfb=258 -md=384m -ms=8g "$i.7z" "$i"
if [[ $? -eq 0 && -f "$i.7z" ]]; then
rm "$i"
fi
done

Comments Off on Komprimierung mit 7z :, , , , , more...

GPS Logger

by on Oct.09, 2009, under Computer, Java, Photos, Programmierung, Technik

Ich wollte nur bevor ich es vergesse über mein neues kleines Projekt schreiben: Der MiGPSLogger. Da ich dank myDealz der stolze Besitzer eines kostenlosen Nokia 5800 bin, habe ich mir direkt einmal einen einfachen GPS-Logger in Java ME geschrieben. Das Ding kann Strecken aufnehmen und Orte speichern und diese dann als GPX-Datei speichern, damit man sie in GPS-Programmen verwenden kann.

Man kann z.B. die mit dem Logger erstellten Daten dann in gpsvisualizer auf einer Karte anzeigen lassen oder damit Projekte wie openstreetmap unterstützen.
Ich werde das ganze z.B. verwenden um auf meinen Foto-Touren die Fotos automatisiert Koordinaten zuordnen zu können. Ist allerdings alles derzeitig noch im Beta-Stadium.

Vielleicht hilft es ja noch jemandem außer Uli (Geograph und Beta-Tester) und mir. Rückmeldungen und Anregungen sind immer willkommen.

Comments Off on GPS Logger :, , , more...

Augenaufschlag

by on Sep.07, 2009, under Computer, Unfug

Da ich mich sowieso gerade in die etwas erweiterten Funktionen von The Gimp einarbeite, kommt mir natürlich jeder Vorwand recht um ein wenige herumzuspielen und mich von den wichtigen Aufgaben abzulenken. So habe ich letztens einen speziellen Smiley für eine besondere Forumbenutzerin gemacht.

Ratet mal was sie für ein Talent hat – hier ist der Smiley: Augenaufschlag

Comments Off on Augenaufschlag :, , more...

Thunderbird portabel machen

by on Mar.09, 2009, under Computer

Man kann sich eine “portable Version” von Mozilla Thunderbird zum beispiel unter portableapps.com herunterladen. Nach der Installation auf einem USB-Stick sollte man allerdings noch ein paar Dinge beachten, damit beim Verlust des USB-Sticks nicht zu viele Probleme auftauchen.

Problem: Nicht jede portable Version verzichtet darauf Mails lokal zu speichern, das kann dazu führen, dass das Programm langsamer wird (weil es mehr Schreibzugriffe auf dem Stick gibt) und, dass ein potentieller Finder eines verlorenen USB-Sticks diese Emails lesen kann.

Teilweise Lösung: In den Account-Einstellungen bei jedem Account unter “Offline & Dis Space” den Haken bei “[…] do not download for offline use: [x] Messages larger than” machen und in das Feld dahinter eine 1 eintragen. Das verhindert zumindest, dass die meisten Emails offline gespeichert werden. Das eintragen einer 0 ist leider nicht möglich, die wird beim Speichern auf den Standardwert (50) zurückgesetzt.

Hinweis: Zumindest die aktuelle Version von portableapps.com speichert gar keine Nachrichten offline auf dem USB-Stick.

Problem: Man will auf dem USB-Stick normalerweise keine Passwörter speichern.

Lösung 1: Benutzung eines Masterpassworts. Dieses kann man in den Optionen konfigurieren und bietet eine halbwegs sichere Verschlüsselung der gespeicherten Passwörter wenn man ein langes Masterpasswort wählt. Grundsätzlich ist diese Methode aber nicht sicher.

Lösung 2: Passwörter erst gar nicht speichern. Auf dem USB-Stick einfach grundsätzlich keine Passwörter speichern. Damit der Haken zum speichern der Passwörter erst gar nicht angezeigt wird (um nicht aus versehen zu speichern) kann man im Konfigurationseditor folgenden Wert auf “false” setzen: signon.rememberSignons

Hinweis: Niemals vergessen, dass sobald man ein Passwort auf einem fremden Rechner eingibt, dieses von einem Tastaturlogger abgefangen un gespeichert werden kann. Solche Tastaturlogger können von jedem Benutzer mit Administratorrechten installiert werden oder durch einen Virus auf den Rechner gelangen. Man kann sich nicht grundsätzlich dagegen schützen, außer grundsätzlich keine Passwörter an fremden Rechnern einzugeben.

Comments Off on Thunderbird portabel machen :, , , more...