Seit Monaten wird bei Sun mithilfe vieler freiwilliger Kreativer nach Wegen gesucht, wie die Oberfläche von OpenOffice.org leichter bedienbarer gemacht werden kann. Dazu wurde das Projekt Renaissance ins Leben gerufen. Das Ziel ist „Create a User Interface so that OpenOffice.org becomes the users‘ choice not only out of need, but also out of desire“.

Die erste Phase des Projekts, die Suche nach Vorschlägen von Benutzern und Designern, ist seit Wochen abgeschlossen. Derzeit läuft die Phase des Prototyping, bei der der Prototyp sogar live ausprobiert werden kann: http://tools.services.openoffice.org/impressprototype/impressprototype.jnlp (benötigt Java).

Wer Einfluss nehmen will auf die Gestaltung der künftigen Oberfläche (zuerst von Impress, später hoffentlich auch für alle anderen Anwendungen), sollte sich in die Diskussionen einklinken und seine Ideen und Kritiken den Verantwortlichen mitteilen.

Sehr informativ für alle Interessierten sind auch die Präsentationen, die monatlich zu bestimmten Anlässen veröffentlicht werden.

Hier noch eine kleine Liste von Blogbeiträgen aus GULLFOSS:

Auf hacks.mozilla.org hat David Mandelin einen Artikel auf Englisch veröffentlicht, der darlegt, wie der neue JavaScript-Motor in Firefox 3.5 namens TraceMonkey arbeitet und wie man Leistungsprobleme analysiert und behebt.

By now, hopefully you have a good idea of what makes JavaScript engines fast, how TraceMonkey works, and how to analyze and fix some performance issues that may occur running JavaScript under TraceMonkey. Please report bugs if you run into any significant performance problems. Bug reports are also a good place for us to give additional tuning advice. Finally, we’re trying to improve constantly, so check out nightly TraceMonkey builds if you’re into the bleeding edge.

Wen das Thema also interessiert, dem sei dieser Artikel ans Herz gelegt.

Hardware

Am Wochenende passierte neben vielen anderen Dingen auch etwas, das ich bereits seit anderthalb Jahren herbeisehnte: Mein PC wurde aufgerüstet. Die Entdeckung der Langsamkeit ist nicht nur ein Buch von Stan Nadolny, sondern auch meine eigene Erfahrung mit meinem Rechner. Aufgrund dieser Langsamkeit war der Spaß am Arbeiten mit dem Rechner mehr als eingeschränkt. Oft nutzte ich bewusst den neueren 15″-Laptop, um etwas flüssiger werkeln zu können. Jedenfalls hat Freund Futschy mir preislich und technisch passende Teile zusammengesucht, die wir dann im EDV-Fachhandel (nein, nicht bei Niedermeyer, Cosmos oder MediaMarkt!) gekauft haben. So wurde …

  • aus dem Prozessor AMD Athlon XP 2200 ein neuer Intel Core 2 Duo E7400 2×2,8GHz,
  • aus dem Motherboard MSI KT2 Combo ein neues Gigabyte GA-EP45-UD3R,
  • aus dem zusammengestückelten 1 GB RAM ganze 8 GB Corsair XMS2 DDR2 (1066),
  • aus der Grafikkarte Nvidia GeForce4 MX 440 SE eine rasende Nvidia GeForce GTX 260 (216SP),
  • aus der Festplatte von WesternDigital mit 360 GB eine Seagate Barracuda 7200.12 SATA2 mit 1 TB.

Nur Gehäusehülle, Netzteil, Diskettenlaufwerk und DVD-RAM-Laufwerk blieben erhalten.

Das Zusammenbauen mit dürftigen englischsprachigen Beschreibungen ging eigentlich ganz flott, von ein paar Denkpausen und Schnittwunden abgesehen. Futschy hat Erfahrung.

Software

Danach folgte das Aufspielen von Ubuntu 9.04 in der 32-bit- und in der 64-bit-Variante. Der Unterschied liegt darin, dass beim einen nur 3,2 GB RAM als nutzbar angezeigt werden, beim anderen jedoch 7,7 GB RAM!

Die Installation von Ubuntu ging wie immer reibungslos. Dabei stellt sich mir auch immer die Frage, wieso die letzten 20% des Installationsvorgangs von Ubuntu genau so lang brauchen wie die vorherigen 80% – eigentlich wird da nur noch deinstalliert, entfernt und gelöscht (unter anderem fremde Sprachpakete). – Mit Ext4 partitioniert hatte ich bereits mit der Live-CD. Ich mache das lieber in Ruhe vorher mit GParted als dann gestresst mit dem gefühlsmäßig weniger intuitiven Installationswerkzeug. Alles in allem geht die Installation ganz fix.

Reibungslos verlief auch die Hardware- und Peripherie-Erkennung. Musste ich bei früheren Ubuntu-Versionen diverse Dinge händisch nachinstallieren (weniger bei PC als bei Laptops), ging diesmal wirklich alles out-of-the-box. Sogar für meinen neuen HP Color LaserJet CP1514n waren die entsprechenden hplib-Bibliotheken schon vorhanden. Ich musste bloss den Drucker einschalten, die Druckererkennung laufen lassen und schon hatte ich die Testdruckseite in der Hand. Für Linux würde ich nur noch HP empfehlen.

Die proprietären Nividia-Treiber ließen sich auch problemlos installieren und die 3D-Effekte von Compiz standen nach einem Neustart zu meine Verfügung.

Auch die Startgeschwindigkeit beeindruckte uns. Die Zeit vom Einschalten des Rechners bis zum Erreichen des Bootmenüs von GRUB dauert gefühlt länger als vom Bootmenü bis zum funktionstüchtigen Ubuntu-Desktop. So um die 20 Sekunden braucht der reine Ubuntu-Start nach der Neuinstallation. Da bin ich mal gespannt auf Ubuntu 9.10, das nochmal schneller hochfahren soll. (Dagegen warte ich bei Windows auf der Arbeit in Summe mehrere Minuten, bis ich effektiv arbeiten kann.) So machen auch Reboots mehr Spaß! :-)

Grrrr: menu.lst und fstab

Die einzigen Arbeiten, die ich noch händisch durchführen musste, betrafen die Dateien menu.lst und fstab. Erstere ist für das Bootmenü GRUB zuständig – von welcher Partition soll GRUB aufgerufen werden, in welcher Reihenfolge sollen die Betriebssysteme aufgelistet werden usw. Zweiteres verwaltet den Zugriff auf und das Mounten der Festplatten und Partitionen (die 2 bereits vorformatierten und benannten Daten-Partitionen waren nämlich noch nicht automatisch ins System eingebunden – nachträgliches Mounten ist mit einem Doppelklick in Nautilus natürlich immer möglich).

Für mich war das weniger ein Problem. Gäbe es aber für diese 2 Mängel noch grafische Programme für Endanwender, würde ich ohne große Sorgen jedem Linux-Neuling eine Ubuntu-CD in die Hand drücken und sagen: Viel Erfolg, ruf mich an bei einem Problem. So aber muss man sich erstmal in die Syntax der beiden Dateien einlesen, UUIDs und Mount-Optionen herausfinden und studieren – und man darf ja nix falsch machen, sonst is das System unbenutzbar. Das kann man keinem Neuling zumuten, der sich nicht explizit mit solchen Details beschäftigen will.

Fazit

Außer dass ich nun endlich meinen riesigen Datensaustall aufräumen und umstrukturieren muss (es ist an der Zeit!), war das Aufrüsten meines Rechners ein unglaublicher Erfolg und Gewinn für mich. Als Bonus habe ich noch die alten Windows-Reste beseitigt (die alten NTFS-Partitionen mussten für Ext4 weichen usw.).

Ich fühle mich schnell und frei.
Danke, Futschy!

Und Futschy ist neidisch geworden und wird sich wohl in nächster Zeit auch zumindest mehr RAM und eine nette Grafikkarte besorgen. Fehlt nur noch Ubuntu auf seinem Hauptrechner. ;-)

Eine der besten Neuerungen von Firefox 3.5 ist die native Abspielfähigkeit für Musik und Videos im Format Ogg Theora und Vorbis. Damit wird es endlich zum Kinderspiel, Videos oder Audio-Dateien selbst anzubieten und in seine Webseiten einzubinden. Vor allem freie Formate werden dabei gefördert, da diese ohne Plugin oder zusätzlich installierte Abspielsoftware wiedergegeben werden.

Wie einfach das geht zeigt bejonet in seiner Anleitung für Video und Audio mit HTML5 einbinden.

Ich werde das auch bald mal probieren müssen …

XHTML 2 ist tot.

Das finde ich mehr als schade. Ich werde diesem nicht fertig entwickelten Webstandard nachtrauern, denn ich mag den X(HT)ML-Gedanken im Web und werde weiterhin auf die XHTML 1.0-Nachfolger (als nächstes wahrscheinlich XHTML 5.0) setzen – auch wenn das nur XML-Entsprechungen der SGML-Sprache HTML sind.

Niemals XFrames oder SECTION-Elemente …

Ich hoffe bloss, die Browser-Hersteller-zentristische HTML-Weiterentwicklung übernimmt noch mehr aus XHTML 2 als bisher. Eines Tages.

Baba XHTML 2!

Was die Leute alles auf sich nehmen, um bei Windows bleiben zu können, ist schon kurios.

Da gibt’s jene, deren Vista-Recovery-DVD vom Hardware-Hersteller bloss auf englisch verfügbar ist. Die müssen dann mit der englischen Benutzeroberfläche von Windows leben. Unt sie tun es.

Da gibt’s andere, die von Microsoft Office 2003 auf 2007 umgestiegen sind und sich überhaupt nicht mehr auskennen, keine Befehle finden und viel langsamer und unproduktiver arbeiten als vorher. Einzelne Funktionen werden wochenlang gesucht und sogar mit Hilfe anderer Kollegen, die ihnen beim Suchen helfen, oder externer EDV-Spezialisten nicht gefunden. Aber kaum zeigt man ihnen OpenOffice.org 3, gehen sie in Abwehrstellung und schimpfen und fluchen über das „Mistding“ und den, der ihnen dieses Stück Software aufgespielt hat. Dabei ist die Umstellung von MSO 2003 auf 2007 viel schlimmer als ein Umstieg von MSO 2003 auf OOo 3. Sie leiden mit Microsoft, aber sie lieben es.

Wieder andere schlagen sich mit Cracks und Software-Raubkopien herum, warten wochenlang auf den richtigen Crack, den eines Tages jemand im Internet bereit stellt, kopieren DVDs, tauschen kryptische, gefälschte Registrierungsschlüssel aus (und schlagen sich sogar tagelang mit der unleserlichen Schreibweise der Schlüssel herum, bis sie es endlich hinbekommen).

Als Benutzer quelloffener Software luge ich dann oft im Geist kopfschüttelnd zu den Leuten rüber und denke mir: Ich kann mir alle Sprachen herunterladen, die ich benötige, sei es von Ubuntu, OpenOffice.org oder Firefox. Ich stelle mich einmal auf ein plattformunabhängiges Programm um und bin damit überall zufrieden – sei es in der Arbeit unter Windows oder zuhause unter Ubuntu. Ich brauche weder Cracks, noch kopeierte DVDs, noch Registrierungsschlüssel – ich lade mir alles aus dem Internet herunter und installiere es ohne qualitative oder quantitative Beschränkung. Und wenn es eine gute Bezahlversion von einer sonst quellofenen Software gibt, die sich lohnt, oder um eine Spende gebeten wird, so entscheide ich mich auch mal dafür. So hat jeder etwas davon.

Ich schlussfolgere beinhart:

Die Leute würden sich lieber von Microsoft ins Gesicht scheißen lassen, als auf etwas anderes Nicht-Microsoft’sches umzusteigen.

PS: Andererseits habe ich auch schon Verweigerer für MSO 2007 erlebt und jene, die sich auch privat OpenOffice.org installiert haben, da sie es (durch mich) „von der Arbeit her kennen“.

Nachdem ich erst kürzlich das Schullinux nach Kremser Art gefunden habe, offenbart sich mir ein weiteres Linuxprojekt für österreichische Schulen: desktop4education.

Als Teil des EU-Aktionsplans i2010 wolle man den Einsatz von Open Source Software an österreichischen Schulen fördern, schreibt das Ministerium den Direktoren in einem Begleitschreiben. Der Plan sieht vor, ab 2010 das Geld für die Lizenzen von Office-Software an Schulen zu streichen, ab 2012 will man auch keine Kosten für Betriebssysteme mehr tragen. Deshalb planen inzwischen immer mehr Schulen den Wechsel zu Open Office und Linux.

Wenn das wirklich stimmt, wäre das eine gute Sache – weg vom Konzern- hin zu offenerem Denken. Nur allein der Glaube daran fehlt mir. Und sei es, dass Microsoft die Lizenzen dann eben herschenkt.

Auf die weitere Entwicklung bin ich jedenfalls gespannt.