JavaFX: Java Clients werden cool.

Eine kleine Sensation hat sich diese Woche ereignet. Auf der JavaOne Konferenz in Kalifornien, hat Sun Microsystems eine Preview auf ein Produkt gegeben, dass die Entwicklung von Desktop-und Mobile-Applikationen mit Java um einen riesigen Schritt attraktiver macht. Um es kurz zu machen: Hier sind die Demos!

CNet News hat ein Video auf der Seite, dass die neue Technologie vorstellt. Rich Green und James Gosling (Erfinder von Java) sind darin zu sehen und der Entwickler von JavaFX stellt die neue, quellcodeoffene Technologie vor. Auf der Projektwebseite openjfx gibt es mehr. Offenbar erfolgt die Vorstellung kurz nach der Akquisition der Firma SavaJe, die sich auf die Entwicklung von Lösungen für die Java Mobile Edition (JME) sppezialisiert hatte. Zitat:

The company’s SavaJe Mobile Platform radically simplifies and accelerates the development of highly customizable, richly branded and secure user interfaces across mobile feature phone handsets.

Es geht also um das Userinterface! Und genau deshalb wird Java nun für Desktop-Applications bzw. MobilePhone Applications um einen gehörigen Zacken cooler, denn nun sind plötzlich alle Arten von grafischen Effekte (engl. Effects oder abgekürzt Fx) verfügbar. Den Trend zu den Effekten hat Apple mit CoreGraphics eingeleitet und mit CoreAnimation wird er ausgebaut. Auch die ganzen AJAX Erweiterungen der Webbrowser und die Entwicklung von Apollo und Silverlight, gehen alle samt in diese Richtung.

Offenbar haben einige gemerkt, dass das Aufbohren des Webbrowsers mit JavaScript-Bibliotheken nicht die „ultima ratio“ für sichere und zuverlässige, optisch ansprechende Userinterfaces sein kann. Es läuft nun scheinbar Stück für Stück auf Client-Applications hinaus, die harmonisch mit dem OS zusammenspielen und die grafischen Fähigkeiten des OS für ein gutes Userinterface nutzen. Sun nennt das Rich Internet Applications (RIA) ich würde sagenes sind Thick-Clients ähnlich wie iTunes. Da habe ich weitaus mehr Vertrauen in die Sicherheit von Java, als in eine ungetestete Apollo oder Silverlight-Lösung. iTunes ist eine ObjectiveC Application die von Apple für zwei Operating Systeme paralllel weiterentwickelt wird. Wenn diese Lösung Java-basiert gewesen wäre, hätte Apple ein ganzes Entwicklerteam einsparen können. Der Slogan „Develop once, deliver many!“ – die Uridee von Java – könnte mit diesem Schrittt neue Fahrt aufnehmen. Denn keiner hat Lust für zwei Operating Systeme in verschiedenen Sprachen zu entwickeln. Das ist ja auch der Ansatzpunkt von Apollo. Java-Applets und Webstart-Apps existieren allerdings schon weitaus länger und sind getestet.

Why do I blog this? Ich bin ziemlich begeistert, das Sun hier reagiert hat, denn Webapplikationen auf Java-Basis sind für mich schon lange cool gewesen, aber eine Desktop App bzw. einen Thick-Client für serverbasierte Applikationen zu schreiben war schlicht „total uncool“, weil vor allem Swing-basierte Apps extrem unschön aussahen und einfach keinen Spass machten. Das könnte sich zukünftig ändern. Allerdings steht Sun vor dem gleichen problem wie die Konkurrenz: Während Apple und Microsoft ihre Technologie bereits von Beginn an mit dem Rechner ausliefern können, und Adobe mit Flash/Apollo erfolgreich seine Plugins für Browser verteilt, wird Sun die entsprechende Java-Basis zum Endanwender bekommen müssen. Interessant wäre es z.B., wenn ein „Big Player“ wie z.B. Google seine ganze Applikationspalette auf eine solide Java-Technologiebasis stellen würde… just dreaming…

Die Maschine spricht!

Seit relativ kurzer Zeit taucht bei jedem heise.de-Artikel ein kleiner Knopf neben der Überschrift auf, der die Aufschrift „Vorlesen“ trägt. Klickt man darauf, wird der Text der Meldung als Audiodatei abgespielt, die offenbar mit einer Text-to-Speech-Funktion generiert wurde. Sprechende Machinen kennt man ja zur genüge vom Telefonbanking, aber dieser Schritt zeigt, dass die Maschine im Vorlesen mittlerweile offenbar „gut genug“ geworden ist, so dass bei heise alle Texte fortan gesprochen zur Verfügung stehen. (Der Vollständigkeit halber möchte ich ergänzen, dass dort steht „Testbetrieb der Sprachausgabe bis zum 9.11.07“) Nchfolgend eine Audiokostprobe des Artikels „Heinz Nixdorf Museumsforum zeigt Hollerithmaschine“

[audio:/wp-upload/hnf.mp3]

Update 6.6.2007
Die Financial Times Deutschland zieht nach: Auch die FTD bietet jetzt ihre Artikel (z.B. diesen hier „Bush-Nachfolger drohen Iran mit Atomschlag“) mit Vorlesefunktion (jetzt selber hören) an.

Update 29.1.2008
Mittlerweile – das war klar, oder – gibt es einen Web 2.0-Dienst, den man natürlich komfortabel in das eigene Blog einbinden kann. Talkingtext füllt diese große Lücke, die da klaffte.

talking_text_player.png

Zuerst gesehen habe ich das im Fernstudiumblog, bei dem man sich bereits alle Beiträge vorlesen oder wahlweise als Audiofile einfach runterladen kann. Das sieht dann so aus wie in der Abbildung (Fenster) gezeigt.

Allerdings hat tt noch ein paar beta-bedingte Probleme (Stand 30.1.2008):

  1. Der Registrierungsprozess für ein Blog ist viel zu kompliziert, statt einfach die Standard Feed-URL zu nutzen braucht das Blog einen eigene Feed-URL, die ein Plugin für WordPress erzeugt
  2. Das WP-Plugin ist an sich ne tolle Sache, funktionierte bei mir aber nur lokal
  3. Das Playerfenster ist doch ziemlich arg hässlich, da wünscht man sich ein custom skinning für Farbe, Buttons, Headlines usw.
  4. Was ohne Ende nervt ist, dass man sich auf der Managementseite stets neu einloggen muss (keine Cookies) – das sollte schleunigst behoben werden
  5. Die Registrierung eines neuen Blogs ist absolut kryptisch, man bekommt zig Mails und blickt es irgendwann gar nicht mehr. Warum kann ich den einzubindenden Code nicht im Managementportal einfach einsehen?
  6. Das die Umwandlung Zeit kostet ist klar, aber zumindest eine kleine Audio“vorschau“ bzw. ein pre-Hearing der Stimmen sollte doch möglich sein, oder??
  7. Sowie man sich einlogged sollte gezeigt werden wie weit der Fortschritt für die Text-to-Audo-Konvertierung fortgeschritten ist, dass man nicht so raten muss.
  8. Das Menü der Managementseite ist wirklich arg beta, nichtmal die Eingabefelder für die wichtigen Sachen sind kommentiert.
  9. Die leicht esoterische Musik im Hintergrund ist ja vielleicht ganz nett, aber zumindest eine optinale Abschaltung sollte drin sein, besser noch eigenes mp3-loop hochladen können

Weitere Infos sollten sich im Blog von talking text finden lassen.

Why do i blog this? Mir kommt die Stimme bekannt vor! Genau die Stimme habe ich auf meinem Laptop schon einmal gehört und ich war ziemlich begeistert von der Qualität der individuellen „Vorlesung“, denn der Computer spricht alles immer exakt gleich aus, egal wie oft er es vorliest, das kann kein Mensch so gut! Die Stimme heißt glaube ich „Klaus Infovox iVox HQ“ auf dem Mac. Durch Eingabe des Unix-Befehls say -v "Ralph" -o ralphLiestVor.aiff "This is the Weblog Thetavellehh." kann man beliebigen Text mit beliebigen Stimmen automatisch in eine Audiodatei umwandeln.

Ich finde dieser Schritt von Heise macht deutlich, dass Text-to-Speech das Tor zur sprechenden Maschine weiter aufgestossen hat.
Sience Fiction aus Star Trek wird peu à peu Wirklichkeit und bald sprechen die Maschinen noch viel mehr. Damit einher geht, dass der Computer unsichtbarer werden kann, weil er kein optisches Display mehr braucht, um seine Informationen zu übermitteln. Ein Audio-Display tritt an seine Stelle. In Star Trek ist dadurch die Brücke (siehe Grafik rechts als Beispiel) ein sehr aufgeräumter Ort ohne Tastaturen, Maus oder gar Desktop-Rechnergehäusen, nur noch die wirklich grafisch notwendigen Informationen werden auf den optischen Displays gezeigt, die Kommunikation mit dem Rechner findet per Audio statt. Heise lässt den Rechner sprechen, jetzt fehlt nur, dass ich Heise auch ganz einfach etwas sagen kann, z.B. „Computer, lies bitte schneller vor!“ ;-)

Online Round Table: E-Learning 2.0 & Social Software

Das Weblog von Marcel Kirchner und Thomas Bernhardt aus Thüringen trägt „E-Learning 2.0“ bereits im Namen. Nun veranstalten diese beiden engagierten Studierenden einen „Online Round Table“ an zwei Terminen mit zwei Themen und haben verschiedene Personen, die sich mit E-Learning aus verschiedenen Perspektiven beschäftigen eingeladen 90 Minuten lang über einen Themenschwerpunkt zu sprechen. Morgen Abend werden wir also per Skype-Cast bzw. Audiokonferenz unsere Ansichten austauschen zu dem ersten Themenschwerpunkt “E-Learning 2.0 und Social Software – Buzzword-Alarm oder wertvolle Zukunftschance?”. Ich bin gespannt und freu mich drauf. In Kürze wird diese Diskussion dann hoffentlich für alle im Web abrufbar sein. Mehr Details zu der Veranstaltung und den Teilnehmern gibt es auf der speziellen Seite im Weblog von Marcel und Thomas.


Die geplanten Teilnehmer (aussen) und Gastgeber (innen) der ersten Session

An dieser Stelle schon Mal recht herzlichen Dank für die Organisation und das Engagement. Ich war so frei und habe alle geplanten Teilnehmer der ersten Session grafisch ein wenig in einer Überblicksgrafik zu einem Poster arrangiert.

Update 19.4.2007
Es war sehr interessant und hat Spaß gemacht – das ist mein Fazit als Teilnehmer des Online Round Table (ORT) 2007 von Marcel und Thomas gestern. Die Technik (Skypecast) hat bis auf wenige kleine Aussetzer gut funktioniert, so gut, dass einige zu Beginn tatsächlich dachten, die geladenen Experten würden in einem Radiostudio sitzen und nicht auf Städte in Deutschland, Österreichund der Schweiz verteilt.

Die Veranstalter des ORT 2007 Marcel Kirchner und Thomas Bernhardt haben zu der ersten Session eine Zusammenfassung in ihrem Weblog erstellt, sowohl die Audio-Mitschnitte, als auch (und das ist sehr hilfreich!) den Chat als Video-Mitschnitt bereitgestellt.

Hier meine leider aus Zeitmangel nicht zum Einsatz gelangten Folien, anhand derer ich eigentlich zeigen wollte, dass die Schritte, die man in einem Einsatzszenario mit Weblogs durchführt sich ziemlich gut unterscheiden lassen und auch auf anderes anwendbar sind.

Wer eine alternative (ungeschnittene) Audio-Aufzeichnung des ORT 2007 anhören möchte, der kann dies nachfolgend gerne tun, das ca. 120 Megabyte große mp3-File ist hier als Audio eingebunden. Die Aufzeichnungen der Veranstalter machen allerdings wesentlich mehr Sinn, weil dort der Chat als Video existiert und auch eine Aufteilung nach den Teilnehmern der Diskussion.

[audio:/wp-upload/ORT2007_1.mp3]

Der nächste Online Round Table zum Thema „Aktive und motivierte WikiBlog-Caster in Learning Communities – Illusion oder absehbare Realität?“ findet am 30. April 2007 statt. Geladene Experten werden sein Andreas Auwärter, Steffen Büffel, Martin Ebner und Mandy Schiefner (siehe nachfolgendes Poster).


Die geplanten Teilnehmer (aussen) und Gastgeber (Mitte) der kommenden Session