Follow my new blog

Posts mit dem Label Publikationen werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Publikationen werden angezeigt. Alle Posts anzeigen

Freitag, 22. November 2013

eBook-Veröffentlichung im Fluss

Bücher veröffentlichen ist heute ganz einfach. Eigentlich. Denn ein bisschen Tüfteln muss noch sein, um den Prozess flüssig hinzubekommen. Aber ich denke, jetzt habe ich das im Griff. Ein Gespräch mit einem Lektor eines deutsches Fachbuchverlags neulich auf einer Konferenz hatte mich motiviert, es nochmal zu versuchen. Wir hatten darüber nachgedacht, was gerade Fachverlage tun können, um ihre Berechtigung in Zeiten des self publishing zu behalten.

Dazu fiel mir vor allem ein, dass sie Autoren helfen könnten, möglichst schnell und einfach Schreibmotivation in ein Buch umzusetzen. Der heutige Prozess mit Exposé, das vom Verlag erstmal abgesegnet werden muss, über Manuskript, das in Wochen und Monate verfeinert wird, bis zur Druckfahne und dann schließlich einem Druck… der ist nämlich sehr lang und weilig. Der schreckt so manchen would-be-Autor ab und lässt Buchprojekte trotz aller Verträge immer wieder auch unterwegs verrecken.

Klar, in dem Prozess entsteht auch Qualität, wenn er denn überhaupt begonnen und bis zum Ende durchlaufen wird. Aber ist diese Qualität wirklich immer den Aufwand wert? Bei so manchem Fachbuch bin ich da doch im Zweifel. Viele Lektorate sind fachlich überfordert und/oder überlastet, so dass das Resultat den Kaufpreis und damit den Aufwand kaum rechtfertigt.

Und andererseits kommt wahrscheinlich so mancher interessante Gedanke gar nicht erst an die Öffentlichkeit. Der Gedankeninhaber fühlt sich abgeschreckt durch den Verlagsprozess und der Verlag erwartet einen gewissen Umfang, der sich auch lohnt zu publizieren. Unter 150 Seiten mag man eher kein Buch beginnen. Schade um die Gedanken, die es in angemessener Darstellung nur auf vielleicht 90 Seiten bringen. Sie sind zu klein für ein Buch – und ein Blog hat ja auch nicht jeder Denker.

So hab ich im Gespräch mit dem Lektor gedacht, da könnten sich Verlage durch leichte, einfache Angebote noch in die Herzen von Autoren spielen. Oder… Hm… gibt es das nicht irgendwie schon? Was fehlt denn wirklich? Mit Kindle Direct Publishing und Createspace hatte ich ja schon Erfahrungen gesammelt im Zusammenhang mit einem eigenen kleinen Sachbuch und dem Roman einer Bekannten.

Also habe ich mich nochmal aufgemacht zu einem weiteren Veröffentlichungsexperiment. Inhaltlich wollte ich dafür nichts Neues produzieren. Es ging mir ja um den Veröffentlichungsprozess. Also habe ich einige zusammenhängende Artikel aus meinem englischen Blog zur Veröffentlichung in einem Buch ausgewählt.

Hier meine aktuellen Erfahrungen in drei Phasen:

1. Das Manuskript

Auch wenn ich den Inhalt des Buches schon hatte, musste ich ihn noch in ein Manuskript gießen. Blogbeiträge kann man nicht einfach veröffentlichen. Anders als bisher wollte ich aber nicht MS Word als Schreibwerkzeug benutzen. Daraus eBooks zu machen, war insbesondere bei meinem kleinen Sachbuch durchaus noch umständlich.

Stattdessen wollte ich es mal mit Markdown versuchen. Markdown verheißt Konzentration auf den Text. Die Formatierungsmöglichkeiten sind beschränkt, das Tooling ist einfacher. Es gibt für Mac und Windows einige Editoren, die Markdown zu einem Kinderspiel machen. Man kommt gar nicht in die Versuchung, spezielle Formatierungen einzusetzen, die bei eBooks ohnehin nicht sichtbar sind.

Hier ein Beispiel der Anfang des 2. Kapitels meines Experimentalbuches in Mou (für Mac OSX, unter Windows bietet sich MarkdownPad an):

image

Markdown-Dateien sind Textdateien. Bilder sind nicht eingebettet. Das bedeutet, die Kontrolle über deren Auflösung ist direkter als bei Word: Es gilt, was auf der Platte liegt.

Für Markdown gibt es verschiedene Konvertierungen, allemal die nach HTML. Aber ich habe es mir einfacher gemacht, um von Markdown zum eBook zu kommen…

2. Die eBook-Herstellung

Die Wahl von Markdown fürs Schreiben war auch beeinflusst durch die Publishing-Plattform Leanpub. Dort will man es Autoren so leicht wie möglich machen, vom Manuskript zum eBook zu kommen. Genau das, was ich dem Lektor vermitteln wollte.

Wenn man bei Leanpub ein Buchprojekt aufsetzt, wird ein Dropbox-Verzeichnis bei Leanpub erstellt, das mit dem Autor geteilt wird. In dieses Verzeichnis legt er sein Manuskript als Markdown-Texte und den Abbildungen, so dass die Dateien zu Leanpub hin synchronisiert werden.

image

Und wenn er eine Version seines eBooks herstellen will, dann drückt er auf einen Knopf im Leanpub-Adminbereich seines Buchprojektes.

image

Kurz darauf steht das eBook als PDF, mobi und ePub Version in seiner Dropbox.

image

Ein Leanpub-Konto und ein Leanpub-Buchprojekt lassen sich in wenigen Minuten aufsetzen. Die Technik ist also kein Problem. Sie tritt sogar so weit in den Hintergrund, dass man nicht anders kann, als sich auf den Inhalt zu konzentrieren: das Manuskript und die Metadaten im Projekt wie Klappentext, Autorenbeschreibung und vor allem Titelbild. Gerade das Titelbild kann da nochmal eine ordentliche Bremse sein. Denn wer gerne schreibt, muss nicht unbedingt auch gerne “malen”.

Wer sich davon nicht ins Bockshorn jagen lassen will, der verzichtet erstmal auf ein eigenes Titelbild und lebt mit dem von Leanpub generierten textuellen Titelblatt.

Vom Text zur ePub/mobi eBook-Datei ist es mit Leanpub ein Kinderspiel. Das ist fast so einfach, wie einen Blogartikel zu schreiben. Nur etwas Obacht bei Bildern! Die müssen eine passende Auflösung haben. Aber Leanpub meldet, wenn die bei Herstellung der Print-Version nicht groß genug erscheint. Ein paar Runden sind also ggf. zu drehen, bis Auflösungen und Bildgrößen im Text stimmen. Übung macht aber auch hier den Meister. Für einen ersten eBook-Schuss sollte das in jedem Fall kein Hindernis sein.

Aber was nun tun mit den eBook-Dateien?

3. Die Veröffentlichung

Leanpub hilft nicht nur bei der Herstellung von eBook-Dateien, sondern auch bei deren Monetarisierung. Wer nicht nur den Preview- sondern auch den Publish-Knopf drückt, der veröffentlicht sein Buch ohne weiteren Aufwand im Leanpub online Buchladen.

image

Da kann man sehr komfortabel festlegen, wieviel man damit verdienen will. Und den Leser steht es durchaus frei, einen ihnen genehmen Preis zu zahlen:

image

Wer mag, kann sein Buch auch schon als work-in-progress Werk anbieten. Interessenten können sich dann registrieren. Und wer schon kauft, wird später über Updates informiert.

Das ist alles sehr bequem für Autoren wie Leser, finde ich. Doch die Reichweite von Leanpub ist natürlich gering. Dort geht niemand zum Stöbern hin. Wer also weiter gesehen werden will, der muss bei amazon & Co vertreten sein.

Das ist zum Glück denkbar einfach. Leanpub stellt sich dem nicht entgegen, sondern motiviert dazu offensiv. Also habe ich die Print-Version meines eBooks genommen und bei lulu.com sowie Createspace eingetragen, um daraus Papierbücher machen zu können [1]:

image

image

Das Titelbild musste ich dafür zwar leicht in den Abmessungen verändern, aber ansonsten war es sehr einfach: Leanpub-PDF hochladen, Klappentext eintragen, Titelbild hochladen, fertig. Jetzt warte ich noch auf die Proofs für die Bücher, bevor ich sie zum Verkauf bei lulu.com und amazon freischalte.

Aber nicht nur mit der Papierversion des Buches möchte ich natürlich weithin sichtbar sein bei amazon. Dort soll auch das eBook erhältlich sein. Das könnte ich über Kindle Direct Publishing leicht selbst machen, indem ich das Leanpub mobi-File dort hochlade – aber amazon will von mir, dass ich ein US-Steuerformular ausfülle. Das mag ich nicht. Da sind mir die Konsequenzen nicht klar.

Deshalb gehe ich einen kleinen Umweg über die Veröffentlichungsplattform xinxii. Dort habe ich einen Eintrag für das Buch angelegt und mein mobi-File hochgeladen.

image

Und von dort habe ich die Distribution über amazon angestoßen. Das ist kostenfrei und dauert leider 7-10 Tage… aber es bleibt sehr einfach. So ist denn mein Experimentalbuch jetzt auch bei amazon zu haben:

image

Der Preis ist bei Leanpub, xinxii und amazon derselbe. Kostenlos kann ich es leider bei xinxii nicht anbieten, also habe ich mich für den kleinstmöglichen Preis entschieden: 0,99 EUR. Aber ich denke, das sollte einer breiten Lektüre nicht im Wege stehen. Für weniger Geld als einen Coffee-to-go ist hier längerer Genuss zu haben :-) Das Thema: Was Nachrichtenorientierung eigentlich in der objektorientierten bedeutet.

Fazit

Selbstverlag ist kein Hexenwerk. Die Technik steht im Hintergrund. Autoren können sich auf Idee und Text konzentrieren. Von dort ist der Weg einfach zum eBook-Dateien, eBook-Veröffentlichungen auf verschiedenen Plattformen inklusive den großen und sogar einem echten Papierbuch.

Meine Empfehlung derzeit:

  1. Manuskript in Markdown aufsetzen
  2. Schnelle, womöglich iterative Veröffentlichung als eBook auf Leanpub
  3. Sobald zufrieden mit Inhalt und Form weitreichender veröffentlichen bei amazon & Co. Dafür die Hilfe von xinxii in Anspruch nehmen.
  4. Und als Krönung mit Createspace das Buch auf Papier bringen. (lulu ist für Belegexemplare teurer und hat mit seinem Shop natürlich nicht die Reichweite wie amazon.)

Das Gespräch mit dem Lektor war an einem Freitag. Am Sonntag danach hat mich der Ehrgeiz gepackt, zu sehen, wie einfach eine Veröffentlichung sein kann. Am Sonntag Abend war das eBook bei Leanpub fertig nach ca. 5-6 Stunden Aufwand der Umsetzung der Blogartikel nach Markdown. Am Montag war es bei xinxii veröffentlicht und zur Distribution bei amazon eingereicht – Aufwand 15 Minuten. Am Montag war es bei Createspace und lulu.com zum Druck eingetragen – Aufwand 1 Stunde für die Anpassung des Titelbildes und des Klappentextes.

Wer ein Manuskript in Markdown vorliegen hat, ist mit einem halben Tag weltweit am Start mit seinem Buch. Wer noch keines hat, tut sich einen Gefallen, in Markdown zu schreiben bzw. nach Markdown zu konvertieren. Ich habe mich damit auch bis neulich noch nicht ganz wohl gefühlt – aber das Gefühl habe ich inzwischen überwunden. Leanpub hat mich überzeugt. Noch nie war der Weg zu eBook-Dateien guter Qualität so kurz, finde ich.

Davon können sich Verlage eine Scheibe abschneiden. Denn da ist noch room for improvement, würde ich sagen. Warum Leanpub als Gegner und nicht als Ansporn oder Partner ansehen?

Endnoten

[1] Ein Tipp zum Format des Print-Buches: Es lohnt sich, darüber schon möglichst früh im Klaren zu sein, welches Format eine Print-Version des Buches haben soll. Denn das sollte zumindest von Leanpub wie dem Printbuch-Herstellen (Createspace, lulu) unterstützt werden. Ich habe mich für dieses Buch für US-Paperback entschieden.

Donnerstag, 14. Februar 2013

Experiment Selbstverlag - Mein erstes Kindle-Buch

imageMein neues Buch ist endlich erschienen:

Systematisch produktiver und zufriedener
Pragmatische Schritte raus aus der Überlastung am Arbeitsplatz

Als Kindle-Buch bei amazon. Hurra, geschafft, endlich, nach ein paar Anläufen.

Vor Jahren hatte ich ja schon einige Bücher geschrieben, Bücher auf Papier, pBooks. Da gab es allenfalls zaghafte Versuche, die auch mal in PDF herauszubringen. Aber jetzt, knapp 10 Jahre später, ist alles anders. Heute sind Bücher elektronisch gleichwertig, eben echte eBooks. Und deshalb sind Produktion und Veröffentlichung anders möglich. Einen Verlag braucht man dafür nicht mehr – höchstens für das Marketing.

Und so habe ich mich mal aufgemacht, ein eBook im Selbstverlag herauszubringen. Bei diesem Experiment geht es mir um die Form und den Prozess, weniger um den Inhalt. Deshalb ist der Inhalt auch eine Zweitverwertung von Blogartikeln. Das soll aber natürlich den Wert des eBooks nicht schmälern, denn als Zusammenfassung für bequemes Lesen in einem Stück und aufbereitet für eReader bietet es etwas fürs Geld.

Insofern ist das eBook natürlich auch ein Experiment in puncto Monetarisierung von Inhalten. Ja, das will ich nicht verschweigen. Es geht auch ums Geld. Warum auch nicht?

Allerdings finde ich die Monetarisierung über Werbung sehr unschön. Sie mag funktionieren, doch hat sie für mich den Beigeschmack des Unehrlichen. In ihr steckt auch immer der latente Keim von Prostitution. Aber ich will nicht abschweifen… ;-)

Ohne Einnahme von Geld durch Werbung bleibt für die Monetarisierung nur eine direkte Transaktion mit dem Leser. Aber wie? Für Blogbeiträge ist das auch im Jahr 2012 immer noch schwierig. Das hat weniger mit Technik zu tun, würde ich sagen, sondern eher mit mangelndem “Standard”. Paypal mögen viele nicht, bei Micropayment-Diensten wie Flattr will sich niemand so recht auch noch anmelden…

Und dann stellt sich auch noch die Frage, ob jemand für das Medium “HTML-Seite” etwas bezahlen möchte? Das fühlt sich nicht sehr wertig an, oder? Jedenfalls nicht, wenn man für einzelne Inhalte zahlen soll und für andere wieder nicht. Als Abo mag das irgendwie noch funktionieren und so können Zeitungen sich langsam hinter Paywalls zurückziehen. Für Autoren ist das jedoch keine Option.

amazon als Veröffentlichungsplattform

Aber es gibt ja amazon! Da kommt für Autoren dreierlei zusammen:

  • Erstens haben wahrscheinlich 99% aller Leser schon einmal bei amazon gekauft. Es gibt also keine Anmeldehürde zu überwinden, um Geld fließen zu lassen.
  • Zweitens hat amazon es Autoren vergleichsweise sehr leicht gemacht, Inhalte anzubieten.
  • Und drittens ist das Kindle-eBook-Format derzeit nach meinem Empfinden das für den Leser einfachste [1].

Bis sich einfache (Micro)Payment-Lösungen per Smartphone durchgesetzt haben, scheint mir amazon für Autoren der einfachste Weg, zu einem direkten, ehrlich Austauschverhältnis mit dem Leser.

Für einen Beitrag wie diesen, ist Monetarisierung natürlich keine Option. Abhängig von Umfang und Inhalt wird es immer Inhalte geben, die Blogger/Autoren im Allgemeinen und ich im Speziellen kostenlos anbieten. Für Umfangreicheres jedoch glaube ich daran, dass der Trend zu einer Monetarisierung gehen wird. Das schmeckt dann nicht jedem Leser – aber das ist ok. Mit denen, die übrig bleiben und sich darauf einlassen, habe ich gern ein engeres Verhältnis, das mehr auf Gegenseitigkeit beruht.

Doch das ist derzeit noch weitgehend Theorie. Zuerst mal ausprobieren, wie das überhaupt technisch und vom Prozess her geht mit dem Selbstverlegen.

Vorgehen bei der Veröffentlichung

imageamazon macht das wirklich sehr simpel. Einfach bei Kindle Direct Publishing (KDP) anmelden und Manuskript hochladen.

Das Manuskript kann in Word geschrieben werden. Einfach ein paar simple Formatierungsregeln beachten [2]. Dann ist das kein Problem.

Allerdings aufpassen mit Bildern. Da mögen ein paar Experimente angezeigt sein, je nachdem um was für Abbildungen es sich handelt, Grafiken oder Fotos. Am Anfang habe ich dafür ein kleines Testdokument mit Bildern in verschiedenen Auflösungen zusammengestellt und bei KDP immer wieder nach Veränderungen hochgeladen.

Auf der KDP-Seite gibt es eine Vorschau, die verschiedene Kindle-Reader simuliert, und einen Download für das Manuskript als .mobi-Datei. Statt auf die Simulationen habe ich mich dann lieber auf mein iPad verlassen :-) Damit kann ich auch in Abbildungen reinzoomen, um die Qualität zu überprüfen.

Am Ende habe ich die meiste Zeit in Word für Mac OS X gearbeitet und die Grafiken nur mit 72dpi Auflösung eingebunden. Nur am Schluss habe ich Word für Windows angeworfen, um das Inhaltsverzeichnis einzusetzen – das macht WinWord nämlich besser mit Verweisen auf die Kapitel – und für den Export nach HTML – auch der scheint subtil besser zu sein als bei MacWord.

Beim Titelbild ist dann noch etwas Kreativität gefragt. Kann man selbst machen, wie ich es getan habe. Aber ein Profigrafiker würde dafür auch kein Vermögen in Rechnung stellen. Mit einem einfarbigen Titelbild sollte man sich in jedem Fall nicht zufrieden geben ;-)

Nach dem Hochladen des finalen Manuskripts hat es dann nochmal 2 Tage gedauert, bis das Buch im amazon Shop zu sehen war. Das mag daran gelegen haben, dass ich es an einem Sonntag abgeschickt hatte. Dazu kam dann allerdings auch noch eine Nachfrage von amazon, die Material im Buch entdeckt hatten, das frei im Web verfügbar ist. Ja, wie denn auch nicht. Es sind ja meine Blogartikel :-) Da musste ich nochmal bestätigen, dass ich der Copyright-Inhaber bin.

Preisfindung

Ein bisschen hat mich noch die Preisfrage umgetrieben. Wie viel “darf” so ein eBook kosten? 0,99 EUR oder 1,49 EUR oder 2,68 EUR oder 5,79 EUR oder 8,45 EUR? Ich habe mich für den niedrigsten Preis entschieden, der mir als Autor noch 70% vom Nettoverkaufspreis bringt. Das ist ein Experiment. Runtergehen kann ich eher mit dem Preis, als ihn rauf zu setzen.

Einen einzelnen Artikel kann man bei vielen Zeitschriften online als PDF für 0,99 EUR oder 1,50 EUR kaufen. Das sind dann vielleicht 4-5 Heftseiten, also ca. 8-9 A4 Seiten. Mein eBook enthält aber rund 30 A4 Seiten, also ca. 3-4 Mal so viel wie ein Artikel. Deshalb denke ich, dass 2,68 EUR Verkaufspreis angemessen sind.

Ein anderer Vergleichsmaßstab ist für mich – wie auch im Klappentext angedeutet – der Preis eines Stückes Kuchen oder ein Heißgetränk im Coffeeshop. Da geben wir alle ohne zu zucken 2,50 EUR oder auch weit mehr aus, um uns einen sehr flüchtigen Genuss zu verschaffen. Insbesondere wenn wir “to go” wählen, leistet der Coffeeshop nicht mehr, als einen Becher auszugeben. Wir nutzen keine weitere Infrastruktur. So schlappen wir durch die Gegend mit 2,50 – 4,90 EUR in der Hand, die in 15 Minuten im Magen verschwunden sind. Für eine ganze Stunde “Genuss” würden wir mithin 15,00 – 20,00 EUR ausgeben – das ist mehr als im Kino. Selbst “Rauchgenuss” ist viel billiger.

Ich gebe auch Geld aus für solche modernen Heißgetränke. Dabei sitze ich jedoch meist in meinem Lieblings-Coffeeshop. Ich bezahle deshalb eher für die “Aufenthaltsmöglichkeit” als das Getränk. Aber einerlei. Wenn ich bereit bin, für solch flüchtigen Genuss soviel Geld auszugeben, dann finde ich es nicht zu hoch gegriffen, für 45 – 60 Minuten Lesestoff 2,68 EUR anzusetzen. Vor allem, wenn der Lesestoff auch noch den Anspruch hat nachzuwirken; ich hoffe ja, beim Leser etwas mit dem eBook-Inhalt zu bewirken.

Aber, wie gesagt, das mit dem Preis ist ein Experiment. Für Musik haben sich inzwischen 0,99 EUR pro Titel eingebürgert. Dafür bekommt man 3 – 6 Minuten Ohrenschmaus. Bei eBooks müssen wir noch herausfinden, wo Käufer und Leser möglichst reibungsfrei zusammenfinden.

Nach dem Experiment…

…ist vor dem Experiment. Mein Kindle-Experiment habe ich erstmal abgeschlossen. Von der Idee bis zur Verfügbarkeit des eBooks im amazon Shop hat es 6 Tage gedauert – davon 2 bei amazon.

Aber das Selbstverlegen ist damit nicht zuende. So ist das Buch nur bei amazon erhältlich. Wie kriege ich es denn aber auch noch auf andere Plattformen oder auf Papier – für die, die das dringend wollen?

Es sind also noch einige weitere Experimente nötig. Mit CreateSpace bietet amazon einen Weg zum Papier. Alternativ könnte ich mich aber auch für lulu.com oder epubli.de entscheiden. Und was ist mit anderen eBook-Plattformen? Wer den lokalen Buchhandel unterstützen möchte, hätte es lieber, ein eBook über einen anderen Kanal zu kaufen, bei dem auch sein Buchhändler etwas davon hat. Vielleicht probiere ich mal bookrix.de als Vermittler aus.

Und natürlich werde ich beim Inhalt experimentieren. Zweitverwertung als eBook finde ich völlig in Ordnung. Doch ich will auch neue Inhalte für eBooks schreiben.

Endnoten

[1] Kindle-Reader gibt es als Gerät und Apps für jede Plattform. Die Übertragung des eBooks auf Gerät/App ist ein no brainer. Und der Lesefortschritt sowie die Notizen werden über Gerät/App hinweg synchronisiert. Diese Einfachheit bietet derzeit sonst kein Anbieter, nicht Thalia mit textunes und auch nicht libri mit seiner eBook Reader App. Und iTunes? Ist zwar für den Leser einfach, doch für den Autor schwierig. Ohne Vermittler, der mir das Administrative und auch die Abrechnung einfacher macht, würde ich da nichts einstellen.

[2] Es gibt einige Literatur im Web und bei amazon dazu, was es bei Kindle-Büchern zu beachten gibt, z.B.

Samstag, 26. Dezember 2009

Neues Format für längere Blogartikel? [OOP 2010]

Es gibt keine formale Beschränkung für die Länge von Blogartikeln. Und so habe ich bisher kürzere wie längere unterschiedslos hier gepostet. Nun mir jedoch Zweifel gekommen, ob ich das auch weiterhin tun soll.

Online Zeitungen verfahren ja schon lange so, dass sie längere Beiträge splitten. Beispiel www.zeit.de: Artikel werden zunächst häppchenweise gezeigt, wie Sie hier sehen können; erst wenn Sie “Auf einer Seite lesen” anklicken, bekommen Sie alles auf einer Seite. Die Zeit hat für solche verschiedenen “Views” natürlich ein hübsches Redaktionssystem, bei dem auch noch ein PDF rausfällt. Das kann ich mir natürlich nicht leisten. Was also tun?

Wie wäre es denn, wenn ich längere Beiträge nicht mehr direkt ins Blog schriebe, sondern wie folgt veröffentlichen würde:

Zustand als Abhängigkeit - IoC konsequent gedacht

Wenn Sie mögen, können Sie diese Ansicht auf den ganzen Bildschirm vergrößern. Oder Sie stellen vom “Book View” um auf den “Scroll View”, um quasi wieder alles auf einer langen Seite zu haben. Oder Sie drucken den Inhalt aus. Oder Sie exportieren ihn als PDF, um ihn auf Ihrem favorisierten ebook-Reader zu lesen.

Was meinen Sie? Wäre solche Differenzierung in der Publikation nicht eine gute Sache? Blogartikel, die ca. eine Bildschirmseite lang sind, veröffentliche ich weiterhin direkt im Blog. Aber Artikel von mehreren Bildschirmseiten oder gar mehreren Druckseiten biete ich Ihnen im obigen Format.

Denn seien wir ehrlich: Längere Texte am Bildschirm zu lesen, ist immer unschön. Es macht wenig Unterschied, ob sie häppchenweise präsentiert werden oder in einem Stück. Längere Inhalte brauchen Überblick. Den bietet nur ein Ausdruck – wofür ein Blog keine wirklich gute Grundlage ist – oder eine Ganzseitendarstellung im Hochformat auf einem speziellen Reader.

Vergleichen Sie einmal den Text im obigen Viewer bzw. nach Ausdruck mit der ursprünglichen Veröffentlichung. Welche Präsentation finden Sie lese- bzw. verständnisfreundlicher?

Nachtrag: In einigen Kommentaren zu diesem Posting wurde gegen solche Flash-Darstellung eingewandt, dass der Content dann nicht von Suchmaschinen indiziert würde. Das ist jedoch falsch wie diese Suche beweist: http://www.google.de/search?q="zustand+als+abhängigkeit"+site:scribd.com (die Einschränkung mit site:scribd.com habe ich nur gemacht, um den Link zum Dokument auf die erste Ergebnisseite zu bringen). Das erste Ergebnis ist ein Link auf das obige Dokument: http://www.scribd.com/doc/24512457/Zustand-als-Abhangigkeit-IoC-konsequent-gedacht.

Freitag, 8. Mai 2009

Die Zukunft der IDEs ist hier - Intentional Programming [OOP 2009]

imageVor 4-5 Jahren hatte ich die Zukunft schon einmal gesehen. Damals auf der SD West Konferenz in Los Angeles. Jetzt wieder - aber dieses Mal im Internet. Sie scheint nun auch nicht mehr in so weiter Ferne zu liegen. Die Zukunft der IDEs ist für einige nämlich schon hier. Intentional Software - die ambitionierte und geradezu geheimnisvolle Firma von Softwarepionier Charles Simonyi - hat schon die ersten Releases ihrer Intentional Domain Workbench hinter sich. Bisher ist in deren Genuss allerdings nur ein kleiner Kreis von Anwendern gekommen.

Nach Jahren der eher verschlossenen Türen und vorsichtigen Äußerungen sucht Intentional Software nun jedoch vermehrt den Kontakt zur Entwicklergemeinde, wie es scheint. Selbst auf einer so kleinen Konferenz wie der SET 2009 war Charles Simonyi mit seinen Mitarbeitern, um ihre Vision von der Softwareentwicklung der Zukunft vorzustellen.

Das Bild oben skizziert, worum es geht: Software ist nurmehr eine abstrakte Beschreibung einer Problemlösung, die viele Darstellungen haben kann. Sie ist sogar so abstrakt, dass ihre "wahre Form" in der IDE nicht direkt bearbeitet wird. Für Visual Studio ist Software letztlich der Quelltext, den wir schreiben. Für die Intentional Domain Workbench ist es hingegen ein interner Baum. Und diesen Baum projiziert die Workbench als ganzes oder in Teilen so, wie es für den Anwender am besten passt. Programmierer sehen ihn z.B. als C#- oder Ruby-Code, Domänenexperten als Tabelle oder Graph oder Diagramm.

Und wo ist der Unterschied zu den domänenspezifischen Sprachen samt Werkzeugen wie Oslo, die gerade en vogue sind? Wo ist der Unterschied zum Model Driven Development?

Die Schnittmenge ist natürlich die domänenspezifische Darstellung. DSLs, MDD, Intentional Software bringen das Programm näher an den Domänenexperten. Der Transfer von Formulierungen in der Domänensprache in einem Anforderungsdokument in Code soll leichter werden. Oder noch besser: Domänenexperten sollen im Idealfall selbst programmieren.

image Dass das möglich ist, haben Tabellenkalkulationsprogramme wie Excel schon für viele Problemdomänen gezeigt. Vor Excel bzw. VisiCalc mussten Anwender entweder den Taschenrechner bemühen oder ihre Kalkulationen Programmierern erklären, die sie dann z.B. in C oder Fortran umgesetzt haben. Heute greift der Domänenexperte selbst zu Excel oder - um ein anderes Beispiel zu nennen - MATLAB.

In ihrem Lösungsansatz für die "Domänenprogrammierung" unterscheiden sich DSLs, MDD und Intentional Software jedoch. Die Intentional Domain Workbench profiliert sich dabei aus meiner Sicht durch zweierlei:

  • Abstrakte Repräsentation: Der Quellcode von Software hat nichts mehr mit einer Ausführungsplattform oder Problemdomäne zu tun. Er ist wirklich abstrakt, also nicht mehr textuell.
  • Perspektivenvielfalt: Quellcode soll auf viele verschiedene Weisen im Ganzen oder in Ausschnitten dargestellt und bearbeitet werden können. Alle Sichtweisen sind gleichberechtigt. Quellcode kann daher auch gleichzeitig verschiedene Problemdomänen repräsentieren.
  • Fließende Darstellung: Die vielen Perspektiven auf den Quellcode fließen in der Workbench umeinander. Sie müssen sich nicht zwischen der einen oder der anderen entscheiden, sondern können nebeneinander oder ineinander immer wieder anderen Perspektiven einnehmen.

Schauen Sie sich einmal dieses Video einer Präsentation der Workbench an. Für einen schnellen Eindruck von der Dynamik dieser visionären IDE empfehle ich allerdings den Download der WMV-Datei; spulen Sie darin vor bis zu Minute 14. Da gehts los mit der Demo, aus der die Screenshots oben stammen. Bis zu Minute 45 ist dann die Zukunft der IDEs schon auf Ihrem Desktop. Seien wir gespannt, wann sie schließlich als öffentliche Beta materialisiert. Aber warten Sie nicht darauf! Intentional Software hatte schon viel Zeit und wird wohl auch noch weiter Zeit haben. Man scheint auf Qualität bedacht statt Hype. Eine wohltuende Haltung in Zeiten sich überschlagender CTPs.

Donnerstag, 30. Oktober 2008

Qualität hat keinen Preis mehr - so scheint es

Zwei symptomatische Geschichte:

Es ruft ein Kompetenzträger bei einem Konferenzveranstalter an und fragt, ob der für die nächste Konferenz an Vorträgen zu einem Thema interessiert wäre. Der Veranstalter freut sich nach Rücksprache mit dem Content Management mitteilen zu können, dass die angetragenen Vorträge gut ins Programm passen würden. Eine Kleinigkeit sie vorher allerdings noch zu klären: der Umfang des Sponsorenpaketes, das der Kompetenzträger buchen möchte.

Ein andermal ruft die Redaktion eines unserer Fachmagazine zur Einreichung von Artikelvorschlägen auf. Auf Nachfrage, wie hoch denn das zu erwartende Autorenhonorar sei, antwortet man, dass ab der dritten Heftseite eines Artikels 40 EUR/Seite gezahlt würden. Für die Seiten 1 bis 3 sei den Autoren jedoch ein sehr warmer, in nicht näher spezifizierten Naturalien ausgedrückter Dank des Verlages gewiss.

Zwei Geschichten, eine Reaktion: Traditionelle Inhaltsplattformen wollen kein Geld mehr für ihre Inhalte ausgeben. Sie wollen das, was ihren Wert ausmacht, weder produzieren noch die Produktion bezahlen.

Sind im Web oft für die Konsumenten kostenlos, so kehrt sich dies scheinbar gerade bei den für die Branche relevanten traditionellen Medien Zeitschrift und Konferenz um. Da bezahlen die Konsumenten und die ureigentlichen Produzenten gehen leer aus oder sollen gar noch Geld mitbringen.

Eine merkwürdige Welt ist das.

Mit dem, was ich einmal auf der Schule gelernt habe, hat das nicht viel zu tun. Da galt nämlich, dass Angebot und Nachfrage den Preis regeln. Ist das Angebot groß und die Nachfrage klein, dann ist der Preis für das Angebot niedrig. Kommt dann die Nachfrage dem Angebot näher, zieht der Preis an. Maximal wird der dann bei einem Monopol.

Daran hat auch das Web nichts geändert, würde ich mal sagen. Wenn die Artikel bei Codeproject für Leser kostenlos sind, dann liegt das daran, dass das Angebot an Content im Web so riesig ist. Die Nachfrage pro Contentanbieter ist deshalb klein und der Preis niedrig bis nicht existent. Wenn Codeproject dennoch überleben kann, dann liegt es an Werbeeinnahmen und good will der Contentproduzenten. Die verschenken ihr Wissen für... ja, für was eigentlich? Für das gute Gefühl, der Community etwas zurückgegeben zu haben:

"Everything on the site may be freely used. All we ask in return is that you contribute something back to the community." (CodeProject FAQ)

Ob das genug Lohn der Mühe ist, muss jeder für sich entscheiden. Dass die Qualität solcher Gratisinhalte oft zu wünschen übrig lässt, ist hingegen wenig zweifelhaft.

Aber einerlei. In den zwei obigen Geschichten geht es nicht um Codeproject. Es geht auch nicht ums Web. Es geht vielmehr um traditionelle Medien, die mittlerweile schon traditionell nicht aus dem Klagen herauskommen, die Nachfrage bei ihnen sei so schmerzvoll gering.

Was tun sie aber in der Lage: sie senken weder den Preis, noch erhöhen sie die Qualität. Sie drehen vielmehr an der Kostenschraube. Sie geben den Druck, der auf ihnen lastet, an die weiter, die eigentlich erst ihre Existenz berechtigen. Denn ohne Inhalte kein Medium zu ihrer Verbreitung.

Es gibt natürlich kein Recht auf Honorar für Kompetenzträger. Und so finde ich es ganz legitim, wenn Medien wie das MSDN Magazine kein Honorar zahlen. Auch sie leben nach den Gesetzen des Marktes: Das Angebot ist beschränkt, die Nachfrage ist hoch, also ist auch der Preis hoch. In diesem Fall meine ich allerdings das Angebot an Platz für den Inhalt und die Nachfrage von Autorenseite. Pro Ausgabe erscheinen nur ca. 15 Artikel von denen einige schon fest an Kolumnenautoren vergeben sind. Für die verbleibenden gibt es eine lange Schlange an willigen Autoren - also erlaubt sich das MSDN Magazine, kein Honorar zu zahlen. Dort zu veröffentlichen hat für die Autoren soviel Wert (Ruhm oder Sichtbarkeit + Aufträge), dass sie diese Politik akzeptieren.

Wieder zurück zu lokalem Konferenzveranstalter und Zeitschriftenverlag. Die haben nun dieselbe Politik wie das MSDN Magazine installiert - aber bieten bei weitem nicht denselben Nutzen für die Inhaltsproduzenten. Die Konferenzen des Veranstalters sind klein, die Auflage der Zeitschrift auch. Das beklagen beide.

Es erscheint mir daher widersinnig, eine solche Politik im Umgang mit den Wertproduzenten zu installieren. Was verspricht man sich davon? Beide handeln gegen das simpelste Gesetz des Marktes: Keine Nachfrage bei dem Abnehmern, aber der Preis bleibt konstant und der Wert wird nicht erhöht. Keine Nachfrage bei den Inhaltslieferanten, aber der Preis für die Lieferung wird erhöht, indem das Honorar gesenkt wird.

Denn so sieht es leider aus: die Inhalte der Konferenzen und der Zeitschrift sind nicht herausragend. Kompetenzträger, die fachlich gut und stilistisch angenehm vortragen oder schreiben, sind einfach Mangelware. Wer dann nichts dafür, sondern alles dagegen tut, die eigene Inhaltsplattform attraktiv für solche ohnehin raren Inhaltslieferanten zu machen, der darf sich nicht wundern, wenn die Qualität sinkt. Einige sehr gute und auch beliebte Inhaltslieferanten sind denn auch schon nicht mehr zu sehen oder zu lesen; sie haben besseres zu tun, als auch noch Geld für die Wissensweitergabe auszugeben.

Was ist unzweifelhaft der Effekt, wenn Kompetenzpräsentationen nicht nur nichts einbringen, sondern sogar kosten sollen? Sie geraten zu Verkaufsveranstaltungen. Es präsentieren die sich, die es nötig haben, weil sie nicht nur die Investition der Präsentation wieder hereinbekommen müssen, sondern auch noch darüber hinaus mit ihr Profit durch nachfolgende Aufträge generieren müssen.

Oder es sind die zu sehen, die sich zeigen müssen, weil ein System es so will ("publish or perish") bzw. der Chef.

Alles in allem ist - wie überall, wo Werbung ins Spiel kommt - aber nicht damit zu rechnen, dass durch solche Politik die Qualität im Allgemeinen und Ehrlichkeit/Authentizität im Besonderen steigen. Nach beidem fragen aber Teilnehmer wie Leser. Im Dschungel heutiger Technologien brauchen sie nichts dringender als vertrauenswürdige Quellen. Präsentatoren in Wort oder Schrift, die für die Präsentationsmöglichkeit zahlen mussten, sind das allerdings eher nicht.

Ergo: Die Nachfrage nach diesen Inhaltsplattformen kann nur abnehmen. Die schon jetzt beklagte negative Tendenz verschärft sich. Die, die gut aufbereitete Informationen dringender denn je nötig haben, wandern weiter ab ins Web, um dort viel Mühe für die Filterung von Inhalten aufzuwenden.

Schade. Denn die Plattformen haben einen Namen. Nun verspielen sie ihn.

Früher war platte Werbung. Da konnten wir Inhalt und Beschönigung auseinander halten. Dann kam das Advertorial. Sofern gekennzeichnet, konnten wir immer noch Inhalt und Beschönigung trennen, doch es war schwieriger geworden. Nun kommt ungekennzeichneter bezahlter Content. Den können wir nicht mehr von Content unterscheiden, der nicht primär verkaufsinteressengeleitet ist. Statt für unser Geld vertrauenswürdieg Informationen zu bekommen, sehen und lesen wir im Zweifelsfall vor allem eines: Werbung.

Eine verhängnisvolle Entwicklung, die letztlich allen Inhaltsanbietern Schaden zufügt. Wer sich da beklagt, dass es mit der Nachfrage nicht stimmt und auf das Web zeigt, der hat leider weder die Befindlichkeit der Branche noch die Gesetze des Marktes begriffen.

image Dabei wäre es doch so einfach, die Nachfrageentwicklung umzukehren. Die Zauberworte lauten - wie immer - Innovation und Investition. Wer das nicht glaubt oder sich inspirieren lassen möchte, der lese "Alles, außer gewöhnlich". Dessen Autoren haben sicherlich auch ein Honorar für ihre Arbeit bekommen.

PS: Es geht mir übrigens bei dieser Betrachtung nicht darum, ob mir oder jemand anderem die Geschichten widerfahren sind. Ich stelle nur eine bedenkliche Tendenz fest. Nicht nur für jeden, der daran denkt, doch mal sein Wissen weiterzugeben, sondern für alle, die vertrauenswürdiges Wissen suchen.

Montag, 27. Oktober 2008

Publizieren, aber mit Zukunft - Ein erster Baustein

Nun ist´s geschehen: Die Verlagswelt hat seit der Buchmesse 2008 unwiderruflich erkannt, dass das eBook (oder allgemeiner: eContent) nicht vorübergehend und nicht nebensächlich ist. Vielmehr gilt: "eContent is core". Das eBook kommt also. Jetzt, nun endlich. PDF gibt es schon lange und die zweite Welle der eBook Reader ist nun auch akzeptabel. Genug kritische Masse ist vorhanden, um "traditionellen Content" - also Zeitschriften und Bücher - digital der Leserschaft zuzuführen.

Aber wie nun genau? Das ist die Masterfrage. Puzzleteile für ein modernes Verlagsangebot gibt es viele. Hier als Beispiel eines, das mir sehr gut gefällt:

Das ist ein Artikel von mir dargestellt in einem Flash-basierten Viewer. Dafür habe ich nur das Artikel-PDF zu www.scribd.com hochladen müssen. Fertig. Das "Leseerlebnis" gefällt mir besser als im Acrobat Reader: das Blättern ist flüssiger, es gibt eine gute Übersicht, ich kann zwischen mehreren Ansichtmodi wechseln.

So könnte es die dotnetpro mit allen Artikeln in ihrem Archiv für die Abonnenten machen; die anderen Zeitschriftenanbieter selbstverständlich auch. Denn nicht nur hat so ein Viewer Vorteile für den Leser. Verlage können einstellen, was Sie dem online Leser mit so einem Dokument erlauben zu tun. Soll er es als PDF lokal speichern können? Soll er es drucken können? Der Verlag behält das Szepter in der Hand.

Genau das war es nämlich, was Verleger bisher vermisst haben. Bei allem Interesse für die online Welt fühlten sie sich an Physische gekettet, weil sie Angst hatten, sonst keinen Einfluss mehr auf die Verwendung ihrer Inhalte ausüben zu können. Die Wahl lautete bisher (scheinbar): Drucken und Geld verdienen oder online anbieten und leer ausgehen.

Mit einem Viewer wie oben gibt es nun noch eine dritte Position in der Mitte: online gehen und die Nutzung nach Gusto einschränken. Ohne Inhalte noch speziell für´s Web layouten zu müssen, können sie 1:1 online gestellt werden. Die Verlage können den Nutzen der online Publikation also quasi sofort einfahren - ganz ohne Reie-

Die Zukunft einer Zeitschrift wie der dotnetpro stelle ich mir deshalb so vor:

  • Die dotnetpro produziert zunächst einmal alle Inhalte nur digital als PDF. Sie werden wir üblich layoutet und mit Werbung gespikt.
  • Die Inhalte werden wie oben gezeigt online publiziert. Manche Inhalte sind kostenlos und können von jedem gelesen werden. Manche Inhalte kann man nur mit einem Abo lesen. Wer ein Abo hat, kann sie dann auch lokal als PDF speichern.

So weit, so gut. Hätte alles auch schon passieren können ohne einen solchen Flash-Viewer. Klar. Das online Archiv der dotnetpro gibt es ja auch schon. Aber, wie gesagt, die einfache Darstellung der Artikel (oder eines ganzen Heftes) wie oben finde ich viel attraktiver als Acrobat.

imageDoch jetzt weiter: Was ist denn mit den Lesern, sie gern auch Papier in der Hand hätten? Online lesen ist nicht jedermanns Sache und auch nicht optimal für jede Situation. Zum Nachschlagen nutze ich es gern. Aber meine monatliche dotnetpro auf Papier möchte ich nicht missen.

Oder genauer: Ich möchte die Artikel, die ich jeden Monat lesen möchte, auf Papier haben können, wenn ich es will. Darüber hinaus möchte ich sogar jederzeit mir Artikel der dotnetpro zu "Sonderheften" zusammenstellen können, die ich dann auf Papier bekomme.

Das geht zwar auch, indem ich mir Artikel zusammensuche und die PDFs ausdrucke. Aber wieviel Mühe ist das? Und wie sieht das Ergebnis aus? Unschönes Papiergefledder.

Inhalte in gefälliger gebundener Form: das hat Wert für mich als Leser! Die möchte ich also auch in Zukunft, wenn dotnetpro & Co "digital gehen", nicht missen. Das eBook wird das pBook nicht verdrängen. Aber es wird seine Herstellung und Nutzung verändern.

Für die dotnetpro, das CoDe Magazine, das MSDN Magazine, Dr. Dobb´s Journal usw. zahle ich also aus mehreren Gründen gern:

  1. Inhalt: Sie liefern mit eine für mich relevante Mischung an Content auf hohem Niveau, ohne dass ich lange googlen muss.
  2. Layout: Der Content ist gut lesbar layoutet und auf einem sprachlich ordentlichen Niveau. So ist die Lektüre leichter für mich.
  3. Usability: Den Content in die Hand nehmen zu können, um ihn im Bus oder in der Badewanne lesen und darin Notizen machen zu können, macht ihn für mich lesefreundlich. Durch ein Heft blättern und auch räumlich einen Eindruck vom Inhalt zu bekommen, halte ich für wichtig für das Behalten. (eBook Reader können das nicht bieten - und wollen es auch nicht. Sie sehen darin gerade ihren Vorteil.)

Das sind meine Prioritäten. In dieser Reihenfolge. Das Papier kommt zuletzt - aber es kommt. dotnetpro & Co sollten es also nicht aufgeben. Im Gegenteil! Ichhalte das Papier auch im Zeitalter der eBooks für den Freund jedes Verlegers. Doch er muss damit anders umgehen. Es ist gerade für Fachinhalte nicht mehr erstrangig im Sinne eines primären Veröffentlichungsmediums.

Zur Zukunft der dotnetpro gehört für mich deshalb auch noch:

  • Ich kann mir die online publizierte dotnetpro bei Bedarf ausgedruckt und gebunden liefern lassen. Sie wird dann on demand hergestellt.
  • Nicht nur die monatlichen Artikelzusammenstellungen kann ich mir drucken und binden lassen, sondern jede Kombination von Inhalten. Die dotnetpro kann selbst Sonderhefte aus ihren Archivinhalten schnüren und online wie printed on demand anbieten. Darüber hinaus bietet sie mir die Möglichkeit, im Archiv zu suchen, Artikel zu einem virtuellen Sonderheft zusammen zu fassen - und auch dieses persönliche Sonderheft auf Papier zu bestellen.
  • Und im nächsten Schritt kann ich Filter auf die Inhalte setzen, so dass automatisch Neuerscheinungen in für mich relevanten Bereichen zu "Sonderheften" gebündelt werden. Für die online Nutzung geht das heute schon mit RSS-Feeds. Aber ich wünsche mir darüber hinaus, dass diese Inhalte als Hefte einfach so mir auf den Tisch flattern. Denn dann schenke ich ihnen eine andere Aufmerksamkeit. Dann kann ich mich auf die fokussieren, statt oft online nur husch-husch drüber zu lesen.

Meine Vision von der Zukunft der Zeitschriften ist also eine hybride: Sie sollten zuerst online publizieren - was nicht heißt, dass es kostenlos sein soll. Sie sollten aber auch weiterhin auf Papier verfügbar sein, wenn ich es mir wünsche.

Der obige Flash-View ist dafür ein erster Baustein, weil er so handlich für Leser und Verleger ist. Der zweite Baustein, der ad hoc on demand Druck... der fehlt noch. Existierende Print-on-Demand Anbieter wie Book on Demand oder buchwerft können das nicht. Hilfe naht jedoch... Der zweite Baustein ist unterwegs. Davon aber ein andermal.

PS: Was ich hier über Zeitschriften gesagt habe, gilt im Grunde auch für Fach-/Sachbuchverlage. Auch sie sollten "online first" denken - ohne Abstriche beim Layout. Dann eröffnen sich ganz neue Möglichkeiten des Umgangs mit Büchern. Die Zukunft gehört dann dem cBook, dem customized book, d.h. den Büchern, die jeder sich zusammenstellen kann, wie er möchte - aber nicht muss.

Sonntag, 17. August 2008

Technologiedämmerung - Nur konstantes Beobachten hilft

Welche Technologien bringen eigentlich 'was? Wann lohnt es sich aufzuspringen? Diese und ähnliche Fragen höre ich immer wieder von Konferenzteilnehmern oder bei Beratungen. Sie sind Zeichen der Ratlosigkeit angesichts einer kaum mehr überschaubaren Zahl von technologischen Optionen. Wer eine Fachzeitschrift wie die dotnetpro liest, der hat deshalb Anspruch, dass sie ihn darüber informiere, was lohnt und was nicht lohnt.

Die Empfindung bei vielen ist jedoch, dass Fachzeitschriften solchem Informationsanspruch nicht gerecht werden. Sie verkünden nicht immer "die Wahrheit", d.h. sie scheinen nicht neutral gegenüber Technologien. Sie sagen nicht offen (oder nur viel zu selten), welche gut und welche schlecht sind.

Beispiel CORBA-Berichterstattung

image Anlässlich eines Artikels mit dem Titel "The rise and fall of CORBA" sind mir die Eingangsfragen nun wieder eingefallen. Sicherlich haben in den letzten 10-12 Jahren viele Entwickler überlegt, "Soll unser Projekt auf CORBA setzen oder nicht?" Sie mögen sich dann den einschlägigen Fachzeitschriften wie dem OBJEKTspektrum oder JAVAspektrum um Entscheidungshilfe zugewandt haben. Andere Quellen mögen natürlich auch konsultiert worden sein. Aber nun... nun ist CORBA tot. Doch nicht nur das! CORBA hat auch - wie der Artikel resümiert - nie wirklich gut funktioniert. CORBA war zum Scheitern verurteilt.

Soviel weiß zumindest der geschichtliche Rückblick. Wie ist es aber heute? Welche Technologien und Ansätze sind das CORBA von morgen? Das würden alle Softwareentwickler gern so früh wie möglich wissen, um nicht ihre kostbare Zeit an Verlierer zu verschwenden.

Ich habe mir deshalb mal die Berichterstattung zum Thema CORBA im OBJEKT- und JAVA-spektrum angeschaut. Ganz grob nur, aber trotzdem mit einem interessanten Ergebnis, wie ich finde. Die folgende Grafik zeigt die Häufigkeit der Erwähnung von CORBA in Artikeln im Allgemeinen und den Artikelüberschriften im Besonderen über die Jahre.

image

In den Jahren 1994 bis 2000 nimmt die Berichterstattung zu. CORBA ist ein heißes Thema. Auf dem Gipfel Relevanz enthält fast jedes Heft einen CORBA-Artikel und in jedem zweiten ist CORBA auch noch im Titel erwähnt.

Doch dann verliert CORBA abrupt an Präsenz. Im Verlauf von 3 Jahren sinkt die Berichterstattung auf Null - und erholt sich danach auch nicht wieder. Insbesondere bleibt CORBA aus den Artikeltiteln verschwunden.

Was war geschehen? In den Jahren 2000 bis 2003  hatten SOAP-basierte Web Services und EJB 2.0 die Aufmerksamkeit der Berichterstattung. Sie haben der CORBA-Initiative das Wasser abgegraben und schließlich zu dem Urteil geführt, dass CORBA seine Versprechen nicht eingelöst hat und wohl auch nicht einlösen konnte.

interpretation der Berichterstattung

Jetzt zur Frage, wie ein unbefangener Leser dieser Zeitschriften die CORBA-Entwicklung hätte einschätzen sollen. Was boten OBJEKT- und JAVAspektrum für Hinweise?

Mein Eindruck ist, dass es keine wirklich kritische Berichterstattung gibt. Das hat nichts mit diesen beiden Zeitschriften zu tun, sondern ist endemisch. Kritische Berichte mit einer Überschrift wie "Die Nachteilte von Technologie X" sind anscheinend unattraktiv. So, wie die Bild-Zeitung vor allem über Negatives berichtet, so berichten Fachmagazine vor allem über Positives. Skandale, Gewalt, Sex verkaufen sich beim Massenpublikum der Boulevardpresse. Verheißungen, Erfolge, Hype verkaufen sich beim Fachpublikum. (Und ab und an auch Negatives wie Microsoft-Bashing.)

Kritik ist kaum explizit vorhanden. Implizit findet sie allerdings statt: Wie die Grafik zeigt, ist ab 2001 CORBA deutlich weniger ein Thema. Das ist ein erster Hinweis auf Nachteile bzw. ungenügende Vorteile. Ein noch deutlicherer Hinweis scheint jedoch die fast völlige Abwesenheit des Begriffs in den Artikelüberschriften. Wo CORBA nicht mehr in der Überschrift steht, da ist wenig oder gar kein CORBA drin. Bis 2000 fand CORBA in ca. 50% der Artikel den Weg in die Überschrift, nach 2000 im Mittel nur noch bei 10%.

In der Berichterstattung ist die Abwesenheit von Lob bzw. titelgebender Erwähnung die deutlichste Form von Kritik, wie es scheint.

Schlüsse

Natürlich wäre eine breitere Auswertung der Berichterstattung über CORBA und auch andere erfolgreiche wie erfolglose Technologien wünschenswert. Als anekdotische Analyse mit Motivationscharakter mag dieser Versuch dennoch aber gewissen Wert haben. So ziehe ich denn einmal folgende Schlüsse aus den Zahlen:

  • Technologiedämmerungen werden nicht wirklich thematisiert, sondern durch die Morgenröte der Alternativen überstrahlt.
  • Wer also etwas über den Wert von Technologien erfahren will, der darf nicht darauf warten, dass eine neutrale pro und contra abwägende Abhandlung veröffentlicht wird. Der (wahrgenommene) Wert einer Technologie ergibt sich aus ihrer An- und (!) Abwesenheit bei der Berichterstattung.
  • Technologien haben einen Lebenszyklus. Der kann - wie CORBA zeigt - viele Jahre umfassen, selbst wenn die Technologie suboptimal ist. Ob eine Technologie wirklich ihrem Anspruch gerecht wird, ist dabei ebenfalls womöglich erst nach Jahren feststellbar. Wer also auf schnelle Orientierung durch die Berichterstattung hofft, hofft vergebens.

Daraus folgt: Ob eine Technologie etwas taugt, ist an der Berichterstattung über sie nicht wirklich ablesbar. Die informiert zunächst und vor allem über Neuigkeiten und das, was geht. Das muss dann jeder Einzelne als Anlass nehmen, die Technologien selbst einer Prüfung im Hinblick auf seine Problemszenarien zu unterziehen.

So ist es halt. Aber muss es so sein? Wahrscheinlich. Es gibt einfach derzeit keine Lobby für negative Berichterstattungen zu Technologien und Konzepten. Wer schreibt, will kaum über Misserfolge schreiben. Und wer veröffentlicht, der ist an attraktiven hoffnungstragenden Themen interessiert und nicht an Misserfolgen. Wenn schon die Veröffentlichung von falsifizierenden Forschungen in der qua Anspruch neutralen Wissenschaft ein Problem ist, dann allemal die von negativen Erfahrungen in Publikationen "nur" für ein Fachpublikum.

Wer Orientierung sucht, muss also selbst ständig beobachten und die Themenlebenszyklen im Blick behalten. Um das Selberlernen, das eigene Evaluieren führt wieder einmal kein Weg herum.

Oder? Wo ist die Publikation, die genau das aufgreift und Themenentwicklungen verfolgt? Das wäre doch mal etwas! Das wäre eine Dienstleistung ab vom Üblichen, die wirklich etwas bringen können. Die Branche würde sich selbst reflektieren. Ein Zeichen von Erwachsenwerden wäre das. Allerdings: Zu schön, um wahr zu werden, fürchte ich.

Freitag, 25. Juli 2008

dotnetpro.tv einmal anders

Leider habe ich ja bis auf Weiteres meine Videoserie dotnetpro.tv einstellen müssen. (Das Budget hat einfach auf Dauer nicht gereicht. Schade.) Deshalb freue ich mich umso mehr, nun doch einmal wieder in einem Video "mitgespielt" zu haben:

image

Microsoft hat auf der OOP 2008 eine Reihe von Videos aufgenommen, so auch eines mit meiner Rhetoriktraining-Kollegin Renate Klein und mir. Wir sollten etwas zum Thema "Softwarearchitektur" sagen - haben uns dann allerdings erlaubt, nicht über Technologien und Konzepte zu reden, sondern über Softskills.

Hat Spaß gemacht. Und Damir, der Interviewer, hat auch noch in unser Horn gestoßen. Sehr gut! :-) Das Interview ist jetzt online. Viel Spaß bei dotnetpro.tv der anderen Art!

Dienstag, 19. Februar 2008

dotnetpro.tv lernt von Willi, oder: Zufällige Begegnung relativer Prominenter

dotnetpro.tv macht ja gerade eine Kreativpause. Nach mehr als 30 Folgen habe ich einfach mal über ein Redesign nachdenken wollen. Eigentlich hatte ich auch schon eines in petto... aber dann habe ich Willi getroffen. Willi ist nämlich einer meiner Helden aus dem Fernsehen. Oder genauer: Willi ist der Moderator einer tollen "Welterklärungsserie" für Kinder - "Willi wills wissen" -, die ich immer mit meiner Tochter schaue. Die Sendung mit der Maus war sozusagen gestern ;-) Heute ist Willi. (Naja, und "Wissen macht Ah!" und "pur+" - jedem Sender seine "Welterklärung" ;-) Aber alle gut gemacht. Da kann man echt was lernen. Sehr kurzweilig!)

Neulich hab ich also Willi auf dem Münchener Flughafen getroffen. Allerdings war ich der einzige, der ihn erkannt hat. Keine Paparazzi, die ihn umlagert hätten. Nix. Keine Köpfe, die sich ihm nachdrehten. Kein Getuschel "Hast du den gesehen? Der ist doch aus dem Fernsehen..."

image

Zuerst dachte ich nur, "Hm... den kenn ich doch. Sollte ich ihn grüßen? Hab ich den grad auf der VSone gesehen?" Aber dann fiel mir zum Glück sofort ein, woher ich den kenne, dass es der Willi war. Schließlich hab ich dann Mut gefasst und ihn einfach angesprochen. Willi war total nett - wie man ihn halt aus seinen Sendungen kennt -, bedauerte, keine Autogrammkarten dabei zu haben - war aber sofort bereit für den obigen Schnappschuss. Der war allerdings gar nicht so einfach (deshalb schaue ich auch etwas verkniffen), weil ich mit der Handykamera tüfteln musste, um uns beide abzulichten. Autogramme waren außerdem auch gestern, würd ich sagen. So ein gemeinsames Bild mit dem persönlich Helden hat doch viel mehr, oder?

Wie die Reaktionen bzw. Nicht-Reaktionen auf dem Flughafen allerdings zeigten, ist Prominenz relativ. Ein andermal saß ich am Gate neben Klinsi und der Bayern-Elf. Da war deutlich mehr los. Autogrammjäger allerorten. Aber um Willi war es still. Mag auch etwas über die Kinderaffinität zumindest der Fluggäste aussagen. Hm... Mich hat auch keiner erkannt. Das sagt etwas aus über die .NET-Affinität der Fluggäste, meine ich mal ;-) So kommt es eben auf die größe der Gruppe an, in der man gekannt ist. Ein paar Tausend .NET-Entwickler im deutschsprachigen Raum, ein paar Hunderttausend Kinder im deutschsprachigen Raum - oder Millionen Menschen weltweit. Naja... egal... zurück zu dotnetpro.tv.

Von Willi lernen

Eigentlich hab ich Willi vor allem angesprochen, um ihm danke für seine tolle Sendung zu sagen - und anschließend meiner Tochter ein kleines Abenteuer erzählen zu können ;-)

image Aber dann hat mich diese Begegnung angestoßen, nochmal über dotnetpro.tv nachzudenken. Wie gesagt, eigentlich hatte ich das neue Format schon in der Tasche. Was mir nun aber aufging war, dass dabei etwas unter den Tisch fallen würde, was ich an Willis Sendung so gut finde: Menschen in ihrem Umfel.

Willi erklärt die Welt (vom Bierbrauen über den Rangierbahnhof bis zur Beerdigung) vor Ort. Er ist bei den jeweiligen Experten vor Ort dort, "wo sie es tun". Er spricht mit ihnen an ihrem Arbeitsplatz während sie arbeiten. Kein Studio, keine Abstraktion, keine Schaubilder. Willi steht mit im Prozess und versucht es auch mal selbst.

Das funktioniert natürlich auch durch seine ansteckend gute Laune. Aber viel wichtiger ist, dass er die Menschen unmittelbar und im doppelten Sinn "im Bild" hat. Wir lernen einfach besser, wenn Menschen uns etwas vorleben und zeigen. Sobald sie sich rausziehen aus der Erklärung, desto abstrakter wird es. Schon eine Stimme aus dem Off, selbst wenn noch Menschen zu sehen sind, erhöht die Distanz.

Gerade das wollte ich aber (wieder) bei dotnetpro.tv einführen: eine Stimme aus dem Off. Das mache ich jetzt aber nicht mehr. Dank Willi bleiben nun nicht nur die Menschen mehr im Programm bei dotnetpro.tv, sondern werden auch noch mehr. Ich werde mich wieder - wie damals bei dotnet.tv - vor die Kamera verfügen. Und der Experte wird auch vor der Kamera bleiben. Und wir werden beide nicht aus dem Off sprechen. Und ich möchte auch erreichen, dass wir beide am "Expertengegenstand" zusammen und sichtbar "arbeiten". So ist's bei Willi, so soll es auch in Zukunft mehr bei dotnetpro.tv sein. Mehr Menschen, mehr Interaktivität vor der Kamera. Sozusagen das Beste aus dotnetpro.tv und dotnet.tv garniert und verfeinert mit Willi-inspirierter Interaktion direkt "an der Sache".

Jetzt sind noch ein paar Produktionsdetails zu klären - und dann kann es wieder losgehen mit dotnetpro.tv.

Donnerstag, 10. Januar 2008

OOP 2008: Zurück zum Papier - Leseempfehlungen für 2008

image Das gute, alte Papier hat mich wieder.

Ich habe gerade ein Abo der "Traditionszeitschrift" aller Softwareentwickler bestellt, dem Dr Dobb´s Journal. Nicht obwohl, sondern weil es nicht .NET-lastig ist. image

 

 

 

Und dann habe ich heute gleich noch ein Abo des in Deutschland recht unbekannten, aber nicht minder guten CoDe Magazines drauf gelegt. Das bietet immer wieder sehr gute Artikel zum Thema .NET.

 imageNeulich hat es mich auch überkommen und ich habe endlich auch das MSDN Magazine, die Entwicklerpostille von Microsoft, geordert. Die gibt es zwar auch monatlich kostenlos im Internet - aber was soll´s? Der USD steht grad so günstig.

Und völlig im Rausch habe ich mir Ende 2007 dann auch noch - quasi als Weihnachtsgeschenk - eine Mitgliedschaft bei der "Association of Computing Machinery" (ACM) gegönnt. Die haben ein exzellentes online Archiv wissenschaftlicher Artikel zu allen Informatikthemen der letzten Jahrzehnte. Da findet sich immer mal wieder sehr interessantes Hintergrundmaterial. Damit lege ich sozusagen mein Ohr an die Grasnarbe der Informatik. Das ist der ultimative Blick über den Tellerrand in die Forschung hinein. image Die ACM-Hauszeitschrift "Communications of the ACM" bringt mir jeden Monat einen bunten Blumenstrauß an Themen ins Haus, die ich in den anderen sehr praxislastigen Publikationen nicht finde.

Aber damit nicht genug! Das sind ja nur meine neuesten Zeitschriftenerrungenschaften. Ohnehin schiebt mir der Postbote jeden Monat die dotnetpro, das dot.net Magazin und das OBJEKTspektrum durch den Schlitz. Und um auch mal etwas ganz anderes zu lesen, lasse ich auch noch brandeins jeden Monat in meinen Postkasten brummen.

image image image image

Puh. Ganz schön viel zu lesen. (Ganz zu schweigen von den Bücherbergen an meinem Nachttisch...) Aber so spannend, so interessant. Naja, nicht immer alles in allen Publikationen... Aber genug, um durchgängige alle zu beziehen.

Damit komme ich zu meiner neuen Lesegewohnheit Nr. 1 für 2008: Ich werde konsequent nur noch das lesen, was 1. für mich relevant ist, d.h. zu meinen Arbeitsschwerpunkten .NET-Softwarearchitektur/-Test/-Softwareproduktion und "Softwarekollaboration" gehört. Darüber hinaus lese ich dann noch das, was 2. mein Interesse auf den ersten Blick erregt. Und das meine ich so: auf den ersten Blick. Ich werde mich nicht reinknien und lange überlegen, ob ich etwas lesen sollte, sondern zur Abwechslung mal mein Gefühl entscheiden lassen ;-)

Daraus ergibt sich dann direkt meine neue Lesegewohnheit Nr. 2: Ich beende die Lektüre einer Zeitschrift, wenn ich alle Artikel gem. Lesegewohnheit Nr. 1 gelesen habe. Dabei ist es egal, ob das 2 von 20 oder 18 von 20 waren. Ich habe keine Skrupel mehr, fast ungelesene Zeitschriften wegzuschmeißen. Insbesondere die wunderbaren online Archive von dotnetpro, Dr. Dobb´s, MSDN Magazine, CoDe Magazine, CACM und brandeins machen es mir leicht, die Zeitschriften wirklich in den Müll zu tun, statt Regalmeter damit zu füllen.

So erklärt sich auch meine Lesegewohnheit Nr. 3: Falls ich aus irgendeinem Grund selbst die nach Nr. 1 ausgewählten Artikel nicht bis zur nächsten Ausgabe geschafft haben sollte, dann schmeiße ich die Zeitschrift trotzdem weg. In diesem Punkt habe ich lange mit mir gerungen. Es schien mir nicht respektvoll gegenüber den Publikationen, sie nicht zu lesen, wenn ich sie schon habe. Und ich hatte das latente Gefühl, etwas zu verpassen. Aber beide Gefühle habe ich nun aufgegeben. Sie entstammen einer langen Prägung durch Mangel, wie er im Grunde immer herrschte - bis heute. Noch bis Ende der 1990er haben wir an Informationsmangel der einen oder anderen Art gelitten. Aber das ist nun endgültig vorbei.

Weder bin nicht respektvoll gegenüber den Publikationen, denn sie sind ja auch, wenn das Papier schon im Mülleimer ist, immer noch online zugänglich. (Naja, alle bis auf zwei ;-) Ich schmeiße also nur eine Manifestation der Arbeit der Autoren in den Müll, nicht deren Arbeit. Auf die kann ich weiterhin zugreifen.

Und auch das Gefühl des Verpassens ist überflüssig. Denn erstens kann ich alles in den online Archiven dann doch noch lesen. Ich verpasse höchstens etwas auf Papier. Zweitens aber - und das ist die für mich viel wichtigere Erkenntnis - ist heute nicht mehr der Artikel A in Ausgabe N der Zeitschrift Z wichtig. Er mag interessant sein, aber nicht wichtig. Denn angesichts des Contentüberflüsses, in dem wir heute bis zum Hals stehen, sind Themen nicht mehr mit einzelnen Veröffentlichungen gleichgesetzt. Klar, es mag ein Thema besonders gut in einer bestimmten Veröffentlichung behandelt sein. Eine konkrete Veröffentlichung ist natürlich auch immer die erste, die ein Thema aufreißt. Aber durch die Veröffentlichungsflut ist gewährleistet, dass wirklich wichtige Themen (langsam, aber sicher) auch zu mehreren Veröffentlichungen führen. Ich kann sie also auf Dauer nicht übersehen.

Insofern lehne ich mich ganz beruhigt zurück und vertraue auf Lesegewohnheit Nr. 1. Damit bleibe ich zu meinen Themen auf dem Laufenden. Und ich habe die Garantie, auch auf Inspirationen zu stoßen. Wenn nicht in dieser Ausgabe, dann in der nächsten oder übernächsten... Es gibt keinen Mangel an Inspirationsquellen. Also muss ich sie nicht suchen und sammeln, sondern kann mich an ihnen laben, wenn mir danach ist. Und da vertraue ich mal auf mein Gefühl beim ersten Blick.

Jetzt noch zu Lesegewohnheit Nr. 4: Ich lese wieder mehr auf Papier. Am PC lesen ist nett für das ad hoc Lesen, z.B. von Email oder einen Überblick. "Lesen zwischendurch" tue ich gern am PC. In elektronischen Inhalten kann ich leichter suchen und ich kann mich mit Links durch Inhalte hangeln. So kann ich entweder sehr gezielt auf Stoff zugreifen oder genau das Gegenteil tun: mir ein Themenfeld grob erschließen, indem ich wie mit dem Finger auf der Landkarte das Terrain schnell und aus großer Höhe vorerkunde.

imageUm dann aber eine Publikation von mehreren Seiten wirklich zu lesen, brauche ich Papier. Ja, immer noch. So sehr ich ein Freund von online Publikationen bin (ich schreibe ja immerhin auch dieses Block), so ist das Lesen von Publikationen immer noch etwas anderes.

Erstens sind Texte auf Papier immer noch besser zu lesen, als am Bildschirm. Daran ändern auch Amazon´s Kindle und die hübsch wie funktional aufbereitete digitale Ausgabe der CACM nichts.

Zweitens sind Texte auf Papier immer noch mobiler. Sie sind leichter und in der Form flexibler. Ich kann sie in eine kleine Tasche stecken oder am Frühstückstisch lesen. Selbst mit meinem 12" Laptop wäre das mit elektronischen Texten nicht so leicht.

Beide Gründe zusammen genommen - dazu noch der vorteilhafte USD-Kurs - waren für mich nun genug Anlass, das Jahr 2008 mit einer "Abo-Manie" zu beginnen. Denn die Abos liefern mir ohne weiteren Aufwand Inhalte auf Papier für´s leichte Lesen. Ich muss mir keine Gedanken über´s Wegschmeißen machen, da (fast) alle Inhalte auch noch komplett online verfügbar sind. Dafür bezahlte ich auch gern die Abo-Gebühr. Und schließlich ist es angenehmer, eine Zeitschrift in der Hand zu halten, als die ewigen doppelseitigen FinePrint-Ausdrucke.

PS: Ach ja, bevor ich es vergesse, es gibt noch eine Lesegewohnheit Nr. 5: Mehr redaktioneller Inhalt. Ich abonniere in Zukunft weniger Blogs in meinem RSS-Reader. Ein paar werden übrig bleiben von Autoren, die ich schätze und die sich wirklich kontinuierlich Mühe geben. Dazu zähle ich z.B. Jeff Atwood, Joel Spolsky oder Martin Fowler. Für die ist ein Blog keine Nebensache. Sie kippen nicht nur Datenschnippsel ins Internet. Dort findet vielmehr öffentliches Nachdenken über unsere "Kunst" statt. Für "Tipps & Tricks" von einer Produktgruppe in Redmond oder auch zum Thema XYZ abonniere ich kein Blog mehr. Schön, dass es auch solche Blogs gibt - aber für mich ohne Abo. Wenn ich mal Bedarf habe an solchen Inhalten, dann stolpere ich schon mit Google darüber.

Je technischer also ein Blog, desto weniger "abowürdig" ist es für mich. Oder besser: je weniger unmittelbar relevant für meinen Arbeitsschwerpunkt ein Blog ist, desto weniger "abowürdig" ist es. Denn wenn ich den ganzen Tag WinForms-Programmierung machen würde, dann würde ich auch ein technisches WinForms-Blog abonnieren - sofern das Blog für den Autor keine Nebensache ist und er sich Mühe gibt.

Der bewusste Umgang bei der Produktion von Inhalten wird mir immer wichtiger. Der, der produziert, soll mir Arbeit abnehmen, indem er filtert. Das ist insbesondere bei den Zeitschriften der Fall. Also lese ich mehr davon, statt unredigiertes im Web. Dafür ist mir meine Zeit zu schade. Wirklich Wichtiges kann ich ja auch bei den Zeitschriften nicht verpassen (s.o.).

image So, jetzt aber genug für heute. Die Abos sind bestellt... Upps, eines habe ich noch vergessen Microsofts Architektur-Journal zu ordern. Das gibt es kostenlos auf Papier. Vier Mal im Jahr. Da kann ich nicht Nein sagen, oder? ;-)

Sonntag, 28. Januar 2007

.NET 3.0 kompakt - Mein neues Buch ist da!

Endlich ist es nun herausgekommen. Die neue Auflage oder eher die komplette Überarbeitung meines ersten Buches: .NET kompakt.

Anlässlich des .NET 3.0 Release haben Christian Weyer und ich es unternommen, sozusagen die entscheidenden "Neuzugänge" beim .NET Framework von Version 2.0, 3.0 und auch schon darüber hinaus wieder einmal von einem recht grundlegenden Blickwinkel aus zu beschreiben.
Ralf Westphal, Christian Weyer
Spektrum Akademischer Verlag, 2007, ISBN 382741458X
221 Seiten, 17 EUR

Klappentext:

.NET hat sich als Plattform etabliert. Dennoch ist Orientierungshilfe für .NET nötig, denn die Plattform wächst kontinuierlich. ".NET 3.0 kompakt" arbeitet deshalb die großen Strömungen in der Entwicklung der .NET-Sprachen und -APIs heraus. Das daraus entstehende big picture hilft Ihnen einzuschätzen, welche Bedeutung .NET für Ihre Projekte heute und in Zukunft haben wird. Die Autoren erklären Ihnen die grundlegenden Konzepte der Plattform; dabei geht es nicht um technische Details, sondern um die Zusammenhänge in einer komplexen technologischen Landschaft. ".NET 3.0 kompakt" beantwortet Fragen wie:

-Was ist neu bei C# 2.0 und VB8 und warum wurden gerade diese Features eingeführt?
-Was steckt hinter WCF, WPF, WF, Windows CardSpace, Linq, Generics?
-Welchen Einfluss haben die neuen Plattform-Features auf die Architektur von Software?
-Wie sieht die Zukunft der .NET-Plattform aus?

Viel Spaß beim Lesen!