Follow my new blog

Dienstag, 18. November 2008

Softwarearchitektur kompakt - prio.conference 2008

image Als wie relevant das Thema Softwarearchitektur inzwischen in der Community wahrgenommen wird, hat die prio.conference der dotnetpro am 10./11. November gezeigt: mehr als 260 Teilnehmer hatten den Weg nach Baden-Baden ins Kurhaus gefunden. Das ist eine Zahl, die mich als Content Manager der prio sehr gefreut hat - und ich hoffe, dass nicht nur das Oberthema im Großen, sondern auch meine Auswahl von Vortragsthemen und -referenten im Kleinen dazu einen Beitrag geleistet hat.

Erstes Feedback stimmt mich da aber positiv. So ist zum Beispiel die Keynote des (wahrscheinlich) einzigen wirklichen Architekten vor Ort sehr gut angekommen. Prof. Dr. Christian Kühn aus Wien hat einen interessanten Bogen von seinem Metier der Bauarchitektur zur Softwareentwicklung geschlagen. Denn wenn sich schon die Pattern-Bewegung der Softwareentwicklung auf bauarchitektonische Patterns bezieht, ist es angezeigt einmal zu beleuchten, welche Relevanz die denn eigentlich haben. Und so haben die Anwesenden imagenicht nur erfahren, wie die Patterns schon vor Erich Gamma et al. ihren Weg in die Softwarebranche gefunden hatten, sondern auch, wie Prinz Charles mit Patterns verbunden ist.

Nach solchem Blick über den Tellerrand ging es dann aber mit "echten" Softwareinhalten los. In 30 Sessions haben die Referenten den Bogen vom Konzeptionellen wie der Definition von Architekturrollen und Dokumentation über eher unbekannte Technologien wie Microsofts CCR oder PostSharp bis zu handfesten Tipps zum Transport von veränderlichen Objekten per WCF gespannt.

Besonders haben mich die Kommentare zum Thema Jabber gefreut. Die Teilnehmer waren hocherfreut zu erfahren, dass es solch coole Kommunikationstechnologie gibt - und gleichzeitig erstaunt, dass sie bisher davon noch nichts gehört hatten. Denn Jabber kann vieles schon lange, was Microsoft erst heute mit seinem Communication Server anfängt zu realisieren. Und dabei ist Jabber bzw. seine Server und Clients vielfach kostenlos und reifer.

image Ebenfalls über den Horizont der vielfach Microsoft-lastigen Welt der .NET-Community hinaus hat Referent Markus Völter mit seinen Vorträgen zum Thema Domänenspezifische Sprachen (DSL) geblickt. Er hat vorgeführt, wie auf der Basis der oAW Plattform mit Eclipse (!) schon heute eigene textuelle Sprachen inkl. Codegeneratoren realisiert werden können. Wer also nicht auf Microsofts Oslo warten will, der kann jetzt loslegen.

Die prio hat somit nicht nur viele Facetten des Themas Softwarearchitektur beleuchtet, sondern bewusst weiter geblickt als die üblichen Microsoft-lastigen Events. Softwarearchitektur hat zwar immer mit Entwicklungsplattform zu tun, sollte sich von ihr aber nicht unnötig beschränken lassen. Relevante und interessante Entwicklungen gibt es jenseits von Linq, Entity Framework, WPF, Silverlight oder dem sich schon zur Welle hebenden OsloAzureWindows7.

Aber nicht nur das Fachliche hat Spaß gemacht. Der Abend stand wieder ganz im Zeichen der Heimat der dotnetpro: alle Teilnehmer trafen sich im Löwenbräu zu einem nah ans Oktoberfest-Original heranreichenden bayrischen Abend. Der war ausnehmend gemütlich - auch wenn er Sprecher und Veranstalter sich nicht nur entspannen konnten. Wie schon im Vorjahr galt das Motto der englischen Offiziersakademie Sandhurst: serve to lead - dienen, um zu führen. Und so bedienten Sprecher und Chefredakteur die Teilnehmer vor und hinter dem Thresen.

image image

Das hat Laune gemacht und wieder ganz neue Einblicke in die Community gegeben :-)

Im nächsten Jahr wird die prio solche Gemütlichkeit jedoch nicht mehr "exportieren" müssen. 2009 findet die prio.conference in der dotnetpro Heimatstadt München statt. Das Thema steht auch schon fest. Es wird um "User Interfaces" gehen. Und es wird natürlich wieder technisch und praktisch und konzeptionell werden. Von Usability bis DataBinding Best Practices gibt es viel zum Thema zu sagen. Immerhin sind User Interfaces das Aushängeschild unserer Anwendungen.

Aber zur Softwarearchitektur wird die dotnetpro bis dahin sicher auch nicht stumm bleiben. Stay tuned!

Sonntag, 16. November 2008

Interrupt? Nein, danke! [OOP 2009]

Es ist schon erstaunlich, wie unterschiedlich Menschen sein können:

Situation 1: Auf der Straße unterhalte ich mich mit einer Nachbarin. Die hat ihren 5-jährigen Sohn dabei. Nach 2-3 Minuten Plauderei ruft der plötzlich "Mama, Mama, ich würde gern...". Die Mutter daraufhin sofort: "Nicht jetzt! Ich unterhalte mich gerade. Gleich bin ich aber für dich wieder da."

Situation 2: Im Café sitzen neben mir zwei Frauen ins Gespräch vertieft. Da klingelt plötzlich das Handy der einen. Sie zögert nicht, nimmt ab und plaudert mit dem Anrufer mehrere Minuten. Die andere blättert derweil klaglos zur Überbrückung in einer Zeitschrift.

Situation 3: Während eines Beratungsauftrags sitze ich mit einem Entwickler über einem Architekturproblem in seinem Büro. Plötzlich geht die Tür auf und der Projektleiter fordert ihn auf, sofort einem Kollegen bei der Lösung einer Aufgabe zu helfen.

Hm... was haben diese Situationen gemeinsam? Da sind Menschen in etwas vertieft und es tritt eine plötzliche Störung durch einen Dritten ein.

Und was unterscheidet diese Situationen voneinander? Nur in einem Fall entscheiden sich die ins Gespräch vertieften zu einer Abwehr der Störung. Nur das Kind wird als Störenfried in seine Schranken verwiesen. Die Mutter macht ihm klar, dass es nicht jederzeit Zugriff auf sie hat, sondern darauf achten muss, ob Mutter gerade offen für eine Ansprache ist. Sieht es hingegen, dass Mutter anderweitig beschäftigt ist, soll es sich gedulden.

Daran ist grundsätzlich nichts auszusehen, würde ich sagen. Es ist höflich, nicht zu unterbrechen. Das sollte ein Kind lernen.

Wie ist solche Lehre aber zu vereinbaren mit dem Verhalten der beiden Frauen im Café? Sie lassen sich ganz einfach durch einen Anruf unterbrechen. Sie nehmen das nicht nur in Kauf, sondern provozieren es geradezu, indem sie ihre Handys angeschaltet lassen. Dass sie Ärztinnen oder Bestatterinnen sind, die jederzeit auf Abruf zu erreichen sein müssen, war allerdings nicht zu erkennen.

image Warum lassen sich erwachsene Frauen die Unterbrechung von einem Kind nicht gefallen, aber von jedem anderen, der noch nicht einmal anwesend ist? Hm... darüber kann man einen Moment nachdenken. Doch über die wahren Beweggründe für diese Unterbrechungstoleranz will ich hier gar nicht reden. Mir fiel angelegentlich dieser Situation nur die Diskrepanz zwischen Anspruch und Wirklichkeit auf.

Denn der allgemeine Anspruch ist ja, dass man nicht gestört werde, wenn man in etwas vertieft ist. So lautet die pädagogische Reaktion der Mutter. Auf der anderen Seite tolerieren oder provozieren wir jedoch die Unterbrechung. Im privaten Umfeld mag das auch unproblematisch sein. Im geschäftlichen jedoch wird das schnell teuer.

Wissensarbeit wie in Situation braucht nämlich eines: Konzentration. Um gute Wissensarbeit - und nichts anderes ist Softwareentwicklung - leisten zu können, müssen sie sich fokussieren können. Sie brauchen Störungsfreiheit. Entwickler durch "Chefanfragen" immer wieder in ihrer Arbeit zu unterbrechen, ist daher kontraproduktiv. Sie müssen ihren Fokus verlassen und später wieder aufbauen. 15min "Umschaltzeit" sind dabei durchaus keine Seltenheit.

Im Grunde wissen das auch alle vom Wissensarbeiter bis zum Top-Manager. Multitasking funktioniert nur sehr begrenzt. Dennoch verhalten sie sich aber alle anders.

Obige Situation 2 hat mir nun klar gemacht, woran das liegt. Das Unterbrechungsproblem in der Arbeitswelt kann nicht besser werden, solange wir es nicht konsequent umfassend angehen. Wer sich im privaten Bereich gern unterbrechen lässt, das Handy immer auf Empfang hat und verständnisvoll-verzeihend nickt, wenn andere angerufen werden, der darf sich nicht wundern, wenn am Arbeitsplatz auch immer wieder unterbrochen wird.

Die Gründe für solche Ambivalenz mögen verständlich sein. An den weitreichenden Auswirkungen der Ambivalenz ändert das jedoch nichts. Wer sich einem Kind gegenüber die Unterbrechung verbittet, sie aber im Freundeskreis toleriert oder gar erwartet, darf sich nicht wundern, wenn er dann am Arbeitsplatz keine "produktive Unterbrechungskultur" etablieren kann.

image Ich möchte nicht ohne Handy, SMS, Email, IM usw. leben. Aber wichtiger als diese Medien ist mir immer noch mein Fokus. Und so habe ich kein Verständnis mehr für Unterbrechungswilligkeit. Ich schalte (spätestens ab heute) meine "Unterbrechungsmedien" ab, wenn ich im Gespräch bin. Und ich werde sonstige Unterbrecher höflich, aber bestimmt auf die Kontraproduktivität ihrer Unterbrechung hinweisen. Kinder und Manager machen da für mich keinen Unterschied. Das halte ich vielmehr für eine Grundlage höflichen und respektvollen Umgangs miteinander.

Sonntag, 9. November 2008

NETZ it! - Komponentenorientierte Software ausliefern leicht gemacht

"Soooviele Assemblies???" ist der ungläubige Ausruf, den ich oft höre, wenn ich ich über Komponentenorientierung spreche. Denn damit komponentenorientierte Entwicklung wirklich ihre Vorteile ausspielen kann, ist es nötig, Software nicht nur logisch in Komponenten zu zerlegen, sondern die auch noch physisch getrennt zu implementieren. Das bedeutet, jeder Komponentenkontrakt und jede Komponentenimplementation wird zu einer eigenen Assembly. Die Zahl der Assemblies einer Anwendung ist also immer mindestens doppelt so groß wie die ihrer Komponenten.

image Das hört sich viel an. Oder zumindest ungewohnt. Schon bei 3 Komponenten kommen 5 oder 6 Assemblies zusammen, wie die nebenstehenden Beispielanwendung zeigt. Und größere Anwendungen bestehen schonmal aus 50 oder 100 Komponenten und damit 100 oder 200 Assemblies.

Einen "materiellen" Nachteil hat das jedoch nicht. Der .NET Framework kommt damit ganz gut zurecht. Nur Visual Studio nicht. Es macht keine Freude, in einer Visual Studio Projektmappe mehr als vielleicht 10 Projekte zu verwalten. Aber das soll man ja auch nicht.  (Insofern entspricht die Abbildung links nicht dem Ideal; ich habe die Projekte nur für eine einfachere Darstellung so zusammengefasst.)

Echte Komponentenorientierung bedeutet vielmehr, dass alle Komponenten in je eigenen Projektmappen entwickelt werden. Wenn Sie an einer Komponente arbeiten sollen Sie nicht abgelenkt werden durch Implementationsdetails anderer Komponenten, die in derselben Projektmappe liegen.

image Doch auch wenn es keinen "materiellen" Nachteil hunderter Assemblies für eine Anwendung gibt, verstehe ich, dass sie dazu angetan ist, den Überblick zu verlieren. Vor allem wollen Sie womöglich dem Kunden gegenüber solche Detailfülle nicht offenlegen. Die Abbildung rechts zeigt, wie ich die Beispielanwendung eigentlich ausliefern müsste: als "Sack von Assemblies". Das ist zwar einfach, aber mag sich eben zumindest merkwürdig anfühlen.

Krücke ILmerge

Nun habe ich aber noch nie behauptet, dass die Zahl der Assemblies zur Entwicklungszeit der zur Zeit der Auslieferung gleich sein müsse. Immer schon habe ich auf die Möglichkeit hingewiesen, sie mit Microsofts ILmerge zusammenzufassen. Aus den 7 zur Anwendung gehörenden Assemblies (inkl. DI Framework Infrastruktur) rechts im Bild könnte mit ILmerge ganz leicht eine werden.

Sie anders zusammenfassen, wäre allerdings nicht unproblematisch. Zum Beispiel könnten Sie nicht nur alle Kontrakt-Assemblies vereinigen, weil Sie damit die Referenzen darauf in den Komponentenimplementationen invalieren würden. Die beziehen sich ja auch konkrete Assemblynamen, die es dann nicht mehr gäbe.

ILmerge funktioniert zwar grundsätzlich. Ist aber letztlich nur eine Krücke, weil es nicht genügend Freiheitsgrade bietet. Außerdem mag es nicht jedem schmecken, dass ILmerge den IL-Code "anfasst". Zugegebenermaßen ein Vorgang, bei dem mehr falsch laufen könnte, als wenn man Assemblies, so wie sie sind, irgendwohin kopiert.

NETZ to the rescue

Aber diese Zeit der Krückenlösung ist nun vorbei! Durch einen News-Schnippsel in einer Entwicklerzeitschrift bin ich auf das Open Source Tool NETZ gestoßen. Das ist echt cool für die komponentenorientierte Entwicklung! Und es ist auch noch eines aus deutschen Landen - ein seltener Umstand bei Softwareentwicklungstools.

Was bietet NETZ? Zusammenfassung und Kompression von Assemblies. Mit NETZ können Sie Assemblies wie mit ILmerge zusammenfassen, allerdings ohne Eingriff in den IL-Code. NETZ verpackt die Assemblies einfach nur als Ressourcen in eine von ihm generierte.

Für die Komponentenorientierung unwichtig, aber für Sie dennoch vielleicht interessant, komprimiert NETZ die Assemblies während der Zusammenfassung auch noch. So kann der in den Ressourcen steckende IL-Code nicht mehr so einfach decompiliert werden. Ohne Obfuscation erhalten Sie also einen ersten Schutz gegen beiläufige Ausspähung von Implementationsdetails.

Die obige Beispielanwendung in eine Assembly zusammenzufassen, ist mit NETZ ganz einfach. Eine Kommandozeile wie diese reicht (sie ist nur der Lesbarkeit wegen hier in mehrere Zeilen geteilt):

netz -z -s
 
frontend.exe
 
-d logic.dll dataaccess.dll
      
contracts.logic.dll contracts.dataaccess.dll
       Microsoft.Practices.Unity.dll Microsoft.Practices.ObjectBuilder2.dll

Mit ihr verpackt NETZ alle Assemblies in eine neue Assembly (-s), die auch eine DLL zur Dekompression enthält (-z). Alle Assemblies können auch dynamisch geladen werden (-d) - das ist für die Nutzung eines DI Frameworks nützlich sein mag. Das Resultat: eine Assembly mit Namen frontend.exe und einer Struktur wie in der nachstehenden Abbildung. Der Start-Code wurde komplett durch NETZ generiert (Methoden auf der linken Seite), die Anwendungsassemblies sind zu Ressourcen geworden (rechts). Der NETZ-Code sorft dafür, dass beim Laden einer Assembly, die die CLR nicht selbst findet, die Ressourcen herangezogen werden.

image

Schon bis hierhin bietet NETZ also mehr als ILmerge. Nicht nur Zusammenfassung von Assemblies, sondern gleichzeitig Kompression - und das ohne Eingriff in den Assembly-IL-Code.

image NETZ kann aber noch mehr! NETZ kann die Assemblies auch in externe Ressourcen verpacken. So können Sie sie beliebig gruppieren. Auf die Referenzen hat das keinen Einfluss. Bilden Sie also beliebige Gruppen von Assemblies. Die Beispielanwendung habe ich z.B. einmal so zusammengefasst wie rechts zu sehen. In frontend.exe steckt die ursprüngliche EXE mit den Microsoft Unity DI Infrastruktur-Assemblies. Die contracts-Ressourcen enthalten die Kontrakt-Assemblies, die components-Ressource die Implementationen. Ganz einfach ist damit einem Batch wie diesem:

netz -z -s frontend.exe Microsoft.Practices.Unity.dll Microsoft.Practices.ObjectBuilder2.dll
netz -xr contracts contracts.logic.dll contracts.dataaccess.dll
netz -xr components dataaccess.dll logic.dll

move *-netz.resources frontend.exe.netz

Der -xr Switch weist NETZ an, die Assemblies nicht zu einer EXE, sondern zu einer externen Ressource zusammenzufassen. Der NETZ-Start-Code sucht in solchen Ressourcendateien im selben Verzeichnis sogar zuerst nach Assemblies.

Lassen Sie sich durch 50 oder 100 Assemblies nicht in Bockshorn jagen. Fassen Sie sie für´s Deployment mit NETZ einfach so zusammen, wie Sie es möchten: alle zu einer großen Assembly oder Kontrakte und Implementationen getrennt oder Kontrakte zusammen mit ihren Implementationen oder alle Assemblies einer Kategorie (z.B. alle Domänenlogik-Assemblies getrennt von allen Aspekt-Assemblies). Mit NETZ ist das alles sehr einfach möglich. Und kostenlos dazu! Mein herzlicher Dank gilt Vasian Cepa, dem Entwickler! (Der ist übrigens sehr bemüht; innerhalb eines Tages hatte er eine Verbesserung eingebaut, auf die ich ihn angesprochen hatte.)

Ich arbeite jetzt nicht mehr ohne NETZ in meinen komponentenorientierten Projekten.

Donnerstag, 30. Oktober 2008

Qualität hat keinen Preis mehr - so scheint es

Zwei symptomatische Geschichte:

Es ruft ein Kompetenzträger bei einem Konferenzveranstalter an und fragt, ob der für die nächste Konferenz an Vorträgen zu einem Thema interessiert wäre. Der Veranstalter freut sich nach Rücksprache mit dem Content Management mitteilen zu können, dass die angetragenen Vorträge gut ins Programm passen würden. Eine Kleinigkeit sie vorher allerdings noch zu klären: der Umfang des Sponsorenpaketes, das der Kompetenzträger buchen möchte.

Ein andermal ruft die Redaktion eines unserer Fachmagazine zur Einreichung von Artikelvorschlägen auf. Auf Nachfrage, wie hoch denn das zu erwartende Autorenhonorar sei, antwortet man, dass ab der dritten Heftseite eines Artikels 40 EUR/Seite gezahlt würden. Für die Seiten 1 bis 3 sei den Autoren jedoch ein sehr warmer, in nicht näher spezifizierten Naturalien ausgedrückter Dank des Verlages gewiss.

Zwei Geschichten, eine Reaktion: Traditionelle Inhaltsplattformen wollen kein Geld mehr für ihre Inhalte ausgeben. Sie wollen das, was ihren Wert ausmacht, weder produzieren noch die Produktion bezahlen.

Sind im Web oft für die Konsumenten kostenlos, so kehrt sich dies scheinbar gerade bei den für die Branche relevanten traditionellen Medien Zeitschrift und Konferenz um. Da bezahlen die Konsumenten und die ureigentlichen Produzenten gehen leer aus oder sollen gar noch Geld mitbringen.

Eine merkwürdige Welt ist das.

Mit dem, was ich einmal auf der Schule gelernt habe, hat das nicht viel zu tun. Da galt nämlich, dass Angebot und Nachfrage den Preis regeln. Ist das Angebot groß und die Nachfrage klein, dann ist der Preis für das Angebot niedrig. Kommt dann die Nachfrage dem Angebot näher, zieht der Preis an. Maximal wird der dann bei einem Monopol.

Daran hat auch das Web nichts geändert, würde ich mal sagen. Wenn die Artikel bei Codeproject für Leser kostenlos sind, dann liegt das daran, dass das Angebot an Content im Web so riesig ist. Die Nachfrage pro Contentanbieter ist deshalb klein und der Preis niedrig bis nicht existent. Wenn Codeproject dennoch überleben kann, dann liegt es an Werbeeinnahmen und good will der Contentproduzenten. Die verschenken ihr Wissen für... ja, für was eigentlich? Für das gute Gefühl, der Community etwas zurückgegeben zu haben:

"Everything on the site may be freely used. All we ask in return is that you contribute something back to the community." (CodeProject FAQ)

Ob das genug Lohn der Mühe ist, muss jeder für sich entscheiden. Dass die Qualität solcher Gratisinhalte oft zu wünschen übrig lässt, ist hingegen wenig zweifelhaft.

Aber einerlei. In den zwei obigen Geschichten geht es nicht um Codeproject. Es geht auch nicht ums Web. Es geht vielmehr um traditionelle Medien, die mittlerweile schon traditionell nicht aus dem Klagen herauskommen, die Nachfrage bei ihnen sei so schmerzvoll gering.

Was tun sie aber in der Lage: sie senken weder den Preis, noch erhöhen sie die Qualität. Sie drehen vielmehr an der Kostenschraube. Sie geben den Druck, der auf ihnen lastet, an die weiter, die eigentlich erst ihre Existenz berechtigen. Denn ohne Inhalte kein Medium zu ihrer Verbreitung.

Es gibt natürlich kein Recht auf Honorar für Kompetenzträger. Und so finde ich es ganz legitim, wenn Medien wie das MSDN Magazine kein Honorar zahlen. Auch sie leben nach den Gesetzen des Marktes: Das Angebot ist beschränkt, die Nachfrage ist hoch, also ist auch der Preis hoch. In diesem Fall meine ich allerdings das Angebot an Platz für den Inhalt und die Nachfrage von Autorenseite. Pro Ausgabe erscheinen nur ca. 15 Artikel von denen einige schon fest an Kolumnenautoren vergeben sind. Für die verbleibenden gibt es eine lange Schlange an willigen Autoren - also erlaubt sich das MSDN Magazine, kein Honorar zu zahlen. Dort zu veröffentlichen hat für die Autoren soviel Wert (Ruhm oder Sichtbarkeit + Aufträge), dass sie diese Politik akzeptieren.

Wieder zurück zu lokalem Konferenzveranstalter und Zeitschriftenverlag. Die haben nun dieselbe Politik wie das MSDN Magazine installiert - aber bieten bei weitem nicht denselben Nutzen für die Inhaltsproduzenten. Die Konferenzen des Veranstalters sind klein, die Auflage der Zeitschrift auch. Das beklagen beide.

Es erscheint mir daher widersinnig, eine solche Politik im Umgang mit den Wertproduzenten zu installieren. Was verspricht man sich davon? Beide handeln gegen das simpelste Gesetz des Marktes: Keine Nachfrage bei dem Abnehmern, aber der Preis bleibt konstant und der Wert wird nicht erhöht. Keine Nachfrage bei den Inhaltslieferanten, aber der Preis für die Lieferung wird erhöht, indem das Honorar gesenkt wird.

Denn so sieht es leider aus: die Inhalte der Konferenzen und der Zeitschrift sind nicht herausragend. Kompetenzträger, die fachlich gut und stilistisch angenehm vortragen oder schreiben, sind einfach Mangelware. Wer dann nichts dafür, sondern alles dagegen tut, die eigene Inhaltsplattform attraktiv für solche ohnehin raren Inhaltslieferanten zu machen, der darf sich nicht wundern, wenn die Qualität sinkt. Einige sehr gute und auch beliebte Inhaltslieferanten sind denn auch schon nicht mehr zu sehen oder zu lesen; sie haben besseres zu tun, als auch noch Geld für die Wissensweitergabe auszugeben.

Was ist unzweifelhaft der Effekt, wenn Kompetenzpräsentationen nicht nur nichts einbringen, sondern sogar kosten sollen? Sie geraten zu Verkaufsveranstaltungen. Es präsentieren die sich, die es nötig haben, weil sie nicht nur die Investition der Präsentation wieder hereinbekommen müssen, sondern auch noch darüber hinaus mit ihr Profit durch nachfolgende Aufträge generieren müssen.

Oder es sind die zu sehen, die sich zeigen müssen, weil ein System es so will ("publish or perish") bzw. der Chef.

Alles in allem ist - wie überall, wo Werbung ins Spiel kommt - aber nicht damit zu rechnen, dass durch solche Politik die Qualität im Allgemeinen und Ehrlichkeit/Authentizität im Besonderen steigen. Nach beidem fragen aber Teilnehmer wie Leser. Im Dschungel heutiger Technologien brauchen sie nichts dringender als vertrauenswürdige Quellen. Präsentatoren in Wort oder Schrift, die für die Präsentationsmöglichkeit zahlen mussten, sind das allerdings eher nicht.

Ergo: Die Nachfrage nach diesen Inhaltsplattformen kann nur abnehmen. Die schon jetzt beklagte negative Tendenz verschärft sich. Die, die gut aufbereitete Informationen dringender denn je nötig haben, wandern weiter ab ins Web, um dort viel Mühe für die Filterung von Inhalten aufzuwenden.

Schade. Denn die Plattformen haben einen Namen. Nun verspielen sie ihn.

Früher war platte Werbung. Da konnten wir Inhalt und Beschönigung auseinander halten. Dann kam das Advertorial. Sofern gekennzeichnet, konnten wir immer noch Inhalt und Beschönigung trennen, doch es war schwieriger geworden. Nun kommt ungekennzeichneter bezahlter Content. Den können wir nicht mehr von Content unterscheiden, der nicht primär verkaufsinteressengeleitet ist. Statt für unser Geld vertrauenswürdieg Informationen zu bekommen, sehen und lesen wir im Zweifelsfall vor allem eines: Werbung.

Eine verhängnisvolle Entwicklung, die letztlich allen Inhaltsanbietern Schaden zufügt. Wer sich da beklagt, dass es mit der Nachfrage nicht stimmt und auf das Web zeigt, der hat leider weder die Befindlichkeit der Branche noch die Gesetze des Marktes begriffen.

image Dabei wäre es doch so einfach, die Nachfrageentwicklung umzukehren. Die Zauberworte lauten - wie immer - Innovation und Investition. Wer das nicht glaubt oder sich inspirieren lassen möchte, der lese "Alles, außer gewöhnlich". Dessen Autoren haben sicherlich auch ein Honorar für ihre Arbeit bekommen.

PS: Es geht mir übrigens bei dieser Betrachtung nicht darum, ob mir oder jemand anderem die Geschichten widerfahren sind. Ich stelle nur eine bedenkliche Tendenz fest. Nicht nur für jeden, der daran denkt, doch mal sein Wissen weiterzugeben, sondern für alle, die vertrauenswürdiges Wissen suchen.

Mittwoch, 29. Oktober 2008

Warum Lego nichts mit Softwareentwicklung zu tun hat [OOP 2009]

Laien Softwareentwicklung verständlich zu machen, ist nicht leicht. Helfen sollen dann Analogien. Beliebt ist die, Software mit einem Küchenrezept zu vergleichen. Doch nicht nur Laien haben ihre imageSchwierigkeit mit der Softwareentwicklung. Auch die Profis ringen immer wieder um Verständnis. So suchen auch die Profis nach Analogien. Beliebt ist bei ihnen die, Softwareentwicklung als Arbeit mit einem Lego-Bausatz zu sehen. Oder sie wünschen sich zumindest, dass es so wäre. Denn das Zusammensetzen von Lego-Bausteinen hat soviel mit Softwareentwicklung  zu tun wie Bambi mit einem Reh. Daran ändern auch wortreiche Beschwörungen wie die von James Noble auf InfoQ nichts.

Seine "Lego Hypothese" ist wieder einmal hübsch anzuhören - doch sie weist auch wieder in die falsche Richtung. Ich glaube, solange wir noch das Ziel haben, Softwareentwicklung wie ein Lego-Spiel werden zu lassen, solange stehen wir uns selbst im Weg zu einer einfacheren Softwareentwicklung. Genauso wie uns RPC à la .NET Remoting im Weg steht bei der Entwicklung paralleler und skalierbarer Software.

imageWas ist nun das Problem mit der Lego-Metapher?

Vom Offensichtlichen sehen wir einmal ab; Lego-Bausteine bieten keine Dienstleistungen, wie es Funktionseinheiten jeder Größenordnung - von der Methode bis zum SOA-Service - in einer Software tun. Lego-Bausteine sind also trivial.

Das Problem hat nicht mit der "Qualität" oder dem "Inhalt" von Lego-Bausteinen zu tun, sondern mit der "Lego-Form".

Problem 1: Feine Granularität

imageDa ist zum einen die uniforme Größe der Lego-Bausteine. Sie variiert zwar in gewissen Grenzen, aber in Bezug auf das, was aus ihnen am Ende gebaut wird, sind sie im Grunde alle gleich groß. Oder eben gleich klein. Lego bietet nur eine Granularität für den Bau. Ob es ein kleines Auto oder der Nachbau einer Kathedrale ist, alles wird aus kleinsten Teilen zusammengesetzt. "Container", um größere Teile unabhängig von einander zu bauen und später zusammenzusetzen, gibt es nicht. Lego kennt keine Abstraktionen.

Das ist keine Kritik an Lego. Der Erfolg von Lego ist von Abstraktionsmitteln unabhängig und ganz unbestritten. Lego soll nichts an seiner Ideen und seinen Produkten ändern. Nur sollten wir angesichts dieser Simplizität oder gar Trivialität des "System Lego" aufhören, darin einen Wegweiser für die Softwareentwicklung zu sehen. Lego kann uns viel lehren, zum Beispiel die Eleganz der Einfachheit oder den Nutzen von Standards. Aber in Lego steckt keine Botschaft zur Strukturierung komplexer, ständig in Veränderung begriffener Systeme. Die können wir nämlich nur planen, wenn wir sie auf unterschiedlichen Abstraktionsebene denken können, und bauen, wenn wir Bausteine ganz unterschiedlicher Granularität haben.

Lego-Bausteine sehen so aus, wie sie aussehen, eben weil sie keine vielfältigen Dienstleistungen bieten, sondern immer wieder nur Festigkeit in konstanter Form. Das war´s. Software jedoch ist anders, ganz anders. Und so ist es eine Illusion anzunehmen, vielfältige Softwaredienstleistungen ließen sich zusammenstecken wie triviale Lego-Bausteine.

Problem 2: Direkte Verbindungen

Lego-Bausteine sind "tot". Software hingegen "lebt". Nicht nur sind Software-"Bausteine" ständig in Aktion, Software insgesamt ist auch beständig im Wandel. Das bedeutet:

  • Die Zahl der "Bausteine" in einem System ändert sich ständig.
  • Die Zahl der Beziehungen zwischen den "Bausteinen" in einer Software ändert sich ständig.

Software als System von Funktionseinheiten mit vielfältigen Beziehungen ist kontinuierlich im Wandel begriffen. Sie unterliegt dauernder Umkonfiguration im Kleinen und im Großen. Das liegt in der Natur ihres Zwecks, der Lösung komplexer Aufgabenstellungen. Und das ist natürlich auch der schlichten Möglichkeit geschuldet, Immaterielles wie Software so flexibel "kneten" zu können.

Lego-Bausteine hingegen werden im Zuge einer "Baumaßnahme" einmal aufeinander gesetzt und bleiben dann so. Weder verändern sich die Bausteine, noch verändert sich die Statik des großen Ganzen.

Deshalb ist es ausreichend, dass Lego-Bausteine direkt miteinander verbunden werden. Wir stecken sie unmittelbar aufeinander. Für die mit ihnen zu bauenden "Systeme" ist das genug.

Komplexeres jedoch, das wird seit jeher anders zusammengesetzt. Wo echte Dienstleistungseinheiten - im Gegensatz zu Stabilitätseinheiten - größeres bilden sollen, da sind die nicht direkt verbunden wie Lego-Bausteine. Echte Dienstleistungen stehen immer indirekt in Beziehung. Zwischen ihnen ist immer ein "Beziehungsvermittler", etwas Drittes, das sie zusammenbringt und -hält.

imageimage

Stecker und Buchse, Schrauben, Nägel, Bolzen, Klemmen... es gibt viele Arten, Zusammenhalt herzustellen. Manchmal sind sie ganz einfach wie ein Holzzapfen, manchmal komplex wie ein Router. Aber immer ist ihre vornehmste Aufgabe zu verbinden. Nicht mehr, nicht weniger.

Ganz grundsätzlich unterscheiden wir in komplexen Systemen also zwischen den eigentlichen (Teil)Dienstleistungen und ihren Verbindungen. Wir koppeln Funktionseinheiten explizit und damit indirekt. Lego hingegen koppelt implizit und direkt.

Diese direkten Verbindungen zwischen Lego-Bausteinen sind für mich das k.o. der Lego-Analogie. Wannimmer wir sie beschwören, suggerieren wir mehr oder weniger subtil, dass direkte, implizite Verbindungen zwischen Funktionseinheiten genügen würden, um komplexe Softwaresysteme zu bauen. Das ist weitreichend kontraproduktiv. Solche Suggestionen vergiften das Nachdenken über Software und erzeugen früher oder besser Schmerzen. Denn wo direkt und implizit verbunden wird, da ist das Resultat starr. Und das bedeutet, Veränderungen sind schwierig; sie erzeugen Schmerzen, weil sie immer wieder die inhärente Starrheit überwinden müssen.

Eine bessere Analogie

Wenn Bauteile, Baugruppen, Module, Subsysteme von komplexen Systemen immer indirekt verbunden sind, um sie effizient fertigen, separat prüfen und flexibel zusammenbauen zu können, dann sollten wir unsere Analogien danach wählen, wenn wir welche brauchen. Statt uns immer wieder nach einer Lego-Softwarewelt zu sehnen, sollten wir eher nach Stabilbaukästen oder Elektronikbaukästen schielen.

image image

Wenn schon eine spielerische Analogie, wenn schon Bausatz, dann so. Sie führen vor, wie aus kleinen Teilen größere werden durch indirekte Verbindungen.

Software ICs sind eine tauglichere Zielvorstellung als Software Lego-Bausteine.

Natürlich sollten wir dann auch danach in der Softwareentwicklung handeln. Die passend gewählte Analogie sollte uns etwas sagen; sie sollte rückwirken auf uns. Wir sollten definieren, was für uns explizite und indirekte Verbindungen sind. Denn Verbindungen haben wir viele und in vielerlei Ausprägungen:

  • synchron/asynchron
  • lokal/verteilt
  • single-/cross-platform

Nicht, dass es dazu noch keine Ideen gäbe. DI, WCF, REST, ESB sind einige Akronyme in diesem Zusammenhang.

Doch ich glaube, dass uns noch ein echter Konsenz darüber fehlt, wann wir wie Software-Bausteine zusammenfügen. Ganz davon zu schweigen, was denn die Software-Bausteine sind, die dann so verbunden werden. Reichen Objekte und SOA-Services? Nein, ich denke, sie sind nur der Anfang.

Objektorientierung allein bewegt sich tatsächlich auf der Lego-Ebene. SOA-Services hingegen sind sehr große Bausteine, die vor allem asynchron, verteilt und cross-platform verbunden sind. Dazwischen liegt aber  noch ein weites Feld, dessen sich zumindest der Hype nicht bewusst ist. Das müssen wir beackern. Nur dann kommen wir raus aus dem Hypothesenstadium und hinein in echte, skalierbare Software-Bausteinpraxis.

Montag, 27. Oktober 2008

Publizieren, aber mit Zukunft - Ein erster Baustein

Nun ist´s geschehen: Die Verlagswelt hat seit der Buchmesse 2008 unwiderruflich erkannt, dass das eBook (oder allgemeiner: eContent) nicht vorübergehend und nicht nebensächlich ist. Vielmehr gilt: "eContent is core". Das eBook kommt also. Jetzt, nun endlich. PDF gibt es schon lange und die zweite Welle der eBook Reader ist nun auch akzeptabel. Genug kritische Masse ist vorhanden, um "traditionellen Content" - also Zeitschriften und Bücher - digital der Leserschaft zuzuführen.

Aber wie nun genau? Das ist die Masterfrage. Puzzleteile für ein modernes Verlagsangebot gibt es viele. Hier als Beispiel eines, das mir sehr gut gefällt:

Das ist ein Artikel von mir dargestellt in einem Flash-basierten Viewer. Dafür habe ich nur das Artikel-PDF zu www.scribd.com hochladen müssen. Fertig. Das "Leseerlebnis" gefällt mir besser als im Acrobat Reader: das Blättern ist flüssiger, es gibt eine gute Übersicht, ich kann zwischen mehreren Ansichtmodi wechseln.

So könnte es die dotnetpro mit allen Artikeln in ihrem Archiv für die Abonnenten machen; die anderen Zeitschriftenanbieter selbstverständlich auch. Denn nicht nur hat so ein Viewer Vorteile für den Leser. Verlage können einstellen, was Sie dem online Leser mit so einem Dokument erlauben zu tun. Soll er es als PDF lokal speichern können? Soll er es drucken können? Der Verlag behält das Szepter in der Hand.

Genau das war es nämlich, was Verleger bisher vermisst haben. Bei allem Interesse für die online Welt fühlten sie sich an Physische gekettet, weil sie Angst hatten, sonst keinen Einfluss mehr auf die Verwendung ihrer Inhalte ausüben zu können. Die Wahl lautete bisher (scheinbar): Drucken und Geld verdienen oder online anbieten und leer ausgehen.

Mit einem Viewer wie oben gibt es nun noch eine dritte Position in der Mitte: online gehen und die Nutzung nach Gusto einschränken. Ohne Inhalte noch speziell für´s Web layouten zu müssen, können sie 1:1 online gestellt werden. Die Verlage können den Nutzen der online Publikation also quasi sofort einfahren - ganz ohne Reie-

Die Zukunft einer Zeitschrift wie der dotnetpro stelle ich mir deshalb so vor:

  • Die dotnetpro produziert zunächst einmal alle Inhalte nur digital als PDF. Sie werden wir üblich layoutet und mit Werbung gespikt.
  • Die Inhalte werden wie oben gezeigt online publiziert. Manche Inhalte sind kostenlos und können von jedem gelesen werden. Manche Inhalte kann man nur mit einem Abo lesen. Wer ein Abo hat, kann sie dann auch lokal als PDF speichern.

So weit, so gut. Hätte alles auch schon passieren können ohne einen solchen Flash-Viewer. Klar. Das online Archiv der dotnetpro gibt es ja auch schon. Aber, wie gesagt, die einfache Darstellung der Artikel (oder eines ganzen Heftes) wie oben finde ich viel attraktiver als Acrobat.

imageDoch jetzt weiter: Was ist denn mit den Lesern, sie gern auch Papier in der Hand hätten? Online lesen ist nicht jedermanns Sache und auch nicht optimal für jede Situation. Zum Nachschlagen nutze ich es gern. Aber meine monatliche dotnetpro auf Papier möchte ich nicht missen.

Oder genauer: Ich möchte die Artikel, die ich jeden Monat lesen möchte, auf Papier haben können, wenn ich es will. Darüber hinaus möchte ich sogar jederzeit mir Artikel der dotnetpro zu "Sonderheften" zusammenstellen können, die ich dann auf Papier bekomme.

Das geht zwar auch, indem ich mir Artikel zusammensuche und die PDFs ausdrucke. Aber wieviel Mühe ist das? Und wie sieht das Ergebnis aus? Unschönes Papiergefledder.

Inhalte in gefälliger gebundener Form: das hat Wert für mich als Leser! Die möchte ich also auch in Zukunft, wenn dotnetpro & Co "digital gehen", nicht missen. Das eBook wird das pBook nicht verdrängen. Aber es wird seine Herstellung und Nutzung verändern.

Für die dotnetpro, das CoDe Magazine, das MSDN Magazine, Dr. Dobb´s Journal usw. zahle ich also aus mehreren Gründen gern:

  1. Inhalt: Sie liefern mit eine für mich relevante Mischung an Content auf hohem Niveau, ohne dass ich lange googlen muss.
  2. Layout: Der Content ist gut lesbar layoutet und auf einem sprachlich ordentlichen Niveau. So ist die Lektüre leichter für mich.
  3. Usability: Den Content in die Hand nehmen zu können, um ihn im Bus oder in der Badewanne lesen und darin Notizen machen zu können, macht ihn für mich lesefreundlich. Durch ein Heft blättern und auch räumlich einen Eindruck vom Inhalt zu bekommen, halte ich für wichtig für das Behalten. (eBook Reader können das nicht bieten - und wollen es auch nicht. Sie sehen darin gerade ihren Vorteil.)

Das sind meine Prioritäten. In dieser Reihenfolge. Das Papier kommt zuletzt - aber es kommt. dotnetpro & Co sollten es also nicht aufgeben. Im Gegenteil! Ichhalte das Papier auch im Zeitalter der eBooks für den Freund jedes Verlegers. Doch er muss damit anders umgehen. Es ist gerade für Fachinhalte nicht mehr erstrangig im Sinne eines primären Veröffentlichungsmediums.

Zur Zukunft der dotnetpro gehört für mich deshalb auch noch:

  • Ich kann mir die online publizierte dotnetpro bei Bedarf ausgedruckt und gebunden liefern lassen. Sie wird dann on demand hergestellt.
  • Nicht nur die monatlichen Artikelzusammenstellungen kann ich mir drucken und binden lassen, sondern jede Kombination von Inhalten. Die dotnetpro kann selbst Sonderhefte aus ihren Archivinhalten schnüren und online wie printed on demand anbieten. Darüber hinaus bietet sie mir die Möglichkeit, im Archiv zu suchen, Artikel zu einem virtuellen Sonderheft zusammen zu fassen - und auch dieses persönliche Sonderheft auf Papier zu bestellen.
  • Und im nächsten Schritt kann ich Filter auf die Inhalte setzen, so dass automatisch Neuerscheinungen in für mich relevanten Bereichen zu "Sonderheften" gebündelt werden. Für die online Nutzung geht das heute schon mit RSS-Feeds. Aber ich wünsche mir darüber hinaus, dass diese Inhalte als Hefte einfach so mir auf den Tisch flattern. Denn dann schenke ich ihnen eine andere Aufmerksamkeit. Dann kann ich mich auf die fokussieren, statt oft online nur husch-husch drüber zu lesen.

Meine Vision von der Zukunft der Zeitschriften ist also eine hybride: Sie sollten zuerst online publizieren - was nicht heißt, dass es kostenlos sein soll. Sie sollten aber auch weiterhin auf Papier verfügbar sein, wenn ich es mir wünsche.

Der obige Flash-View ist dafür ein erster Baustein, weil er so handlich für Leser und Verleger ist. Der zweite Baustein, der ad hoc on demand Druck... der fehlt noch. Existierende Print-on-Demand Anbieter wie Book on Demand oder buchwerft können das nicht. Hilfe naht jedoch... Der zweite Baustein ist unterwegs. Davon aber ein andermal.

PS: Was ich hier über Zeitschriften gesagt habe, gilt im Grunde auch für Fach-/Sachbuchverlage. Auch sie sollten "online first" denken - ohne Abstriche beim Layout. Dann eröffnen sich ganz neue Möglichkeiten des Umgangs mit Büchern. Die Zukunft gehört dann dem cBook, dem customized book, d.h. den Büchern, die jeder sich zusammenstellen kann, wie er möchte - aber nicht muss.

Mittwoch, 22. Oktober 2008

Warum ich Vortragsagendas nicht mag [OOP 2009]

Ein Vortrag soll mit einer Agenda beginnen - so will es... ja, wer eigentlich? So ist es zumindest. Oft, meistens, wenn man Vorträge auf Entwicklerkonferenzen sieht. In irgendeinem Rhetorik-Lehrbuch mag das mal gestanden haben und jedes Buch mit Inhaltsverzeichnis scheint das zu unterstreichen.

Aber ich halte davon gar nicht. Und so sage ich es denn auch immer wieder den Teilnehmern der Rhetorikseminare des Professional Developer College. Die reagieren dann mit Überraschung, Unglauben, Skepsis. Das könne doch nicht sein. Man müsse doch dem werten Publikum einen Überblick geben, bevor man mit dem Eigentlichen des Vortrags beginnt.

Nun, dann möge man hier einmal hineinschauen:

image

Das ist ein absolut typischer Vortrag auf einer Entwicklerkonferenz. So beginnt er denn auch mit einer Agenda. Der Sprecher zeigt, wie er sich den Vortrag in thematische Abschnitte gegliedert denkt. Und er spricht darüber. Damit er sich an die Struktur erinnert, hat er das kanonische Agenda-Slide an den Anfang der Vortragslides gesetzt.

Ja, genau, damit der Sprecher sich erinnert, deshalb ist dieses Slide dort. Kein anderer Grund scheint mir plausibel. Warum? Weil der Referent die Punkte abliest. Er liest den Text vor und fügt nichts hinzu. Warum sollte er das tun, wenn er sich seiner Vortragsstruktur erinnerte? Dann würde er nämlich nicht dieselben Worte benutzen, die jeder Zuschauer auch lesen kann.

Was habe ich nun als Zuschauer davon, dass der Referent 1. eine Agenda zeigt und 2. diese Agenda nur vorliest, wie es meistens der Fall ist? Nichts. Mir wird dadurch nichts klarer. Ich baue keine Vorfreude auf, ich bin nicht überrascht, ich fühle mich nicht erhellt. Denn dass ein Vortrag mit dem Titel "Architecting for Latency" am Anfang Latenz generall thematisiert, um sicherzustellen, dass alle dasselbe darunter verstehen, dann weiter geht zu den Gründen, warum ihre Berücksichtigung sinnig ist, anschließend die Schwierigkeiten beleuchtet und am Ende - hört, hört! - Lösungen aufzeigt... nun, das (!) erwarte ich, wenn ich auch nur 30 Sekunden über das Thema nachdenke.

image So hat die Agenda keinen Nutzen. Sie langweilt nur. Wie üblich. Ihr Informationswert ist Null. Darüber hinaus nimmt sie einem Vortrag jede Spannung. Wer würde schon zu Beginn eines Krimis dessen Agenda gern kennenlernen? Nichts anderes als ein "kleiner Krimi" sollte ein Vortrag aber sein: er sollte Spannung erzeugen. Die Zuschauer sollen sich in jeder Minute fragen, wie es wohl weitergehen mag in Richtung Lösung. Sie sollen emotional gefesselt sein, mitfiebern, Interesse haben. Dafür ist eine Übersicht allerdings denkbar ungeeignet.

Aber Columbo war doch auch immer Spannend, obwohl man schon zu Anfang wusste, wer der Bösewicht ist. Ja, das stimmt. Aber Columbo hat nie am Anfang verraten, wie er (!) das herausfindet. Die Spannung bestand darin, eben nicht (!) zu wissen, wie er das für uns Offensichtliche langsam erarbeitet. Columbo mag eine eigene Agenda, eine Methode gehabt haben - verraten hat er sie uns aber nicht.

Also: die Agenda am Anfang eines Vortrag hat keinen Nutzen für die Zuschauer. Entweder haben sie ohnehin schon die Erwartung, dass es so, wie der Referent beabsichtigt, durchs Thema geht. Oder sie kennen das Thema nur wenig - dann verstehen sie nicht, was der Referent da überhaupt in der Agenda nacheinander listet. Sollte schließlich beides nicht stimmen und die Zuschauer toootal von der Agenda überrascht sein... tja, dann hat der Referent sein Pulver im Grunde verschossen. Dann hat er schon am Anfang verraten, dass er eine Überraschung für das Publikum hat. Wie langweilig.

Ein Inhaltsverzeichnis, eine Agenda ist nur sinnvoll, wenn der Zuschauer mit ihrer Kenntnis Entscheidungen besser treffen kann. Welche Entscheidung soll er aber bei einem 60min Vortrag treffen? Bei einem Buch kann er nach Lektüre des Inhaltsverzeichnisses zu einem für ihn besonders interessanten Kapitel springen. Im Vortrag muss er im schlechtesten Fall bei vollem Bewusstsein 50min ausharren, um dann in den letzten 10min zu hören, was ihn interessiert. Die Agenda hat ihm Hoffnung und Überraschungseffekte genommen.

Bei einem mehrtägigen Training mag es sinnig sein, am Anfang kurz den Verlauf des Trainings zu skizzieren, damit Teilnehmer ihre Ressourcen einteilen können. Doch auch in dem Fall bin ich skeptisch, dass das mehr bringt als eine diffuse Beruhigung. Denn wer trainiert werden will, der hat naturgemäß wenig Ahnung vom Thema. Was nützt also einem Trainingsteilnehmer bei einem .NET Grundlagenseminar die Information am 1. Tag, dass er am 4. die Weihen der WinForms UserControl Programmierung empfangen wird? Soll er damit Vorfreude aufbauen? Hm...

Dass (!) ein Thema behandelt wird, ist natürlich wichtig zu wissen. Ohne diese Information würde man ein Training kaum buchen. Aber in welcher Reihenfolge die Inhalte vermittelt werden... was nützt diese Information? Sie macht es dem Referenten sogar schwer, während der Stoffbehandlung den Weg durchs Thema zuschauerbezogen zu wählen.

Bottom line: Wer noch eine Agenda am Anfang seines Vortrags hat, streiche sie ersatzlos.

Besser als eine Agenda ist ein knackiger Einstieg, der das Publikum ohne Verzug "abholt" und auf eine spannende Fahrt durch das Thema mitnimmt.