Follow my new blog

Sonntag, 16. Dezember 2007

OOP 2008: Angst essen SOA auf

Schon mit SOA als "System Oriented Attitude" habe ich ja dafür plädiert, der Technik eine persönliche Haltung zu unterlegen. Und das 3. Gesetz der Softwareentwicklung hat mich zu quasi philosophischen Äußerungen hingerissen: Softwareentwicklung ist Arbeit am ewig Vorläufigen. Wenn ich mich nun also schon so wegkatapultiert habe von den harten Bits und Bytes, dann kann ich auch noch einen soziologischen Aspekt hinzufügen, oder? Also...

Prämisse 1: Software ist ein langlebiges Produkt mit Zwang zur ständigen Anpassung. Software ist nie fertig. Softwareentwicklung kommt nie wirklich an. Es gibt immer nur Zwischenstopps, Verschnaufpausen auf einem ständig sich windenden Weg. Software ist insofern einem Lebewesen ähnlicher als einem Auto. Softwareentwicklung ist eben Arbeit am und im ewig Vorläufigen. Das mag unserer Vorstellung von "Produkten" widersprechen und auch unserem Weltverständnis entgegenstehen, in dem es doch immer noch soetwas wie Objektivität und Wahrheit gibt, also feste Punkte, an denen man ankommen kann. Aber es hilft nichts: Software ist nicht so. Software kommt nicht an. Software ist eine ständige Baustelle. Sie befindet sich im ständigen Anpassungszwang.

Prämisse 2: Wir leben in einer Gesellschaft, die ein Problem mit Veränderungen hat. Wir leben in einer Kultur, die ein Problem mit Fehlern hat. Fehler, Scheitern und gar noch selbst Schuld daran sein... das sind kollektive Horrorvorstellungen in Deutschland. Abzulesen ist das an der Regelungswut des Gesetzgebers, am Stigma Insolvenz, an der geringen Selbstständigenquote, an falschen öffentlichen Ehrenworten und schlicht an der Realität der Softwareentwicklung, die keine Spielräume lässt. Denn Spielräume sind Eingeständnisse für das Potenzial von Fehlern. Fehler zu machen, wird nicht als unausweichlich menschlich angesehen, sondern als auszumerzendes Übel (oder zumindest zu leugnende Schwäche).

Da nun Veränderungen Entscheidugen voraussetzen, Entscheidungen aber richtig oder falsch sein können, Entscheider also Fehler machen können... deshalb fürchten wir uns kollektiv vor Veränderungen. Wir wollen einfach keine Fehler beim Entscheiden machen, keine Fehlentscheidungen treffen. Wer nichts verändert und zufrieden mit dem status quo ist, der hat kein Problem mit Fehlern oder Schuld. Ohne Veränderung kein selbstverschuldetes Scheitern. Wenn man dennoch scheitert, dann ist´s wenigstens die Schuld von jemand anderem.

Da nun aber unzweifelhaft immer wieder Entscheidungen getroffen werden müssen, auch große und weitreichende, gilt ein (bisher) stillschweigendes Übereinkommen, dass diejenigen, die sie auf sich nehmen, dafür besonders entlohnt werden. Die großen Gehälter der wenigen "großen Entscheider", der Manager, der Konzernlenker stehen insofern wahrscheinlich einfach in Relation zur allgemeinen großen Furcht vor Entscheidungen der vielen Kleinen Nichtentscheider. Wir sollten uns also nicht über sie beklagen, solange wir selbst fehlerängstlich und entscheidungsunfreudig sind. Aber ich schweife ab...

Konklusion: Wenn nun Software ihrer Natur nach ständige Veränderung bedeutet, die Softwareentwickler und -architekten und Projektleiter und Kunden einer Kultur und Gesellschaft angehören, denen im Kern Veränderungen verhasst sind... dann kann das nichts Gutes für die Softwareentwicklung bedeuten.

Wie sollen Menschen in einem Milieu ohne Fehlerkultur, wie sollen Menschen, die ansonsten in ihrem Leben auf Konstanz, geradlinige Entwicklung und dauerhafte Werte (z.B. Haus, Yacht, Familie, gesicherter Ruhestand) ausgerichtet sind, wie sollen solche Menschen etwas produzieren, das die Antithese ihrer Haltung und ihrer Werte ist?

Ich glaube, das geht auf einer ganz fundamentalen Ebene nicht.

Und solange wir das nicht einsehen, werden wir immer wieder verständnislos vor Software jeder Größenordnung - vom Handy-Game bis zur Enterprise SOA - stehen und uns wundern, warum das nicht endlich mal läuft, wie es soll, nicht endlich mal fertig ist.

SOA im Speziellen oder Softwareentwicklung im Allgemeinen braucht, so glaube ich, also nicht nur eine angemessene technisch-fachliche Kultur, die ich "System Oriented Attitude" nenne. Nein, sie braucht auch eine der Natur der Software (s. Prämisse 1) angemessene ganz grundsätzliche Lebenskultur, die ständige Veränderung bejaht, die Fehler akzeptiert, in der es nicht um Schuld und Konkurrenz, sondern um Kooperation geht, die bewusst mit dem Spannungsfeld zwischen menschlichem Wunsch nach Sicherheit und Verlässlichkeit auf der einen Seite und der Notwendigkeit zur Anpassung und Flexibiltitä auf der anderen Seite umgeht.

Der Deutschen Gründlichkeit hat ja ihre Vorteile. Veränderungen wollen bedacht sein. Aber wo aus Nachdenken dann Bedenken und schließlich Bedenkenträgerei wird, wo Fehler ein Makel sind, wo die Spielräume für Korrekturen fehlen, wo Konkurrenz mit Schuldzuweisung arbeitet, wo die Angst in den Herzen sitzt... da kann eine SOA nicht wirklich gedeihen.

Eine Gesellschaft hat immer die Software, die sie verdient.

Freitag, 14. Dezember 2007

OOP 2008: Gesetze der Softwareentwicklung III

Abgesehen mal von der Frage, was eine gute, nein, eine optimale SOA ist, lohnt auch die Frage, wie denn ein Unternehmen überhaupt zu dieser SOA kommen kann? Ich glaube, zu ihrer Beantwortung können einige "Gesetze der Softwareentwicklung" beitragen.

Gesetz 1 sagt, dass optimale Strukturen, also auch optimale serviceorientierte Architekturen überhaupt nur für bekannte Anforderungen entworfen werden können. Das mögen Sie als trivial ansehen, dennoch ist es hilfreich, diese Basislinie zu haben. Und keine Sorge, Gesetz 2 macht die Sache schon spannender: Selbst wenn es für gegebene Anforderungen eine oder wenige gleichwertige optimale Strukturen geben sollte, dann lassen sich die nicht aus ihnen ableiten. Unser Verständnis bekannter Anforderungen ist einfach zu begrenzt. Ja, ich meine, dass wir selbst vorliegende Anforderungen allermeistens nur unzureichend verstehen; von den (noch) unbekannten Anforderungen, d.h. davon, dass Anforderungen immer im Fluss sind, also niemals vollständig bekannt, rede ich gar nicht erst.

Das glauben Sie nicht? Sie meinen, wasimmer Sie aus einem Kunden mit der Hebammenkunst des Requirements Engineering herausgekitzelt haben, verstehen Sie auch in seinen Implikationen und können deshalb eine optimale Struktur dafür entwerfen. Gut, dann unterliegt das Ergebnis der Implementation dieser optimalen Struktur immer noch

Gesetz 3: Optimale Strukturen werden nie verlustfrei implementiert

Sie kennen das Spiel: Am Anfang stehen gute Vorsätze, aber was aus ihnen wird, ist eine andere Sache. Wie Clausewitz schon sagte: Kein Plan überlebt den Kontakt mit dem Feind. Eine optimale Struktur ist aber ein Plan, ein Vorsatz für die Realisierung von Software. Und der Feind... der ist das Tagesgeschäft. Am Anfang einer Iteration/eines Release sind Motivation und Zuversicht groß. Am Ende, wenn es auf die Auslieferung zugeht, ist die Motivation hoffentlich immer noch groß, aber die Zuversicht hat Dämpfer bekommen. Meist werden Sie am Ende einer Timebox nicht die geplanten Features ausliefern. Sie werden (hoffentlich) immer noch Wert für den Kunden produziert haben, aber nicht den, den Sie anfänglich geplant hatten. Das betrifft nicht nur die Zahl der Features, sonder vor allem die interne Struktur ihrer Implementation.

Der Grund dafür ist einfach: Es existiert ein Wertekonflikt. Auf der einen Seite der Wert "Funktionalität für den Kunden" und auf der anderen Seite "Qualität der Implementationsstruktur". Und welcher dieser Werte wird, wenn die Zeit knapp ist, höher geschätzt? Sie wissen es aus eigener Erfahrung nur allzu genau. "Funktionalität für den Kunden" ist im Zweifelsfall immer der Gewinner. Wenn die Uhr merklich tickt, dann verfallen wir nicht nur in physischen Gefahrensituationen auf Verhaltensweisen, die sich seit der Steinzeit eingeschliffen haben, sondern auch wenns im Virtuellen brenzlig wird. Copy&Paste als Reflexhandlung, hier noch schnell etwas dazustricken, damit es läuft, dort mit "Ja, ich weiß, das ist jetzt nicht optimal und nicht so, wie wir´s geplant hatten, aber es funktioniert halt erstmal." entschuldigen. So funktioniert Softwareentwicklung in immer engen Zeitplänen auf der ganzen Welt. Nicht schön, aber is´ halt so.

Der Kunde ist König. Der Kunde sieht keine internen Strukturen. Also wird poliert, was der Kunde sieht und wünscht. Ob die langfristig optimalen Strukturen dabei erhalten bleiben, ist im Zweifelsfall egal. Zweifelsfälle, d.h. Entscheidungszwänge am Ende von Zeitplänen, sind allerdings die Regel. Also ist auch Suboptimalität die unvermeidliche Regel. Wider jeden besseren Willens.

In der Suboptimalität einrichten

Was bedeutet das für eine SOA? SOA, also Architektur im Großen, muss sich wie jede andere Softwarestruktur in der Suboptimalität und damit im Vorläufigen einrichten. Oder postmoderner ausgedrückt: Wer auf den SOA-Zug springt mit der Hoffnung, endlich der Wahrheit ein Stück näher zu kommen, der hechelt (wieder) einer Illusion hinterher. Es gibt sie nicht, die Wahrheit der Softwarearchitektur, die eine oder andere für das Unternehmen oder auch nur eine Applikation optimale Architektur.

Es gibt immer nur temporär angemessene Strukturen, die noch nicht einmal wie geplant implementiert werden können. Insofern ist jeder real existierender Code immer suboptimal in der einen oder anderen Hinsicht. Immer. Unausweichlich. Vor allem, solange man an ihm noch zu einem anderen Zweck als der Optimierung seiner Struktur in Bezug auf währenddessen konstante und durch langwierige Implementation inzwischen wohlbekannte Anforderungen hält.

Im Kern jeder SOA, d.h. der Manifestation der SOA-Prinzipien oder überhaupt irgendwelcher Architekturprinzipien muss daher Anpassungsfreundlichkeit stehen. Design for Change ist nie wichtiger gewesen. Design for Change ist quasi die Metaebene der Agilitätsgrundsätze.

Das bedeutet aber natürlich nicht, dass Sie keinen Plan haben sollten. Das bedeutet auch nicht, dass es keine guten oder weniger guten Architekturen für bekannte Anforderungen gibt. Es bedeutet nur, dass Sie kein Gefühl von Angekommen entwickeln sollten. Architektur ist die Kunst der Strukturierung und Ordnung des ewig Vorläufigen.

Egal, welche Technologie Sie heute einsetzen, egal, welcher Schule Sie folgen... das alles wird veralten und Ihre Implementationen sind zu erneuern.

Und was bedeutet das für schon existierende Strukturen? Dazu mehr bei Gesetz 4 der Softwareentwicklung.

Montag, 10. Dezember 2007

OOP 2008: Mehr Produktivität und mehr Ausbildung statt Experteneinwanderung

Heute mal aus gegebenem Anlass nicht das Thema SOA im Zusammenhang mit der OOP 2008 ;-) Heute mal das Thema Fachkräftemangel. heute.de titelte neulich schon "Experten verzweifelt gesucht" und ich hatte gestutzt. Der IT-Fachkräftemangel hat natürlich auch vor meinem Tätigkeitsfeld nicht halt gemacht: .NET-Experten werden von vielen meiner Beratungskunden gesucht - aber ich kenne keinen .NET-Experten, der frei für einen Wechsel wäre. Stellenangebote suchen also Nachfrage. Doch die bleibt aus...

Gestutzt hatte ich dann ob des eiligen Lösungsvorschlags des Verbands Bitkom: gesteuerte Zuwanderung. Den halte ich nämlich für genauso kurzsichtig wie am Problem vorbei:

1. Selbst wenn die Zuwanderung von geeigneten IT-Experten tatsächlich in ausreichendem Maße motiviert werden kann (in Indien? oder in China? oder in Russland?), dann scheint es mir nicht genauso einfach, diese IT-Experten auch wieder los zu werden, wenn eine der unzweifelhaften Zukünfte "IT-Expertenüberschuss" oder "IT-Rezession" eintritt. Einfach einen IT-Experten-Hahn aufdrehen zu wollen, um einen akuten Mangel auszugleichen, ist schlicht naiv und kurzsichtig. Seit 1927 sollten solch pauschale Forderungen einfach nicht mehr zum Repertoire nachdenkender Wirtschaftsteilnehmer gehören.

2. Die vorstehende Bedingung "geeignete IT-Experten" halte ich für grundsätzlich nicht erfüllbar. Ausländische IT-Experten haben einfach nicht in genügend großer Zahl die sprachlichen und kulturellen Ausstattungen, um so prompt, wie es die IT-Branche gern hätte, denn auch tatsächlich einsatzfähig zu sein. Softwareentwicklung im Speziellen ist nicht "dumpfes einhacken von Quellcode", sondern Wissensarbeit in einem oder besser mehreren sozialen System. Die Kommunikationsfähigkeit, die persönliche Ausdrucksfähigkeit ist hier besonders wichtig. Und die profitiert wiederum von einer gemeinsamen Kultur. Wenn die schon zwischen Amerikanern und Deutschen in der Zusammenarbeit schwer zu finden ist, dann allemal zwischen Deutschen und Indern oder Kasachen usw. Das hat nichts mit Diskriminierung zu tun oder einem Zweifel an den geistigen Fähigkeiten der Bewohner kulturell entfernter Ländern, sondern schlicht mit der Realität von Kommunikation.

3. Das Problem des IT-Expertenmangels schein so eindeutig: Es fehlen Menschen, um Arbeit wegzuschaffen. Aber ist das wirklich so? Bei gegebener Menge kann die Arbeit ja auf zweierlei Weise erledigt werden: Mit vielen Menschen und niedriger Produktivität - oder mit weniger Menschen bei hoher Produktivität. Warum werden aber nur mehr Menschen gefordert und nicht mehr Produktivität? Ist die denn schon so hoch, wie sie sein könnte? Mit Verlaub, ich meine, an der Schraube könnte noch etwas gedreht werden. Damit will ich nicht einer 40+ Stunden Woche das Wort reden und meine auch nicht, dass Programmierer schneller tippen sollten. Ich glaube vielmehr, dass viele Softwareentwickler heute ganz einfach schlecht ausgebildet sind und deshalb vergleichsweise unproduktiv. Das wissen sie nur selber nicht und ihre Chefs wissens es auch nicht. Wie kann das sein? Es fehlt einfach ein Vergleich und es fehlt ein Erwartungshorizont. Vergleiche werden nur mit eigenen früheren Leistungen angestellt - aber nicht personen- oder gar unternehmensübergreifend. Der beste Beweis dafür ist der weit verbreitete Mangel an Produktivitätsmessungen als Grundlage für Projektabschätzungen. Welcher Entwickler misst denn schon, wie lange er für die Realisierung einer Aufgabe braucht? Und das ist ja nur der Anfang. Selbst wenn er messen würde, wüsste er nicht, ob er mit dieser Leistung über oder unter dem Durchschnitt (den niemand kennt) liegt.

Ich bin sicher, dass es gewaltige Produktivitätsreserven in der Softwareentwicklung gibt. Und die können gehoben werden, ohne neue Tools einführen zu müssen. Es ist alles schon da! Werkzeuge und Techniken und Technologien müssen einfach nur vernünftig genutzt werden. Dazu bedarf es aber - horribile dictu! - Aus- und Weiterbildung und Reflektion. Es bedarf harter und auch weicher Kompetenzen!

4. Aber auch nach einer Produktivitätssteigerung in der Softwareentwicklung wird wohl noch eine Fachkräftelücke vorhanden sein. Was tun mit der? Wie wäre es, wenn denn die Branche selbst mal mehr in die Ausbildung investierte? Sich auf Universitäten und BAs und Umschulungen zu verlassen, ist doch kein bewusster Umgang mit der wesentlichen Ressource Wissen bzw. Mensch. Gute Mitarbeiter wachsen nicht auf den Bäumen und werden auch nicht in Indien und anderswo in Retorten gezüchtet. Gute Mitarbeiter erhält man durch Ausbildung, durch eigenen Ausbildung, denn schließlich soll der Mitarbeiter ja möglichst passgenau sein. So lauten ja auch die - oft naiv optimistischen - Stellenausschreibungen. Da wird meist einer gesucht, der eigentlich nur im eigenen Unternehmen gefunden werden kann, weil er sonst eine spezifische Kompetenz gar nicht haben kann. Insbesondere müssen die Unternehmen in eigenen Ausbildung investieren, die Kompetenzen suchen, die die allgemeinen Curricula nicht abdecken. Wer auch nur ein wenig von der Wichtigkeit der Softskills für die Wissensarbeit verstanden hat, wird nicht umhin kommen, in sie zu investieren - denn sonst finden sie sich auf keinem Lehrplan und auch nicht in der "Schule des Lebens". Aber damit nicht genug! Der für mich besonders relevante Bereich der .NET-Kompetenzen ist in den allgemeinen Ausbildungseinrichtungen unterrepräsentiert. Wer also heute .NET-Entwickler sucht... der kann lange suchen. Besser er überlegt sich, wie er selbst ausbilden kann.

Dass ich mit dieser Ansicht nicht allein stehe, hat mir die Meldung "IT-Branche muss mehr ausbilden" zum Glück gezeigt. Es scheint, in der Politik ist noch nicht aller gesunder Menschenverstand verloren.

Dienstag, 4. Dezember 2007

OOP 2008: Planlose Softwareentwicklung!

Angeregt durch die Diskussionen rund um SOA im Blog der OOP 2008 habe ich nochmal meine Gedanken schweifen lassen... Gewöhnlich beschäftige ich mich ja nicht mit den großen Enterprise Architekturen, sondern versuche erstmal die .NET-Entwicklergemeinde vom Wert bewusster Architektur im Kleineren, "nur" für ihre Anwendungen zu überzeugen. Aber wo die Diskussion zu SOA schon so lebhaft ist, kann ich mich ihr auch nicht ganz entziehen. Allemal nicht, da sie - unausgesprochen zwar, aber dennoch - etwas mit einem Thema zu tun hat, das mich auch schon interessiert hat: die Beherrschung der Komplexität von Software. Heute nun bin ich beim Gedanken schweifen lassen über eine verwegene Idee in dieser Hinsicht gestolpert:

SOA hat ja sicherlich einiges mit Komplexität zu tun. Oder überhaupt geht es bei großen und noch größeren Softwaresystemen immer um Komplexität, egal ob sie nun etwas mit SOA zu tun haben oder nicht.

Nun scheint es mir, als versuche man diese Komplexität durch gute Planung in den Griff zu bekommen. Hört sich doch auch vernünftig an, oder? Komplizierte, ja komplexe Produkte wollen geplant sein. Vom Auto über einen Airbus bis zur Unternehmenssoftware. In meinen Publikationen und bei meinen Beratungsterminen spreche ich auch immer wieder von Planung für gute Architektur, d.h. bewusster, kontrollierter Anordnung und Verbindung von Softwareartefakten.

Jetzt die verwegene Idee: Was, wenn eben diese Planung kontraproduktiv wäre? Was, wenn Planung umso kontraproduktiver wäre, je komplexer die Software ist? Was, wenn zentrales Vordenken von komplexer Software eine Kontrollillusion wäre? Die Phantasie von "Maschienenbauern" und ein Relikt aus dem 19. Jahrhundert?

Wie bin ich auf solch eine verwegene Idee komme? Ich hatte meinen Blick mal wieder über den Rand meines Laptop in die Welt gerichtet. Eine Stunde beim Sport hatte mir den Kopf freigepustet von überkommenen Softwareentwicklungsvorstellungen. Was ich dann jenseits meines Laptops sah, war eine Welt der Komplexität. Komplexe Systeme überall: vom Ameisenhaufen bis zur globalen Wirtschaft. Und all diese Systeme... ohne Planung.

Es gibt keinen Lenker der Ameisen und Bienen. Es gibt keine zentrale Planung unserer Städte. Auch die Bundesregierung plant nicht zentral. Die heute vorherrschende Ideologie von Demokratie und darauf aufsetzender Marktwirtschaft ist geradezu die Antithese jeder zentralen Planung und Kontrolle. Es gibt vielleicht eine gewisse Lenkung... aber Planung?

Eine Uhr, ein Auto, eine Fabrik... ja, die werden noch geplant. Aber die sind im Vergleich zu (großer) Software auch noch nicht wirklich komplex. Das liegt daran, dass deren Umwelten ungleich stabiler sind, als die von Software. Wirklich komplexe Situationen und "Gebilde" jedoch, die entziehen sich Planung und zentraler Kontrolle.

Auch wenn es Städteplaner gibt, so plant niemand Städte langfristig im Voraus. Oder zumindest werden sie nicht im Detail im Voraus geplant. Städte sind wachsende Gebilde, die vor allem von unzähligen individuellen Entscheidungen geprägt werden. Dasselbe gilt für die Wirtschaft. Das ist geradezu kafkaesk, denn damit ist das große Ganze, das wahrhaft Komplexe nicht mehr in der Verantwortlichkeit Weniger. In einem Schwarm ist bei einem Missstand "der eine Schuldige" nicht mehr auszumachen; es gibt ihn einfach nicht. Dafür ist der Schwarm flexibel, anpassungsfähig.

Auf die Softwareentwicklung bezogen ergibt sich aus dieser Erkenntnis die Frage: Versuchen wir immer noch oder schon wieder zuviel zu planen? Wäre mehr Planlosigkeit, die Abwesenheit eines klaren Planes eine bessere Strategie für Erfolg? Die Agilitätsbewegung hat ja schon in gewisser Weise den Plänen den Kampf angesagt. Inkremente statt Wasserfall, kleine Schritte statt großer Sprung. Aber ist das vielleicht immer noch zuviel? Müssen wir uns vielleicht noch radikaler vom Planen verabschieden?

Probate Mittel, um Komplexität zu beherrschen sind Hierarchien, Ordnung, Entkopplung. Die ultimative Strategie ist jedoch überhaupt die Abgabe von Kontrolle. Wo Komplexität nicht mehr beherrscht werden muss, stellt sie auch kein Problem dar. Dazu bedarf es natürlich des Vertrauens. Vertrauen in diejenigen, an die die Kontrolle abgegeben wird, die unendlich vielen kleinen "Rädchen im Getriebe", die lokale Entscheidungen treffen. Und Vertrauen an die grundlegenden Gesetzmäßigkeiten, die Rahmenbedingungen.

Meine verwegene Idee zum Umgang mit komplexer Software ist also, diese Software nicht mehr zu planen, sondern sie entstehen zu lassen, sie wachsen zu lassen. Komplexe Software braucht keine Planer, die tausende Webservices so oder anders schneiden. Komplexe Software braucht keine vorgedachte Architektur.

Statt eines Masterplans braucht komplexe Software vielmehr Grundwerte und -gesetze, einfache Rahmenbedingungen, die Möglichkeit zum Experiment und maximale Kommunikationsmöglichkeiten für die real-time Kollaboration zwischen allen Beteiligten. Komplexe Software braucht ein Ökosystem, in dem sie sich entwickeln kann. Und das bezieht sowohl Entwickler wie Anwender und Kunden mit ein.

Die Funktion komplexer Software ist dann kein Ergebnis mehr von zentralem Kundenwunsch gechannelt durch Analysten und Architekten, sondern emergent. Komplexe Software ist dann das Ergebnis eines Schwarms und spiegelt die Bedürfnisse und die Intelligenz der Masse wider.

Der Gewinn? Eine maximal flexible Software, die sich ständig den Umweltanforderungen anpasst.

Die Herausforderungen? Ganz ohne alle Vordenken geht es natürlich am Ende doch nicht. Aber die Planung ist verlagert auf die Meta-Ebene. Statt konkreter Artefakte werden allgemeine Regeln für Artefakte geplant. Führung bedeutet nicht mehr Kontrolle der Planeinhaltung, sondern Hilfe zur Regeleinhaltung. Und Führung muss sicherstellen, dass der Informationsfluss ungehindert ist.

Ich weiß, das klingt alles ein wenig utopisch/theoretisch. Wie genau so ein Zeitalter der Post-Agilität, der Schwarmentwicklung aussieht, weiß ich auch noch nicht. Es gibt sicher auch gewaltige technische Hürden zu überwinden; so ist das vorherrschende Modell von Software als Text dafür zu starr, Gleiches gilt auch für die Datenbankschemata.

Aber ich bin mir nach diesem Gedankenausflug recht sicher, dass die aktuellen Antworten auf den Trend zu immer leistungsfähigerer, immer komplexerer Software ungenügend sind - zumindest solange ein wie immer gearteter Drang zu steigender Kontrolle dahinter steht. Denn Kontrolle steht im Widerspruch zu Komplexität. Wenn aber eines sicher ist, dann ist es, dass die Komplexität unserer Software bzw. des Gesamtsystems Mensch-Software oder Unternehmen-Software weiter steigt. Die Kontrolle kann also nur geringer werden - ob wir es wollen oder nicht -, wenn wir passgenaue und überlebensfähige Softwaresysteme haben wollen.

Freitag, 23. November 2007

Die Steigerung des Superlativs - oder: Rekursive Veranstaltungsprofilierung

Gerade flatterte mir der Flyer der nächsten Auflage eines bekannten deutschen .NET-Entwicklerevents ins Haus. Dass es in 2008 noch andere Veranstaltungen neben dem Hypermegasuperevent von Microsoft Deutschand anlässlich des Launch von VS2008 & Co geben könnte... das hatte ich schon fast nicht mehr auf dem Zettel.

Und auch der Veranstalter schien Mühe zu haben, sich mit der "Übermacht" zu arrangieren. Was bleibt denn auch noch zu sagen, wenn Microsoft drei Tage lang ein Feuerwerk zu .NET 3.5, VS2008, SQL2008, Windows Server 2008 und auch noch Sharepoint abfackelt? Da fällt die Profilierung auch eines etablierten technologieorientierten Events schwer.

Aber... der Veranstalter hat für sich einen Weg gefunden. Gibt es doch nichts Gutes, was nicht noch besser werden könnte, oder? In der Vergangenheit hat das ja auch schonmal funktioniert. Früher, in den 1990ern, da ging es bei Entwicklerveranstaltungen "nur" um Technologien und vielleicht mal um "Tipps und Tricks". Das war dann in den Jahren nach 2000 nicht mehr genug. Mehr Events stellten mehr Technologien vor. Wie also sich profilieren? Klar, Technologien kann jeder - aber nicht jeder kann sie auch wirklich gut einsetzen, hat wirklich, wirklich Erfahrung mit ihnen. Wohl also dem, der die besten (!) Wege zu ihrem Einsatz vermittelt. Und schon waren nicht mehr einfach nur Technologievorträge auf den Entwicklerveranstaltungen angesagt, sondern "Best Practice"-Demonstrationen. Ging es vormals um den Einsatz oder vielleicht sogar guten/richtigen Einsatz von Technologien, so zeigte man nun nicht weniger als ihren besten! Auf gut folgte also nicht besser, sondern gleich am besten. Wer will sich auch schon mit dem Komparativ abgeben, wenn man doch den Superlativ in der Tasche hat?

Nur, was kommt nach dem Superlativ? Früher wurde der Begeisterung mit Qualifikationen wie "toll" und "super" Ausdruck verliehen. Darauf folgte dann in den 1990ern "mega". Für die Zukunft bieten sich "giga", "tera" und "peta" an ("hyper" ist nicht wirklich salonfähig, oder?); um 2057 werden die Medien deshalb wohl vom "Peta Musikevent des Jahrtausends" berichten, wenn die altersgreisen Jungs (?) von Tokio Hotel auf die Bühne gerollt werden - oder so.

Die Veranstaltungen für die .NET-Community dürfen diese Entwicklung natürlich nicht an sich vorüberziehen lassen. Profilierung tut Not. Mit Microsoft Elefantenevent und auch ohne. Mit einem simplen "giga", "tera" usw. zur Qualifikation des eigenen Programms ist es aber natürlich nicht getan. Das wäre für diese Branche zu naheliegend. Der findige Veranstalter, dessen Flyer ich ins Haus bekam, hat sich daher eine ganz andere Strategie zur Steigerung einfallen lassen.

Seine Agenda enthält nicht mehr nur "Best Practice"-Vorträge. Nein, bei ihm gibt es jetzt... "Best of Best Practices"! Der grammatikalische Superlativ wurde durch eine Anwendung auf sich selbst auf eine neue Ebene gehoben: Das Beste vom ohnehin schon Besten wird es zu sehen und zu hören geben!

Welch ein Einfall! Er ist der Branche wahrlich würdig! Denn die Anwendung des Besten auf das Beste ist ja quasi eine Rekursion: p2008 = Best(Best(p2007));

Damit ist auch die ultimative Formel für alle Zukunft gefunden. Es gibt nun kein Profilierungsproblem mehr. Denn die Formel lautet für 2009 ganz einfach: p2009 = Best(Best(Best(p2007))); Ende nächsten Jahres werde ich also wohl einen Flyer im Postkasten haben, auf dem steht "Best of Best of Best Practices". So ist man Microsoft - und allen anderen - immer einen Schritt, äh, eine Rekursion voraus. Brilliant! Beneidenswert!

Oder...

Vielleicht auch nicht. Denn eine (grammatikalische) Steigerung bedeutet ja auch immer eine Filterung. Die Menge des Besten - wie z.B. in Best Practice - ist immer eine Untermenge des Vorhandenen oder des schon Guten. Wenn dann vom Besten wieder nur das Beste genommen wird... dann schrumpft die Menge weiter.

Was bedeutet das für einen Event, der im Umfang ja aber nicht schrumpfen will und kann? Es bedeutet, dass er eben nicht wirklich dem Motto "Nur das Beste vom Besten" treu sein kann. Schade.

Schade, dass die Profilierung nur über eine Steigerung versucht wird. Das ist wie bei den "Rabatt" und "Sonderpreis" und "Sale" Schildern in den Schaufenstern allerorten heutzutage. Nur der Preis zählt. Nur die besten Best of Best Practices zählen. Als gäbe es nichts außer Best Practices - von denen wir ja übrigens schon seit knapp 3 Jahren zum Thema VS2008 aka Oracs hören. Irgendwann müssen sie doch mal alle vermittelt worden sein die Best Practices und damit auch die Best of der Best Practices, oder?

Aber ich verstehe schon. "Best Practices" hört sich ja auch für die Zielgruppe immer wieder, immer noch höchst attraktiv an. Wer will denn schon selbst durch die Niederungen des Technologiekompetenzerwerbs gehen? Besser, man kann auf dem Erfahrungsniveau von Best Practices einsteigen. Und noch besser, man kann bei den Best of Best Practices einsteigen. Oder?

Am Ende aber... können auch Best of Best of Best of Best of Practices die eigene Erfahrung nicht ersetzen. Und sie leisten auch immer noch nicht den Transfer auf das eigene Projekt. Denn gewöhnlich werden selbst die Best Practices relativ zusammenhanglos, eben technologieorientiert dargestellt.

Ich würde also sagen: "Best Practices" sind genug. Der Superlativ darin reicht aus. Auf sie nochmal ein "Best of" zu setzen, ist unnötig und verwirrend. Es leistet einem quantitativen Denken Vorschub, das wir hinter uns lassen sollten. Wir brauchen nicht mehr, sondern Anderes. Wir brauchen neue Qualitäten, nicht größere Mengen. Innovationen stecken also leider nicht in "Best of Best of...".

Donnerstag, 22. November 2007

OOP 2008: Transformers to the rescue

Im OOP 2008 Konferenz-Blog habe ich grad wieder einen Beitrag von Michael Stal zum Thema "SOA-Leichtgläubigkeit" gelesen. Der hat mich an eine Analogie gemahnt, die mir neulich nach einem Kinobesuch kam. Ich hatte den Film "Transformers" gesehen und war begeistert.

image

Nicht nur war der Film von seinen Spezialeffekten (wenn man sowas mag ;-) einfach toll - er hat mir auch etwas über Softwareentwicklung klar gemacht. Plötzlich hatte ich ein Bild für das in der Hand für ein weit verbreitetes Missverständnis.

Das Missverständnis ist: Software ist wie eine Maschine. Man kann sie so planen und bauen wie eine Uhr oder ein Auto.

Dieses Missverständnis halte ich für die Ursache vieler Probleme mit Softwareprojekten. Es übt einfach viel Einfluss auf Architekturen und Prozesse aus. Es macht sie starr und linear.

Software ist aber nicht wie eine Maschine, Software ist eher wie ein Lebewesen oder eine Stadt. Sie muss sich ständig neuen Anforderungen anpassen. Unter Beibehaltung ihrer Identität, muss sich ständig... ihre Form verändern, um sich neuen Anforderungen anzupassen. Die interne wie die externe Form.

Wenn schon Software mit Maschinen vergleichen, dann mit Transformers. Das sind nämlich Maschinen, die ihre Form verändern können: eben noch Roboter, werden sie zum Flugzeug oder Lastwagen, wenn es die Situation erfordert.

Wer also weiterhin der Vorstellung anhängen möchte, Software seien Maschinen doch so ähnlich, der schaue sich also den Film "Transformers" an und überlege einmal, wasfüreine Architektur denn so ein Transformer wohl hat, um so flexibel zu sein. Und dann gehe er oder sie noch darüber hinaus! Denn Software muss noch flexibler sein als ein Transformer!

Um auf Michaels Posting zurückzukommen: Wer flexible, evolvierbare, langlebige, anpassungsfähige Software haben will, der muss all diese Eigenschaften in sie von vornherein hineinplanen. Eine SOA kann daher nicht wirklich als "Zuckerguss" auf existierende Systeme "drübergegossen" werden. SOA beginnt vielmehr vor allen Tools im Kopf und zeigt sich in Planung wie Prozess. Eine SOAP-Schnittstelle und ein ESB machen noch keine SOA. Sie mögen vielleicht notwendige Voraussetzungen sein. Vielleicht. Aber sie sind keineswegs hinreichend.

Etwas überspitzt gesagt: Eine SOA implementieren - oder sogar noch allgemeiner: langlebige Software entwickeln - heißt, von den Transformers zu lernen ;-)

Samstag, 17. November 2007

Impressionen von der prio 2007

Nun ist sie gelaufen, die prio conference. Seit dem Frühsommer hatte ich mich gedulden müssen, ob die von mir ausgesuchten Sprecher und Themen vom kritischen Publikum für gut befunden würden. Würde die prio 2007 als Konzeptkonferenz an den Erfolg im Vorjahr anschließen können?

image

Aber jetzt bin ich entspannt. Das Konzept der prio ist wieder aufgegangen. Schon am ersten Tag bekam ich spontan sehr positives mündliches Feedback von den Teilnehmern. Und auch nach der Konferenz wurden die Teilnehmer über ihre Feedbackbögen hinaus nicht müde, ihrer Begeisterung Ausdruck zu verleihen:

  • "Erstmal Glückwunsch zur wirklich gelungenen Konferenz. Die Vorträge die ich gesehen habe fand ich alle gut bis sehr gut.", Boas Enkler
  • "Mir hat diese Konferenz viel Spaß bereitet wie auch viel neues Wissen vermittelt und interessante Anregungen gegeben.", Andreas Hönick
  • "Die Vorträge und die Organisation waren super.", Jürgen Wäldele

Puh. Da fällt mir ein Stein vom Herzen. Sprecher und Inhalte sind bei den Teilnehmern gut, nein, sehr gut angekommen. Mit der Wahl des Konzeptthemas "Softwarequalität" haben wir also richtig gelegen. Das hat dann zwar nicht ganz die 300 vom Veranstalter Penton gewünschten Teilnehmer anziehen können... aber das hatte ich persönlich auch nicht erwartet. Sich mit "Softwarequalität" zu beschäftigen, erscheint einfach nicht so lohnend wie mit den neuesten Hype-Technologien. Doch die anwesenden Teilnehmer haben deutlich gemacht, dass die prio zurecht darauf gesetzt hat, dass es genügend Entwickler mit Weitblick und Professionalität gibt, die über den Tellerrand der tagesaktuellen Technologien schauen und nach Wegen suchen, die Qualität ihrer Software nicht nur durch ein neues Tool zu steigern.

image

So sind denn auch eher theoretische Vorträge wie "Architect to test" von Stephan Maier (links) und "Softwarequalität durch das richtige Vorgehen steigern" von Christian Bunse (rechts) gut angekommen, die sich auf den üblichen technologieorientierten Entwicklerveranstaltungen nicht finden.

image image

Das galt übrigens auch für den Softskill-Vortrag, den Renate Klein und ich zusammen gehalten haben. Im letzten Vortragsslot des ersten Konferenztages haben wir ganz untechnisch 75min darauf verwandt, harten Softwareprofis die Wichtigkeit "weicher Kompetenzen" nahezubringen. Mit Erfolg, wie sich herausstellte. Niemand hat den Saal verlassen und wir bekamen anschließend einiges ausdrücklich positives Feedback.

image

Neben in der .NET Community eher unbekannten, nichtsdestotrotz aber guten Sprechern - als besonders kompetent (wenn auch manchmal angesichts seines sehr französischen Akzents schwer verständlich) habe ich Patrick Smacchia empfunden, der sein Architekturbewertungswerkzeug NDepend vorgestellt hat -, waren aber natürlich auch genauso gute wie beliebte Sprecher wie Christian Weyer (links) oder Dominick Baier (rechts) mit von der Partie.

image image

Das Engagement der Sprecher endete aber nicht - wie sonst üblich - mit ihren Vorträgen! Nein, bei der prio waren die Sprecher auch noch nach der fachlichen Teil der Konferenz für die Teilnehmer da. Bei der Abendveranstaltung am ersten Konferenztag legten sie sich beim Ausschank und beim Servieren im Baden-Badener Löwenbräu mit Bierschürze hinter und vor der Theke ins Zeug.

dotnetpro-Autor Jörg Neumann (link) war sogar eigens für diesen Einsatz angereist. Und Neno Loje (rechts) war - wie man sieht - auch ganz in seinem Element.

image image

Tilman Börner - Chefredakteur der dotnetpro und "Schirmherr" der prio - und ich waren denn auch sehr zufrieden mit dem Einsatz der Sprecher bei Tag und bei Nacht.

image

Nach der prio ist aber natürlich vor der prio ;-) Und so stürzen wir uns denn auch umgehend in die Planung der nächstjährigen Konferenz. Seien Sie gespannt auf´s Thema... Ich hoffe, wir sehen uns dort.