Open-Source-Initiative für Cloud Computing

von: Ludger Schmitz (freier Journalist) | am: 28.07.2011 | Kommentare: 0

Auf der Open Source Convention (OSCON) 2011 in Portland, Oregon, hat sich die Open Cloud Initiative (OCI) konstituiert. Sie bezeichnet sich als „gemeinnütziger Advocat von Open Cloud Computing“. Ihr Ziel ist es, in einer offenen Diskussion aller Interessenten für das Cloud Computing Bedingungen zu schaffen, welche die Freiheiten der Anwender wahren, ohne das Geschäft der Anbieter zu behindern. Unter welchen Bedingungen das möglich sein könnte, hat die Organisation in „Open Source Principles“ (OCP) beschrieben. Dieses Basisdokument der OCI steht nun 30 Tage zur öffentlichen Diskussion.

Die Prinzipien erklären eingangs, dass Interoperabilität – im Sinne der Fähigkeit, Informationen auszutauschen und zu nutzen – zwischen Cloud-Produkten und -Services notwendig ist für einen freien Wettbewerb zwischen den Anbietern und freie Wahl der Anwender. Letztere müssten ungehindert Zugang zu Clouds haben und diese wieder verlassen können, ohne Rücksicht darauf, wer sie sind und welche Systeme sie verwenden. Anwender müssten daher für Standards kooperieren, bestehende implementieren und in einem offenen Prozess dort Standards entwickeln, wo noch keine bestehen.

Die OCI definiert eine Offene Cloud über zwei Anforderungen: Erstens offene Formate: Alle Anwenderdaten und Metadaten müssen in offenen Standardformaten vorliegen. Zweitens offene Schnittstellen: Alle Funktionalitäten einer Cloud müssen über offene Standard-Interfaces angesprochen werden.

Den Begriff Offener Standard definiert die OCI über vier Anforderungen:

* Der Standard muss in allen Details dokumentiert, veröffentlicht sowie zugänglich und kostenlos nutzbar sein.

* Alle in einem Standard vorhandenen Patente müssen unwiderruflich lizenzkostenfrei zur Nutzung verfügbar sein.

* Alle Markenrechte dürfen ausschließlich einer nicht-diskriminierenden Bestätigung der Compliance dienen.

* Die Client- und Server-seitige Implementierungen müssen gewissenhaft und interoperabel sein und unter einer von der Open Source Initiative (OSI) anerkannten Lizenz stehen oder Public Domain sein.

Die OCI wird geleitet von einem Direktorenteam, das nach OCI-Satzung zwischen fünf und 21 Personen umfasst. Sam Johnston, ein Australier der schon vor mehr als zwei Jahren eine Open Cloud Initiative zu starten versucht hatte, ist jetzt Präsident der neuen Gründung. Nachdem am 1. April 2009 zahlreiche Cloud-Anbieter ein „Open Cloud Manifesto“ verabschiedet hatten, dessen Forderungen aber letztlich unverbindlich waren, reagierte Johnston mit einem „Open Letter to the Community“, in dem er erstmals Grundlagen für eine Cloud nach Open-Source-Prinzipien aufstellte. (Mehr zu diesen Zusammenhängen hier)

Dem ersten Direktorium der OCI gehören neben Sam Johnston neun Personen an. Der berühmteste ist Sam Ramji, ehemals oberster Open-Source-Stratege bei Microsoft. Bekannter sind ferner Rick Clark, Principal Engineer für Cloud Computing bei Cisco, Noirin Plunkett, Executive Vice President der Apache Software Foundation, und Marc Fleichmann, Chef von Rising Tide Systems. Ein in der deutschen Open-Source-Szene bestens bekannter ist auch dabei: Thomas Uhl, Vorstand der Linux Solutions Group (Lisog) und Gründer der Cloud-Initiative Deutsche Wolke.

Der Cloud fehlt Open Source

von: Ludger Schmitz (freier Journalist) | am: 12.07.2011 | Kommentare: 0

Das Marktforschungs- und Beratungsunternehmen „The 451 Group“ hat gemeinsam mit Partnerfirmen den „Future of Cloud Computing Survey 2011“ vorgestellt. Er basiert auf einer Umfrage, an der sich 417 Personen beteiligten. Die Ergebnisse fallen etwas anders aus, als es zu erwarten war. Interessant ist vor allem die Erklärung der Überraschung.

Es ist keineswegs so, dass das Eis gebrochen sei und die Anwender nunmehr deutlich aufgeschlossener gegenüber dem neuen Modell für den Bezug von IT-Leistungen seien. Vielmehr haben 40 Prozent der Befragten erklärt, sie experimentierten lediglich mit Cloud Computing, und 26 Prozent warten einfach auf eine größere Reife des neuen Marktes. Unter jenen, die schon Cloud-Services nutzen, beziehen nur 13 Prozent „mission critical“ Applikationen aus der Wolke. Elf Prozent nutzen die Cloud allenfalls, um Lastspitzen in der hausinternen IT abzufangen.

Unverändert sind Bedenken gegen Cloud Computing weit verbreitet. Jeweils 31 Prozent nannten Fragen zur Sicherheit und Bedenken in Sachen Compliance als die größten Barrieren. Jeweils 25 Prozent machen sich Sorgen um Interoperabilität der Cloud-Angebote und fürchten, durch die Cloud-Nutzung in ein Vendor Lock-in zu geraten.

Jay Lyman, Analyst in der Abteilung „Commercial Adoption of Open Source (CAOS) Research Service“ in „The 451 Group“, erklärt die Zurückhaltung der Anwender gegenüber der Cloud: „Wir glauben, das zeigt eine Intelligenz im Markt.“ Die Nutzung von Open-Source-Software, Virtualisierung und anderen Trends vor der Cloud seien den Anwendern Lehren gewesen. Daraus schließt Lyman: „Wir haben keinen Zweifel, dass Open Source weiterhin eine Schlüsselrolle spielen wird.“

Bedauerlich ist allerdings, dass es kein umfassendes, einfach zu nutzendes Open-Source-Cloud-Angebot gibt.

Cloud Computing und Open Source: ein unlösbarer Widerspruch?

von: Ludger Schmitz (freier Journalist) | am: 31.05.2011 | Kommentare: 0

Simon Phipps, lange Jahre „rechte Hand“ des einstigen Sun-Chefs Jonathan Schwartz und damals für die Open-Source-Politik von Sun zuständig, ist seither ein gefragter Kongressredner. Kürzlich sprach er auf der Open Source Business Conference (OSBC) in San Francisco über Open Source in Zeiten des Cloud Computing. Dabei hat er einige neue und interessante Ideen dargelegt.

Zunächst erinnerte Phipps an die vier Freiheiten, die Open Source ausmachen: den Sourcecode für alle Zwecke nutzen, ihn studieren, verändern und weiterverbreiten zu dürfen. Genau das funktioniert nicht in einer Cloud. Vielleicht könnte ein Cloud-Provider den Code öffentlich zugänglich bereitstellen und allgemein verfügbar machen. Aber der Code ist zweckgebunden: Anwender verwenden die Programme lediglich als Services, nicht als Eigenbetreiber. Die erste Bedingung für freie Software lässt sich in der Cloud einfach nicht erfüllen.

Deswegen gibt es Stimmen aus Free-Software-Kreisen, die vor Cloud Computing warnen. Doch das ist für Phipps „eine unhaltbare Position“; denn Cloud Computing wird sich zweifellos sehr verbreiten und die Methode des Bezugs von IT-Leistungen in erheblichem Umfang verändern. Deshalb rät Phipps, die Open-Source-Freiheiten nicht als „philosophischen Imperativ“ zu begreifen, sondern die Freiheiten der Anwender unter den Umständen von Cloud pragmatisch zu entwickeln.

Er sieht vier Faktoren in der Cloud, an denen sich Freiheit oder Unfreiheit festmachen werden: Erstens sind da „Kontrollstellen“, denen nicht nur die Geschäftsdaten unterliegen sollten, sondern auch das User- bzw. Identity-Management. Diese elementaren Dinge sollten Anwender unter ihrer Kontrolle haben, um gegebenenfalls den Service-Provider wechseln zu können. Aus dem gleichen Grund brauchen die Anwender zweitens das Recht, alle wichtigen Daten von den Systemen der Provider abziehen zu können. Das betrifft nicht nur die Verlagerung der Daten einer Anwendung in eine gleiche Applikation an anderer Stelle in der Cloud. Vielmehr sollte es auch möglich sein, Daten aus einer Anwendung in eine andere (zum Beispiel in eine andere Tabellenkalkulation) zu übertragen.

Drittens sind neue Service-Risiken zu beachten, die nichts mit Service-Level-Agreements oder Ausfall von Cloud-Diensten zu tun haben. Vielmehr unterliegen die Provider lokalen Gesetzen an den Standorten ihrer Rechenzentren, und auf diese Gesetzgebung hat der Anwender keinen Einfluss. Schlimmstenfalls kann die Cloud-Nutzung anderer Anwender Gesetzgeber zu Handlungen provozieren, welche bestimmte Cloud-Dienste plötzlich unzugänglich machen.

Der vierte und für Phipps wichtigste Punkt ist die Fähigkeit, Cloud-Dienste unverzüglich von einem anderen Anbieter zu beziehen. Das wird sich nur realisieren lassen, wenn die drei erstgenannten Faktoren gegeben sind.

Insgesamt mag das als herzlich wenig Freiheiten erscheinen, resümiert Phipps. Er möchte seine Gedanken daher als Beitrag zu einer beginnenden Debatte verstanden wissen. „Das Denken um Softwarefreiheit und später Open Source hat Jahrzehnte benötigt, um zu reifen. Es ist also keine Überraschung, dass das gleichartige Denken über Freiheit in der Cloud noch sehr jung ist.“

Das Ende eines Hypes: IEEE standardisiert Clouds

von: Ludger Schmitz (freier Journalist) | am: 08.04.2011 | Kommentare: 0

Etwas verwirrt wegen der Überschrift? Also die Auflösung: Das Institute of Electrical and Electronical Engineers (IEEE) ist eine alt-ehrwürdige und eher betulich arbeitende internationale Organisation, auf die reichlich viele fundamentale Elektronikstandards zurückgehen. Um Hypes kümmert sich so ein Verein gleich dreimal nicht. Jetzt hat das IEEE zwei Arbeitsgruppen eingerichtet; eine formuliert den allgemeinen Rahmen, die andere die technischen Spezifikationen; so ist das da üblich. Das Ziel beider Gremien: Standards für Cloud Computing (ausführlicher hier).

Diese IEEE-Initiative ist ein sehr starkes Argument gegen Skeptiker, die in Cloud Computing nicht mehr als einen Hype sehen. Das Internet-basierende Modell für IT-Services hat jetzt quasi offiziell internationale Anerkennung. Bemerkenswerterweise hat das Standardisierungsgremium seine Entscheidung damit begründet, dass in den Clouds bisher dermaßen viel schief läuft, dass jetzt Reglementierungen dieses vielversprechende Modell retten müssen.

Die Begründung ist eine Ohrfeige für proprietär orientierte Cloud-Anbieter. „Ohne ein flexibles, gemeinsames Rahmenwerk für Interoperabilität, könnte Innovation aufgehalten werden und uns ein System von Silos hinterlassen“, erklärt Steve Diamond, Vorsitzender der Cloud Computing Initiative des IEEE. Regeln seien unverzichtbar, um „Fragmentierung zu minimieren und sicherzustellen, dass Cloud Computing sein gesamtes Potenzial erschließt“. Klartext: Die bisherigen Versuche der Anbieter, in proprietär geschlossenen Clouds die Anwender an sich zu binden, haben der Sache, einem Fortschritt in der IT, nur geschadet.

Da verwundert es dann schon weniger, dass das IEEE im Standardisierungsverfahren unter anderem „open source references“ einsetzen will. Cloud Computing geht nicht ohne Internet, und das heißt nichts anderes als offene Standards und Open Source. Diese beiden Faktoren hat das IEEE mit seiner neuen Standardisierungsinitiative so nebenbei auch noch gewürdigt. An ihnen scheitern letztlich Versuche, Anwender auf IT-Silos zu beschränken.

Allerdings werden jetzt erst recht hinter den Kulissen der Standardisierungsverfahren hektische Bemühungen der fast durchgängig proprietär aufgestellten Cloud-Anbieter losgehen. Das läuft im komplizierten Standardisierungsverfahren der IEEE üblicherweise so. Am Ende dürfte es für die Industrie immer noch reichlich Gelegenheit geben, Anwender in der scheinbaren Freiheit in den Wolken so an sich zu binden, dass sie aus der nur noch heraus kommen wie Regentropfen, die auf den Boden klatschen. Die Anwender aber zeigen sich bereits gewarnt, sie reagieren bisher auf die Cloud-Offerten verhalten. Dafür, eine Warnung noch einmal laut ausgesprochen zu haben, gebührt dem IEEE auch Dank.

Alles in allem ist Cloud Computing in der – bezeugt vom gewiss nicht vorschnellen IEEE – Realität angekommen. Und die verträgt sich nicht mit Bindung der Anwender an Anbieter. Der IT-Geschichte bewusste Anwender sind diesbezüglich seit den üblen Unix-Erfahrungen der 90er Jahre etwas empfindlich. Scheinbare Offenheit in Form von elfundneunzig Standards ist nicht mehr überzeugend. Dies ist eine Chance für jene, die Offenheit ernst nehmen: Cloud Computing und Open Source sind zwei Seiten einer Medaille.

Die gibt es dann bei „Münzprägern“ wie Tarent. Nicht nur da, schließlich haben wir gerade in Sachen Open-Source-Cloud in Deutschland einiges vorzuweisen. Eine Empfehlung: Da gibt es eine Open-Source-Cloud-Initiative in der Linux Solutions Group (LiSoG). Mehr darüber ein anderes Mal, denn dafür reicht hier der Platz nicht.

Die CeBIT lässt den Aufschwung spüren

von: Ludger Schmitz (freier Journalist) | am: 07.03.2011 | Kommentare: 0

Es ist geschafft. Die Monstershow der IT-Branche hat geschlossen; das Standpersonal der Aussteller hat Hannover verlassen und könnte jetzt einige Tage Erholung gut brauchen. Aber daraus wird wohl bei den wenigsten etwas. Denn jetzt kommt dass, was den Messeauftritt erst vollendet, nämlich die Nachbereitung, ergo die Auswertung und Verfolgung der Leads. Davon gibt es in diesem Jahr meistens reichlich, bei vielen Ausstellern mehr als jemals zuvor.

Das Ausstellerpersonal konnte etwas erleben, was es in diesem Ausmaß seit ein paar Jahren nicht mehr gab: Gedrängel bis zum Stillstand in den Gängen, belagerte Demopoints, gestresste Besucher. Und das, obwohl in diesem Jahr nicht so arg viele minderjährige “Beuteltiere” auf Betteltour waren. Zumindest ging es so in den Hallen 2 bis 7 zu, mehr hat sich der Beobachter nicht zumuten mögen.

Da ist schon absehbar, welche Themen die alljährliche Debatte zwischen Ausstellern und Messegesellschaft nun bekommen wird: Könnten die Gänge zwischen den Ständen bitte verbreitert werden? War es clever, die Ausstellung Cloud Computing World hinter die Stände von Microsoft und Deutsche Telekom zu platzieren? So erforderte der Besuch des Messeschwerpunkts einen zeitraubenden Hindernislauf.

Gleichwohl dürften die meisten Aussteller sehr zufrieden sein. Immer wieder war von mehr Standbesuchern als in den Vorjahren und als erwartet die Rede. Anders, als man es seit Jahren kennt, war der erste Messetag nicht verhalten besucht. Es ging gleich richtig zur Sache.

Besonders im „Open-Source-Viertel“ der Halle 2 war noch einmal mehr los als in den auch schon sehr guten Vorjahren. Angemessen Zeit zu Gesprächen mit Kunden, Interessierten und Geschäftspartnern gab es eigentlich nicht. Wer keine Termine vereinbart hatte, musste sehr viel Glück haben oder warten. Am besten waren die Chancen noch zur Mittagszeit. Alle Befragten berichteten von zahlreicheren Leads sowie hochkarätigeren und mehr versprechenden Besucherkontakten als jemals zuvor.

Jetzt kommt es auf die professionelle Nachbereitung der Messe an. Der Verlauf der CeBIT 2011 gibt vor allem den Ausstellern aus der Open-Source-Branche allen Anlass, optimistisch in die Zukunft zu blicken. Das Open-Source-Business brummt.

CeBIT 2011: Die mageren Jahre sind vorbei

von: Ludger Schmitz (freier Journalist) | am: 03.03.2011 | Kommentare: 0

Die weltgrößte IT-Messe findet zum Format früherer Jahre zurück. „Die Bude ist voll.“ In den besonders prominenten Hallen 2 bis 8 herrscht Besucherandrang wie lange nicht mehr. Schon der erste Messetag, üblicherweise ein schwächer besuchter Tag, überraschte die Aussteller. Kaum Gelegenheit für das Standpersonal, einmal Luft zu holen.

Der heutige zweite CeBIT-Tag bringt den erwarteten Ansturm. Belagerungszustand an den Demopoints. Spontane Besprechungen mit Entscheidern und Spitzenkräften auf Ausstellerseite sind definitiv nicht mehr möglich. Besonders heftig geht es im „Open-Source-Viertel“ der Halle 2 zu. Die Vortragsbühne Forum Open Source ist meistens dermaßen umzingelt, dass die benachbarten Aussteller das Pech haben, dass es beschwerlich werden kann, überhaupt zu ihren Präsentationen zu kommen.

Foto: Cebit 2011, Vortrag von Michael Kleinhenz (tarent GmbH) über Cloud Computing

Aber die Vorträge bringen anschließend auch Publikum an die Stände. So auch, als tarents Chef-Software-Architekt Michael Kleinhenz Grundlagen des Cloud Computing und insbesondere die Rolle und Perspektiven von Open Source in der Wolke erläutert. Weit über 100 Messebesucher interessierten sich dafür. Die Cloud ist ein omnipräsentes Thema dieser CeBIT. Inzwischen orientieren sich auch immer mehr Open-Source-Anbieter auf die Cloud.

|