<< Themensammlung Netzwertig

Unter netzwertig veröffentlichen wir in unserem Blog Einschätzungen zu aktuellen digitalen Geschäftsmodellen und IT-Trends, Meldungen, Analysen, Reviews und Specials.

20.12.10Leser-Kommentare

Jahresrückblick 2010: Cloud Computing und das Ende der Inhouse-Infrastruktur

Cloud Computing dominierte 2010 die Schlagzeilen der IT- und Webwelt. Während manche aus Eigeninteresse die "Private Cloud" in den Vordergrund rücken, betrafen die wichtigsten Errungenschaften und Fortschritte die "Public Cloud".

 

2010 wird mit aller Wahrscheinlichkeit als das Jahr in die Geschichte eingehen, in dem das Ende der Inhouse-Informatik-Infrastruktur definitiv eingeläutet wurde - selbst wenn man dies im deutschsprachigen Raum noch weitgehend anders sieht.

Bei uns hoffen die meisten Systemadministratoren und CIOs der unternehmenseigenen Datenzentren, dass die Welt sich nicht dreht und alles so bleibt wie es war. Deutlich wird dies schon daran, dass, wenn bei uns im positiven Sinne von Cloud Computing die Rede ist, meistens die Technologien zum Aufbau von so genannten "Private Clouds" im Fokus stehen. Geht es um die "wirkliche" Cloud, werden hingegen primär Risiken wie Datenschutz und Systemausfälle angeführt.

Die wichtigsten Errungenschaften und die grössten Fortschritte liessen sich 2010 nicht im Bezug auf die Private Cloud sondern in Hinsicht auf das "echte" Cloud Computing beobachten, die "Public Cloud".

Bevor ich auf die Höhepunkte des Jahres im Public-Cloud-Sektor eingehe, möchte ich kurz die Unterschiede zwischen Public und Private Cloud erläutern:

Cloud Computing steht für die Idee, dass man Computerinfrastruktur einfach aus dem Internet beziehen kann, ohne sich selbst um den Aufbau und die Pflege dieser Infrastruktur kümmern zu müssen. Der Cloud-Computing-Anbieter übernimmt diese Arbeit und bietet entweder Software (SaaS), Entwicklungs- und Laufzeitumgebungen (PaaS) oder Basisinfrastrukturservices (IaaS) "on Demand" nach Bedarf an (siehe auch "Die drei Cloud-Computing-Ebenen").

Damit ein Cloud-Computing-Service diese Leistungen erbringen kann, setzt er auf eine serviceorientierte Architektur (SOA) und meistens auf Virtualisierungstechnologien bei seiner eigenen Infrastruktur.

Als den etablierten Anbietern von IT-Infrastrukturlösungen sowohl auf Hardware- als auch auf Softwareseite klar wurde, dass immer mehr Organisationen auf Cloud-Computing-Angebote ausweichen würden und ihnen so die Kunden abhanden zu kommen drohten, labelten sie ihre Produkte kurzerhand mit "Private Cloud Computing". Damit implizieren sie, dass man das eigene Datencenter einfach so konzipieren und betreiben soll, wie die Cloud-Computing-Services dies tun, um so von den Vorteilen des Cloud Computings profitieren zu können, ohne dessen Nachteile übernehmen zu müssen. Das ist zwar Illusion, aber hat sich so durchgesetzt. Darum sprechen heute alle von Private Clouds, also dem eigene Rechenzentrum - zwar virtualisiert, aber immer noch im eigenen Haus - und von Public Clouds, dem eigentlichen Cloud Computing.

Der Begriff Public Cloud ist dabei natürlich ganz geschickt gewählt, suggeriert er doch, dass die Daten, die dort gespeichert sind sowie die Anwendungen, die dort genutzt werden, mehr oder weniger öffentlich zugänglich sind, während dies bei der privaten Cloud nicht der Fall zu sein scheint.

Private Clouds

Die wichtigen Entwicklungen fanden 2010 zwar wie angedeutet im Bereich des richtigen Cloud Computings (Public Cloud) statt, aber natürlich bewegte sich auch bei den privaten Clouds einiges:

So hat sich Oracle-Präsident Larry Ellison noch im September 2009 öffentlich über das Cloud-Computing-Konzept ausgelassen, um dann im Jahr 2010 eine weltweite Roadshow unter den Namen “Cloud Computing Forum” zu starten. Natürlich geht es hier vor allem darum, den Unternehmen klar zu machen, dass sie auch weiterhin die teuren Sun-Server und Oracle-Lizenzen kaufen sollen - für die Private Cloud, versteht sich.

In Deutschland hat der Verband der Internetwirtschaft (eco) einen EuroCloud-Ableger ins Leben gerufen und sich an der Gründung des europäischen Verbandes EuroCloud beteiligt. In der Schweiz wurde noch im Jahre 2009 der Verein Cloud Suisse gegründet, der sich vor kurzem auch der EuroCloud-Bewegung angeschlossen hat und in Zukunft EuroCloud Swiss heisst (Anmerkung: Ich war Gründungspräsident des Vereins Cloud Suisse).

Daneben gab es unzählige Gründungen von Initiativen, Interessen- und Fachgruppen sowie Kongresse zum Thema Cloud Computing. An vielen dieser Veranstaltungen habe ich selbst als Keynote Speaker über das Wesen des Cloud Computings gesprochen. Auffallend war, dass abgesehen von ganz wenigen Ausnahmen immer die Vertreter der “alten” Informatik an vorderster Front mit dabei waren und ihre Botschaft verbreiteten: “Die Public Cloud ist gefährlich und unsicher, am besten macht ihr das weiterhin selber und baut eure private Cloud, wir helfen euch dabei.”

In diese Richtung zielt teilweise auch die Open-Stack-Bewegung, die im Juni dieses Jahres gegründet wurde. Oder das Unternehmen Nimbula, das 2010 mit einigen Finanzierungsrunden von sich reden gemacht hat und ein so genanntes Cloud Operating System anbietet. Dieses ermöglicht Unternehmen, dem Amazon-EC2-Service ähnliche Dienste eigenständig zu betreiben. Als Vicepresident Verkauf und Marketing ist der ehemalige Europachef der Amazon Web Services, Martin Buhr, dieses Jahr in die Firma eingetreten. In die gleiche Kategorie fällt Eucalyptus, das im laufenden Jahr durch verschiedenen Partnerschaften mit bekannten Namen wie HP oder Red Hat und einer Kapitalspritze über 20 Millionen Dollar auf sich aufmerksam machen konnte.

Die Private Cloud hat 2010 viel Staub aufgewirbelt. Sicherlich werden wir noch Jahre, wenn nicht Jahrzehnte eine Situation vorfinden, in welcher die Unternehmen weiterhin zumindest Teile ihrer Infrastruktur selbst betreiben. Es ist daher mitunter tatsächlich sinnvoll, die bewährten Cloud-Technologien und -Konzepte auch in den eigenständig betriebenen Datenzentren einzusetzen.

Das Jahr der Public Cloud

Doch der Hype um die Private Cloud darf nicht darüber hinwegtäuschen, dass die Musik 2010 hauptsächlich an anderer Stelle spielte: Die wirklich grossen Schritte und Veränderungen sind dort zu finden, wo es um das Cloud Computing geht, wie es ursprünglich gedacht war. Und das ist auch den grossen Marktteilnehmern der klassischen IT-Welt mittlerweile klar.

Steve Ballmer verkündete im März 2010, dass bereits 70 Prozent der eigenen Entwickler mit Cloudprojekten beschäftigt sind und es 2011 sogar 90 Prozent sein sollen. Ich nehme an, dass auch hier noch ein grosser Teil im Bereich der Produkte für die Private Cloud tätig sind. Doch mit der Microsoft Azure Plattform, den Office Web Apps oder Docs.com hat Microsoft in diesem Jahr seine Cloud-Computing-Strategie signifikant in Richtung Public Cloud vorangetrieben. Auch wenn sich die Redmonder mit der Adaption der Cloud-Idee schwer tun, wie man aus dem Abgang von Ray Ozzie im Oktober dieses Jahres heraus- sowie in dessen Grundsatz-Memo zur Cloud nachlesen kann, setzt Microsoft langfristig auf die On-Demand-Cloud und nicht auf die private Wolke.

Von SAP haben wir im letzten Jahr hinsichtlich Cloud Computing wenig gehört. Es scheint, als wäre der Riese erstarrt ob dem Treiben, das sich um ihn herum abspielt. Einzig mit ihrer im Vergleich zu anderen SAP-Produkten eher einfachen kollaborativen Plattform zur Unterstützung von Entscheidungsfindungsprozessen SAP Streamwork ist die Firma im Cloud-Bereich dieses Jahr aufgefallen -  insbesondere auch, weil SAP das Produkt seit kurzem im Google Apps Marketplace anbietet, was doch eher ungewöhnlich, um nicht zu sagen erstaunlich ist.

Die drei Marktanführer

Womit wir zu den spannenden Entwicklungen der drei Cloud-Computing-Pioniere kommen: Salesforce, Google und Amazon Web Services (Anmerkung: Ich bin neben meiner Rolle als Geschäftsführer von Blogwerk auch Gründer und Verwaltungsratspräsident von PARX, einem Unternehmen, das Dienstleistungen für diese Produkte anbietet).

Salesforce hat mit der Einführung von Salesforce Chatter im Sommer dieses Jahres klar gemacht, dass die Social-Media-Metapher des laufenden Informationsflusses, wie wir es von Facebook und Twitter kennen, auch auf Geschäftsapplikationen angewendet werden kann. Natürlich gab es Yammer und ähnliche Dienste vorher schon, aber mit Salesforce dringt das Thema in die Geschäftsetagen der grossen Unternehmen vor.

Seit dem jüngsten Update hat auch der letzte der mehr als 80.000 Unternehmenskunden von Salesforce Chatter gehört. Viele arbeiten offenbar auch wirklich damit. Das Unternehmen von Marc Benioff, einem ehemaligen Oracle-Mitarbeiter, hat schon früh damit begonnen, die eigene Infrastruktur für andere Partner und Anwendungen ausserhalb des eigenen CRM-Bereiches zu öffnen. Im Frühling dieses Jahres wurde eine Kooperation mit VMware angekündigt, welche sich unter dem Namen vmforce.com seit ein paar Tagen im geschlossenen Betabetrieb befindet. Es geht darum, dass Java-Applikationen, die mit dem Springsource Framework von VMware entwickelt wurden, in der Salesforce Cloud betrieben werden können. Ganz im Sinne dieser Entwicklung hin zu einer Plattform für verschiedenste Arten von Webapplikationen wurde vor zwei Wochen die Übernahme der Ruby on Rails Cloud von Heroku sowie der Launch der Clouddatenbank database.com bekannt gegeben.

Google ist in Sachen Cloud Computing an allen Fronten aktiv und hatte deswegen im laufenden Jahr auch viel Neues zu berichten. Google Apps wurde massiv ausgebaut und weiterentwickelt. Speziell die Kernapplikationen für die Bearbeitung von Dokumenten erlebten mehrere gewichtige Erneuerungsschritte. Im Laufe dieses Jahres wurde auch angekündigt und teilweise bereits umgesetzt, dass alle Google-Services als Teil der Google Apps eingesetzt werden können. Für mich überraschend kam im Juli dieses Jahres das Ende von Google Wave.

Im März lancierte Google mit dem Apps Marketplace eine Plattform, die es Anbietern von anderen Cloudprodukten erlaubt, ihre Lösungen einfach an bestehende Google-Apps-Kunden zu verkaufen. Eine große Bedeutung für Googles Cloud-Strategie haben zudem die Entwicklungen rund um Android und den Browser Chrome sowie um das Cloud-Betriebssystem Chrome OS, welches zwar bereits 2009 vorgestellt wurde, aber erst in den vergangen Monaten langsam Gestalt annahm. Viele Aspekte, die dieses Betriebssystem bringt, können heute schon im Chrome Browser ausprobiert werden. So ist vor einigen Wochen beispielsweise der Chrome Web Store gelauncht worden, über den sich Applikationen im Browser "installieren" lassen. Die Apps und dazugehörigen Daten liegen dabei hauptsächlich in der Cloud.

Amazon hat dieses Jahr vor allem seine bestehenden Services weiterentwickelt und dadurch zu einer immer grösseren Konkurenz für klassische Infrastrukturanbieter gemacht. Die Liste der Neuerungen aus dem Jahr 2010 ist beachtlich, ich werde hier nur die wichtigsten kurz vorstellen:

Seit Februar 2010 gibt es die Versionsverwaltung für Daten, die in S3 gespeichert werden. Im April wurde der Simple Notification Service gelauncht, eine Erweiterung der Infrastrukturdienste, welche die Kommunikation zwischen Services und Applikationen erleichtert. Auch seit April ist der Relational Data Service in Europa verfügbar, ein von Amazon betriebener MySQL-Datenbankdienst in der Cloud. Im Mai 2010 wurde die Virtual Private Cloud in Europa gestartet, welche das Einrichten eines VPN-Tunnels zu den virtuellen Servern von Amazon ermöglicht. Und zum Jahresabschluss wurde ein eigener DNS-Dienst scharf geschaltet sowie eine Option angekündigt, VMWare-Images nach EC2 zu importieren - ein grosser Schritt in Richtung Cloud-Portabilität.

Neben den Vorstössen der führenden Cloud-Innovatoren gab es 2010 eine Reihe weiterer spannender Neuigkeiten aus dem Public-Cloud-Sektor: So hat Dell den Cloud-Integrator Boomi übernommen, der wichtigste Amazon-Wettbewerber Rackspace seine Produktpalette kräftig ausgebaut, Squarespace eine wichtige Finanzierungsrunde hinter sich gebracht und Wordpress sich immer stärker als Cloudservice denn als Open-Source-Anbieter positioniert. Mit Drupalgardens wurde eine interessante Drupal-Cloud lanciert und mit Cloud Sigma aus der Schweiz ist eine hiesige Firma angetreten, um Amazon das Fürchten zu lehren.

Auch Cloud Computing hat seine Schattenseiten

Natürlich hat auch Cloud Computing seine Schattenseiten. Mir ist aus dem abgelaufenen Jahr allerdings kein erwähnenswerter Ausfall eines grossen Cloud-Anbieters bekannt. Einzig den unschönen Fall des Google-Mitarbeiters, der Google-Mail-Konten ausspionierte, sollten wir nicht vergessen und uns im Klaren darüber sein, dass derartige Missbräuche überall da geschehen können, wo Menschen arbeiten - sei dies in der Cloud oder im eigenen Keller.

Auch die Geschehnisse rund um WikiLeaks illustrieren die Nachteile einer Welt, in der nur wenige Clouddienste die Kontrolle über die Infrastruktur besitzen. Doch der Trend zu Cloud Computing ist kaum aufzuhalten, die Vorteile sind zu gewichtig. Was allerdings nicht bedeutet, dass wir uns nicht den notwendigen Fragen stellen sollen, wie wir den durch Cloud Computing entstehenden Problemen begegnen.

2011 verspricht auch zum Thema Cloud Computing ein spannendes und ereignisreiches Jahr zu werden.

(Foto: Flickr/The PlanetCC-Lizenz)

Kommentare

  • Markus Breuer

    20.12.10 (08:01:15)

    Danke für die schöne Übersicht und die plastische Erläuterung der Unterschiede zwischen Public und Private Cloud. Den leicht gehässigen Zungenschlag gegenüber den Trommlern für die Private Cloud halte ich aber für nicht notwendig. Selbstverständlich gibt es hier Einige (wie den guten Larry Ellison oder auch Herrn Ballmer) denen man gar nicht genug Machiavellismus unterstellen darf. Ein Produkt, dass sie noch nicht im Portfolio haben, ist Sch***. Wenn sie es dann anbieten, ist es die Rettung der IT-Welt. Das ist nichts Neues. :) Und das IT-Verantwortlich im Unternehmen - unberechtigterweise - Angst vor Bedeutungsverlust haben, ist zumindest psychologisch verständlich. Es gibt aber eine Vielzahl von Gründen, warum ein Unternehmen sich über eine private Cloud Gedanken machen sollte. Und die haben nicht nur mit egoistischen Interessen der Betroffenen zu tun. Es gibt auch gute kaufmännischen Gründe, die für Private Clouds sprechen. Und das Thema Security und Datenschutz ist mit soviel Weltanschauung belastet - auf beiden Seiten - das es schwierig ist, bei diesen Fragen klare, garantiert objektive Antworten zu erhalten. In jüngster Zeit gibt es zumindest noch einen weiteren Aspekt, der nicht nur idealistischen jungen Hackern zu Denken gegeben hat, was die Begeisterung für Cloud-Services angeht: die meisten Betreiber haben relativ rigide ToS-Dokumente, die sie eher willkürlich auslegen. Als Nutzer ist man dem mehr oder weniger wehrlos ausgeliefert. Das betrifft nicht nur Betreiber eines Wikileaks-Mirrors. Wenn durch die - ggf. fälschliche - Bewertung der Ausschlußkriterien die IT-Services eines Unternehmens auch nur wenige Tage ausfallen, kann dies erheblichen Schaden verursachen. Es wäre deshalb m.E. sehr erstrebenswert, für die Virtualisierung in der Cloud allgemein akzeptierte Standards zu haben, die es ermöglichen, Server rasch und reibungslos zwischen verschiedenen Clouds zu portieren. Wer heute eine ECHTE AWS-, Salesforce oder Google Apps-Anwendung aufgesetzt hat kann das nicht. Diese Plattformen sind - wenn man ihre Vorteile richtig nutzt - zutiefst proprietär. Ich kann deshalb - obwohl erklärter Public-Cloud-Fan - durchaus verstehen, wenn sich manche Unternehmen schwer damit tun, businesskritische Anwendungen vollständig in eine der großen Cloud-Plattformen zu verlagen - zumindest so lange, wie keine Interoperabilitätsstandards definiert und auch von den großen Betreibern akzeptiert sind. Das wird am mittelfristigen Trend hinein in die Public Clouds aber sicherlich nichts ändern. Zur Erläuterung der volkswirtschaftlich begründeten Unvermeidlichkeit dieses Trends sei das Werk "The Big Switch" von Nicholas Carr wärmstens ans Herz gelegt.

  • erz

    20.12.10 (08:54:16)

    Es gibt noch einen weiteren Ansatz: Die Cloud mit einer Verschleierungsebene zu versehen. Dieses Jahr hat ja nun wirklich jedem gezeigt, dass private Monopole der Dienstleister nicht für neutrale Servicegarantie stehen. Also kann die Open-Source-Community sich mal wieder an Alternativen versuchen: http://www.unhosted.org/manifesto.html

  • Gaby Stäheli

    20.12.10 (16:01:48)

    Wenn Unternehmen sich schwer tun business-kritische Applikationen in die Public Cloud zu stellen, dann sollte meiner Meinung nach folgende Frage beantwortet werden: Welche Warscheinlichkeit ist grösser? a) Die Applikation fällt im lokalen Eigenbetrieb aus, weil die eigenen Ressourcen nicht genügend Skills hatten oder nicht schnell genug verfügbar waren um ein Problem rasch zu lösen. b) Die Applikation in der Cloud ist nicht verfügbar. Für uns als NON-IT Profis war sehr schnell klar, dass bei a) die Ausfallwarscheinlichkeit definitiv höher war. Da bei uns neben der Website das CRM unbedingt verfügbar sein muss, war der Entscheid für die Cloud schnell getroffen und bisher nicht bereut. Ich denke oft haben Unternehmen hier auch unbegründete Ängste aus Mangel an Information.

  • Thomas

    21.12.10 (13:19:43)

    Public Cloud FTW! :)

  • caweber

    21.12.10 (14:15:05)

    Die von den konservativen Verfechtern aufgeführten Risiken wie "Datenschutz und Systemausfälle" angeführt kommen mir sehr bekannt vor. Das sind dann immer die Schlagworte, mit denen man neue Ansätze (die ja beim "Public Cloud" gar keine neue Ansätze mehr sind) versucht zu verhindern, weil man von konversative Lösungen überzeugt ist. Aber verhinden werden die Skeptiker das echte Cloud nicht. Sprechen wir uns einfach in drei Jahren mal wieder.

  • Jonathan

    21.12.10 (20:22:29)

    1. Es wird wieder mal eine altbekannte Sau durchs Dorf getrieben, um CIOs den Kopf zu verdrehen: Rechenzentren kennen wir aus den 60er und 70er Jahren. Dass wir jetzt Web-Browser und Mobile Apps an Stelle von Tektronix-Terminals benutzen, kommt zwar der Bequemlichkeit der Benutzer entgegen, aber Produktivität wird nicht vor dem Bildschirm generiert, das ist die grosse Illusion. 2. Wenn ich so gross bin, dass ich ein paar tausend Server für den täglichen Betrieb benötige, dann spare ich nichts, wenn ich die Personalkosten nach Vietnam auslagere, dafür dann die Daten und die zugehörigen Quasi-Standleitung(en) mit militärischen Mitteln verteidigen muss. 3. Das Beispiel "Wikileaks & Amazon" zeigt sehr schön, wieweit die "Konservativen" Recht haben.

  • Robert Frunzke

    25.12.10 (23:07:13)

    Ab und zu muss man auch mal einen Trend auslassen. Cloud Computing ist für manche Anwendungsgebiete eine nette Sache, aber weder mehr noch weniger. Und neben den Sicherheits-, Zuverlässigkeits- und Abhängigkeits-Aspekten ist auch auch die Performance nicht gerade unwichtig - und die ist in virtualisierten Umgebungen leider immernoch unter aller Sau. Ich rede nicht von reiner Rechenleistung, sondern von der I/O-Leistung, die bei aktueller Hardware sowieso schon den größten Flaschenhals darstellt und in virtualisierten Umgebungen deutlich schlechter wird. Ich schätze in ein paar Jahren - wenn die "Wolken" verzogen sind - wird das ganze Thema auf den wirklich relevanten Anteil - das pure Applikation-Hosting - eingedampft sein. Applikation-Hosting (ASP, SaaS, ) wird - zurecht - übrig bleiben. Zurück zur Cloud: ein nicht unwichtiger Aspekt ist die Abhängigkeit von einem Anbieter. Interoperabilität ist nur mit viel Druck durchsetzbar (die "Infrastruktur"-Anbieter sind ja nicht dumm, ich wette die Cloud-Idee wurde durch die Power-Grid-Idee inspiriert, oder von Wasserverbänden oder Gas-Anbietern?) - aber wer außer ein paar überbezahlte und gelangweilte Politiker und Lobbyisten soll diesen Druck ausüben? Achja, ich vergaß, es gibt viele gelangweilte, ahnungslose Überbezahlte... Jedenfalls zurück zur Abhängigkeit: wenn das Geld-verdienen mit der Cloud erstmal so richtig losgeht, gehen auch die Firmen-Übernahmen los, und dann möchte ich um keinen Preis von einem der hippen Cloud-Irgendwas-Anbieter abhängig sein! Der Markt wird's regeln, aber bis dahin sollte man auch mal Dinge auslassen.

  • Markus Breuer

    27.12.10 (07:24:38)

    Es gibt sicherlich ein Vielzahl von Gründen, warum nicht jedes Unternehmen sofort und kritiklos seine Software in die Cloud stellt. Den Aspekt „Performance“ als einen wichtigen herauszustellen ist allerdings schon etwas amüsant. Einige der leistungsfähigsten und rechenintensivsten Softwareplattformen, die heute überhaupt existieren, laufen „in der Cloud“. Dazu gehören sämtliche Services von Google, Amazons Handelsplattform und selbstverständlich auch immer mehr Angebote von Microsoft. Alle diese Services bieten Antwortzeiten, die oft nicht einmal handgestrickte Client/Server-Lösung im lokalen Netz erreichen. Die von ihnen beschriebenen Durchsatzprobleme sind eher ein Symptom von schlecht geplanten oder unprofessionell umgesetzten Virtualisierungs-Projekten als von Migrationen in eine (public oder private) Cloud. Wenn ein etwas naiver Admin mal eben VMWare installiert und ein paar alte Unternehmensanwendungen virtualisiert, um die Server-Auslastung unter seinem Schreibtisch zu optimieren, kann es natürlich zu Performance-Poblemen kommen. Das liegt in der Natur der Sache, hat mit „Der Cloud“ aber nur wenig zu tun. Eine professionelle, für den Betrieb in der Cloud optimierte, Softwarelösung hat immer ausreichend Leistungsreserven (die werden bei Bedarf dynamisch dazu geschaltet) um nahezu lastunabhängig optimale Antwortzeiten zu garantieren.

  • Robert Frunzke

    27.12.10 (10:12:16)

    "Einige der leistungsfähigsten und rechenintensivsten Softwareplattformen, die heute überhaupt existieren, laufen „in der Cloud“. [...] Alle diese Services bieten Antwortzeiten, die oft nicht einmal handgestrickte Client/Server-Lösung im lokalen Netz erreichen." Gleich zwei Superlative? Die "leistungsfähigsten und rechenintensivsten Softwareplattformen" sind - mal etwas genauer darüber nachgedacht - nicht wirklich glücklich gewählte Argumente.. ich bin auch überrascht, dass Du Dich von meinem Kommentar so angegriffen fühlst. Vergessen wir das "rechenintensivste und leistungsfähigste" Etwas, zurück zum Punkt: SKALIERBARKEIT ist ein sehr wichtiges Argument PRO CLOUD. Da hast Du Recht, aber wirf das bitte nicht in den Performance-Topf, von dem ich geschrieben habe.

  • Robert Frunzke

    27.12.10 (10:39:41)

    Noch was zu den Antwortzeiten: Die von Dir erwähnten Services erreichen diese Antwortzeiten vor allem durch optimal angebundene und im Netz platzierte Server. Amazon & Google haben die entsprechende Infrastruktur dafür. Über die Cloud kann man solche Server nutzen, aber das kostet auch deutlich mehr als die Einstiegsangebote - und ob man wirklich die Besten bekommt ist fragwürdig, immerhin ist es für die Anbieter ein großer Geschäftsvorteil, den sie wohl kaum einfach so verramschen werden. Und man sollte auch darauf achten, seinem Infrastruktur-Anbieter (Amazon, Google, ..) keine Konkurrenz zu machen ;)

  • Markus Breuer

    27.12.10 (15:25:45)

    @Robert Frunzke: Relax! Wir sind hier ja nicht in den Heise-Foren :)

  • Robert Frunzke

    28.12.10 (19:46:40)

    Dein Kommentar ist sowas von unbefriedigend :( Aber gut, lassen wir das, das Fazit: Es gibt Pro und Kontra ;)

Diesen Beitrag kommentieren:

Die Kommentare können nur zwischen 9 und 16 Uhr
freigeschaltet werden. Wir bitten um Verständnis.

Um Spam zu vermeiden, schreiben Sie bitte die Buchstaben aus diesem Bild in das nebenstehende Formularfeld:

Das könnte Sie auch interessieren

Förderland-Newsletter

Wissen für Gründer und Unternehmer