Donnerstag, 12. Mai 2016

Ubuntu Phone neu flashen + Einstellungen

Ich bin stolze Besitzerin eines BQ 4.5 Aquaris Ubuntu Edition aus dem letzten Flashsale 

Im Dezember letzten Jahres habe ich das erste Mal mein Phone neu geflasht unter dankbarer Hilfe von Mister Q. Inzwischen habe ich das noch ein oder zweimal gemacht, inzwischen auch alleine ;-)

Ich werde hier beschreiben, wie ich vorgehe, wenn ich mein Phone neu flashe. Ich möchte an dieser Stelle darauf hinweisen, dass diese Beschreibung nur für das BQ 4.5 Aquaris gilt und falls du es mit Hilfe meiner Beschreibung ebenfalls neu flashen möchtest, ich keine Gewähr dafür übernehme, dass es einwandfrei funktionieren wird. Flashen ist ein tiefer Eingriff in dein Phone, darüber musst du dir im Klaren sein. Solltest du Zweifel haben, frage bitte jemand, der sich damit auskennt.


  • Als erstes führt man in einem Terminal auf dem Rechner im Home-Verzeichnis folgenden Befehl aus:
    wget -c http://people.canonical.com/~jhm/barajas/recovery-krillin.img
    Damit wird das recovery Image für das BQ 4.5 von der angegeben URL auf den Rechner geladen
  • Das Phone per USB-Kabel mit dem Rechner verbinden
  • Danach startet man das Telefon neu in den Fastboot-Modus. Bei dem BQ 4.5 erreicht man das, indem man die Power-Taste und die VolUp-Taste so lange gedrückt hält, bis das Startmenü erscheint. Mit der VolUp Taste kann man den gewünschten Startmodus auswählen und mit VolDown bestätigen
  • Nun gibt es verschiedene Möglichkeiten des flashens. Möchte man das Phone richtig reseten oder z.B. ein Android-OS ersetzten wählt man die Bootstrap-Methode. Flasht man dieses Phone später erneut und möchte alle vorhandenen Daten löschen, benutzt man anstatt bootstrap wipe. Alternativ kann man das Phone auch ohne Datenverlust flashen, dann verwendet man keine der beiden Optionen.
  • Bei der Verwendung der --bootstrap oder --wipe Option gibt man im Terminal $ fastboot devices ein. Wenn eine Reaktion erfolgt folgenden Befehl eingeben:
    für den rc-proposed Channel
    ubuntu-device-flash touch --channel ubuntu-touch/rc-proposed/bq-aquaris.en --device krillin --bootstrap --recovery-image recovery-krillin.img
    bzw.:
    ubuntu-device-flash touch --channel ubuntu-touch/rc-proposed/bq-aquaris.en --device krillin --wipe --recovery-image recovery-krillin.img
    für den stable-Channel ubuntu-device-flash touch --channel ubuntu-touch/stable/bq-aquaris.en --device krillin --bootstrap --recovery-image recovery-krillin.img
    bzw.:ubuntu-device-flash touch --channel ubuntu-touch/stable/bq-aquaris.en --device krillin --wipe --recovery-image recovery-krillin.img
  • Möchte man ohne Datenverlust flashen, bootet man das Phone nicht in den Fastboot mode, sondern in den Recovery Mode und gibt dann folgenden Befehl ins Terminal ein:
    ubuntu-device-flash touch --channel ubuntu-touch/rc-proposed/bq-aquaris.en --device krillin 
    bzw.:ubuntu-device-flash touch --channel ubuntu-touch/stable/bq-aquaris.en --device krillin 

    (Wenn du kein BQ4.5 hast, musst du krillin durch das passende Image für dein Phone ersetzen)
  • Nun wird das entsprechende Image herunter geladen und installiert. Während der Installation erscheint meist das runde Ubuntu Zeichen (das variiert aber immer mal wieder)
  • Nach erfolgter Installation (das dauert mehrere Minuten) bootet das Phone neu. Warten bis der Ubuntu-Begrüßungsbildschirm erscheint und die Einrichtung vornehmen.
Nun ist das Phone jungfräulich und muss neu konfiguriert werden, so wie du es möchtest.


In meinem Fall habe ich nun noch eine ganz wichtige Einstellung vorzunehmen, da ich über diese Problematik jedesmal wieder stolpere und mich ärgere:
Ich bin Kunde bei mobile.com (früher Talkline). Da dieser Anbieter ein O2 Anbieter ist, der aktuell mit E-Plus verschmolzen wird, benutze ich beide Netze mit Hilfe der Roaming Funktion. Diese muss auf dem Phone explizit aktiviert werden, da ansonsten das mobile Internet STÄNDIG die Verbindung verliert.

Dienstag, 22. Dezember 2015

Virtual Box installieren (ohne Software Center) und weitere Anmerkungen

als erstes die Paketquelle der Repository hinzufügen, damit sie mit aktualisiert wird:
sudo add-apt repository  'deb http://download.virtualbox.org/virtualbox/debian trusty contrib

Danach in einem Kombinationsbefehl das Paket holen und den Key registrieren:
wget -q https://download.virtualbox.org/oracle_box.asc -O- | sudo apt-key add -

Einmal kurz updaten:
sudo apt-get update

Und nun installieren:
sudo apt-get install virtualbox-5.0

Fertig!

Sollte dkms auf dem Hostrechner noch nicht installiert sein, sollte man das nachholen, um zu gewährleiten, dass die Kernelmodule von VirtualBox immer mit auf dem aktuellen Stand gehalten werden:
sudo apt-get install dkms

Installation VirtualBox 5.x:

Bitte beachten, dass die Gasterweiterung nicht über das Terminal mit dem Befehl sudo apt-get install virtualbox-guest-addition-iso installieren. Dieses hätte zur Folge, dass VirtualBox 5.x wieder entfernt wird. Auf der Oracle-Seite kann die Gasterweiterung für 5.x direkt unter VirtualBox geöffnet und installiert werden. 

Gemeinsamer Ordner:

Nachdem der gemeinsame Ordner angelegt und definiert wurde, muss im Gastsystem mit Hilfe des Befehls:
sudo usermod -aG vboxsf BENUTZERAME
der User der Gruppe vboxsf hinzugefügt werden. Danach ist der Zugriff auf den Ordner möglich.


TTY Terminal aufrufen aus VM heraus:

Versucht man ein tty Terminal aus dem Guest heraus mit Str+Alt+F1 aufzurufen, ruft man das tty des Hosts auf. Bei mir funktioniert folgendes: Wenn man den Fokus im Guest hat, kann ich das tty mit RightStrg+F1 aufrufen

Aufruf des GRUB-Auswahlmenüs:

Beim Bootvorgang muss die Shift-Taste gehalten werden, dann gelangt man in das Auswahlmenü





Montag, 21. Dezember 2015

Unity Desktop funktioniert nicht mehr

So, heute hatte ich eine ganz besondere Challenge, aus der ich ohne Hilfe der Gruppe UbuntuFun auf Telegram nicht raus gekommen wäre ;-)

Ich starte meinen Laptop, er fährt in den Anmeldebildschirm, ich melde mich an und dann... NICHTS! Ich hatte einen Desktop mit meinem personalisierten Hintergrund, aber ansonsten nichts. Keine Menüleiste, kein Dash es war nichts da. Das einzige was noch funktionierte war die rechte Maustaste, mit Hilfe derer ich Kontextmenüs aufrufen konnte, die mich aber nicht weiter brachten.

Nach meinem Hilferuf in die Telegram-Gruppe (nach 2 harten Restarts meines Systems) gingen wir auf Fehlersuche. Währenddessen stellten wir fest, dass auch ein Terminal über die Tastenkombination Str Alt t nicht möglich war. Nachdem ich an mein Macbook eine USB Tastatur angeschlossen hatte, konnte ich in das tty Terminal mit der Tastenkombination Str Alt F1. Dort muss man sich mit seinem User erst einmal anmelden und dann kann es los gehen. Also erstes machte ich mal ein Systemupdate mit sudo apt-get update und sudo at-get upgrade. Allerdings musste ich feststellen, dass nach einem reboot sich das Problem noch nicht in Luft aufgelöst hatte. 

Daraufhin probierte ich den Befehl unity --reset worauf mir mein System erklärte, dass er Unity nicht kennen würde! Danach ging es in die Abteilung compizconfig. Ich bin nach der Anleitung auf der seite http://www.iws.net/node/55 vorgegangen und habe den compizconfigurator erneut installiert, allerdings erklärte mir das System, dass er schon installiert sei. Ich bin dann mit Str Alt F7 in den ccsm gesprungen und versuchte dort Unity zu aktivieren. Nachdem ich Screenshots von meinen netten Helfern bekommen hatte, musste ich feststellen, dass in ccsm kein Unity Plugin vorhanden war. Auf Empfehlung versuchte ich dann dconf reset -f /org/compiz, was er scheinbar noch gemacht hat, und dann sollte ich setsid unity ausführen, was mit einer Fehlermeldung quittiert wurde. Daraufhin wurden dann mal die installierten Komponenten gesucht dpkg -l | grep unity . Dieser Befehl zeigte mir eine Reihe von installierten Koponenten an. Unter anderem auch eine installierte Unity Version. Daraufhin schaute ich mit der gleichen Funktion mal nach dem Ubunt Desktop dpkg -l | grep ubuntu-desktop wobei festzustellen war, dass dieses nicht (mehr) vorhanden war. Nach einem sudo apt-get install ubuntu-desktop und einem reboot war der Desktop wieder verfügbar. 

Interessant an dieser Stelle war dann zu beobachten, dass u.a. Evolution und Pidgin nicht mehr vorhanden waren. Dafür war Empathy wieder da, welches ich vor Monaten gelöscht hatte. Nach erneuter Installation der fehlenden Programme, warren diese inklusiver aller Daten wieder verfügbar, als ob nichts geschehen wäre.

Wenn ich nun noch wüßte, was ich falsch gemacht habe, könnte ich das zumindestens in Zukunft vermeiden... Nochmal Danke an die Telegram-Gruppe UbuntuFun.de :-)

Donnerstag, 17. Dezember 2015

Reservierte IP-Adressen und Subnetze

Im theoretisch möglichen Adressbereich sind bestimmte IP- Adressen und Subnetze für spezielle Anwendungen reserviert. Die Kenntnis dieser Ausnahmen ist wichtig, um Fehlkonfigurationen und Designfehler zu erkennen und zu vermeiden.


Erste und letzte IP- Adresse eines Subnetzes

Die erste und die letzte IP- Adresse eines definierten Subnetzes sind jeweils die Subnetz- Adresse beziehungsweise die Broadcast- Adresse. Die Subnetz- Adresse definiert das Subnetz, während die Broadcast- Adresse dazu dient, alle Adressen im Subnetz gleichzeitig ansprechen zu können.


0.0.0.0/8 (0.0.0.0 bis 0.255.255.255)


IP-Adressen in diesem Bereich dienen als sogenannte "Standard- Routen", stehen also für das Subnetz selbst.


10.0.0.0/8 (10.0.0.0 bis 10.255.255.255)

172.16.0.0/12 (172.16.0.0 bis 172.31.255.255)

192.168.0.0/16 (192.168.0.0 bis 192.168.255.255)

"Diese Bereiche unterschiedlicher Größe sind für private Netzwerke reserviert. Alle IP- Adressen aus diesen Bereichen werden nicht im Internet geroutet und dienen dazu, interne Netzwerke aufzubauen, ohne dafür öffentliche IP- Adressen zu benötigen.


127.0.0.0/8 (127.0.0.0 bis 127.255.255.255)

Local Loop oder auch Loopback- IP Adresse des lokalen Hosts.


169.254.0.0/16 (169.254.0.0 bis 169.254.255.255)

IP- Adressen aus diesem Bereich sind für den sogenannten Local Link reserviert. Diesen Adressbereich nutzen z. Bsp. Rechner, wenn sie eine IP- Adresse automatisch von einem DHCP- Server beziehen sollen, diesen aber nicht finden können.

Einrichten eines Netzwerks mit Server, der eine statische IP hat:

  • Ermitteln der Gatewayadresse und Subnetzmaske über den Befehl route -n
  • Aus der Gatewayadresse die IP-Adresse des Rechners ableiten: z.B. Gateway 192.168.10.1 -> IP 192.168.10.156 und auch welche Schnittstelle verwendet wird (meistens eth0 wenn nur eine Netzwerkkarte vorhanden ist)
  • DNS-Server ermitteln (meist die gleiche Adresse wie das Gateway)
  • Dann die Daten in die Datei /etc/network/interfaces eintragen:
    auto eth0
    iface eth0 inet static
    address 192.168.10.156
    netmask 255.255.255.0
    gateway 192.168.10.1
    dns-nameserver 192.168.10.1 
  • auto eht0 sorgt dafür, dass die Einstellungen automatisch geladen werden
  • iface eth0 inet static beschreiben die Verbindungsart und das es sich um eine statische Einstellung handelt. Alternativ steht hier gerne dhcp drin, wenn die IP automatisch vergeben wird.
  • address ist die IP Adresse des REchners
  • netmask = Subnetz
  • gateway = Adresse des Routers  
  • dns-nameserver = IP des Nameservers -> Die ist wichtig, da der Server in meinem Fall nicht ins Internet kam
  • sudo /etc/init.d/networking restart
  • In meinem Fall hat der restart nicht ausgereicht. Ein reboot brachte dann aber den gewünschten Erfolg


Sonntag, 29. November 2015

Hadoop

Apache Hadoop

  • Projekt zur Entwicklung offener Software für sichere, skalierbare und verteilte Systeme
  • Software Bibliothek die einen Framework bereit stellt, der es ermöglicht großen Datenmengen die in Computer Cluster verteilt sind, unter zu Hilfenahme einfacher Programmiermodellen zu verwalten
  • Skalierbarkeit von einem Server bis hin zu mehreren tausend Servern, jeder mit eigenem Speicher und Berechnungen
  • dabei stellt die Library selbst sicher, dass Fehler auf dem Application Layer direkt behoben werden, um so einen hochverfügbaren Service mit geringer Anfälligkeit zu erzeugen
  • Apache Hadoop selbst besteht aus folgenden Modulen:
    • Hadoop Common: Allgemeine Werkzeuge, die die anderen Module unterstützen
    • Hadoop Distributed File System (HDFS): verteiltes Dateisystem, welches eine schnelle Zugriffszeit auf Daten bereit stellt
    • Hadoop YARN: Framework um die Cluster-Resourcen und Jobs zu organisieren. Dabei ist die Definition eines Jobs, die Verarbeitung eines vollstängen Datensatzes durch ein Programm. Im Gegensatz dazu ist ein Task ein einzelner Map- und Reducevorgang innerhalb des Jobs
    • Hadoop MapReduce: ein YARN basierter Framework um große Datensätze parallel bearbeiten zu können
  • dann gibt es auch noch weitere Hadoop-relevante Projekte:
    • Ambari: ein web-basiertes Tool zur Versorgung, Verwaltung und Überwachung von Hadoop Clustern. Enthält Support für HDFS, Hadoop MapReduce, Hive, HCatalog, HBase, ZooKeeper, Oozie, Pig und Sqoop. Ambari stellt ebenfalls ein Dashboard zur Darstellung der Cluster-Health in Form von Heatmaps und der Diagnose der Perfomance Charakteristik mit Hilfe von MapReduce, Pig und Hive
    • Avro: System um Daten zu ordnen
    • Cassandra: Eine skalierbare Multi-Master Datenbank ohne "Einzelpunkt-Fehler" (??) (Single-Point failure)
    • Chukwa: Daten-Sammler für große verteilte Systeme
    • HBase: skalierbare, verteile Datenbank, die strukturierten Datenspeicher für große Tabellen unterstützt
    • Hive: Daten Warehouse Infrastructure, die Datensammlungen und ad hoc Abfragen bereit stellt
    • Mahout: a scalable machine learning and data mining library
    • Pig: Platform zur Programmierung von MapReduce Programmen mit Hilfe der Programmiersprache Pig Latin
    • Spark: Schnelle und allgemeine Rechenmaschine für Hadoop-Daten. Unterstützt einfaches, eindrucksvolles Programmiermodell, welches eine große Anzahl von Anwendungen (inkl. ETL), maschinelles Lernen, Stream processing und grafische Berechnungen beinhaltet.
    • Tez: Allgemeiner Framework für Datenfluß-Programmierung, der auf YARN aufbaut. Er stellt eine starke und flexible Maschine zur Verfügung, die eine beliebige Zahl von DAGs (Database Availability Group) für passive und aktive Anwendungsfälle verarbeiten kann
    • ZooKeeper: ein hochperformanter Koordinations-Service für verteilte Anwendungen

Hadoop Single Node Installation


Single Node Hadoop Installation

Anleitung:
http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/SingleCluster.html

Vorraussetzungen:
  • Java muss installiert sein -> musste ich noch machen sudo apt-get install openjdk-7-jre icedtea-7-plugin Nach Sichtung der Readme-Datei auf der Downloadseite für das aktuelle Release, habe ich erst einmal entschieden, dass ich keinen Key brauche, da ich ja schon einen Server mit ssh in Betrieb habe. Ich gehe derzeit davon aus, dass ich diese User ebenfalls für Hadoop verwenden kann. Nachdem ich soweit war und erste Versuche unternahm, bestätigte sich diese Annahme. Für die Installation des Single Nodes habe ich den Standarduser meines Servers genutzt. Die Einstellungen für den Server finden sich unter dem Post zur OpenStack Installation.
  • Ich habe mich dazu entschlossen, das Archiv "hadoop-2.7.1.tar.gz" herunter zu laden Da ich ja mit einem Ubuntuserver in einer VirtualBox arbeite, musste ich nun das Archiv irgendwie auf den Server bringen, um es dort entpacken zu können. Daher kopierte ich das Archiv in den gemeinsamen Ordner, der auf dem Server dann unter /media/sf_Gemeinsamer_Ordner zu finden war. Ich habe das Archiv dann nach home/davinia/hadoop kopiert. (Anlage des Verzeichnis "hadoop" mit mkdir, kopieren mit cp aus dem media-Verzeichnis heraus nach ~/hadoop) Entpacken des Archivs mit dem Befehl tar -xzf hadoop-2.7.1.tar.gz im Verzeichnis (die Optionen -xzf bedeuten: x = Dateien aus Archiv extrahieren, z = Archiv zusätzlich mit gzip(de) komprimieren, f = Dateien in den angegebenen Ordner extrahieren. Wenn kein Zielordner angegeben ist, wird das aktuelle Verzeichnis verwendet)
  • Nach dem Entpacken in das hadoop-Verzeichnis wechseln. Dort wechseln wir wiederum in das Verzeichnis etc/hadoop wechseln um die Datei hadoop-env.sh bearbeiten. In meinem Fall nutze ich den Editor "nano" zur Bearbeitung der Files. nano hadoop-env.sh Es ist dabei zu beachten, dass die Angaben für Java geändert werden müssen.
  • Danach soll das Kommando $bin/hadoop probiert werden. Diese Angaben beziehen sich alle auf die entpackte Ordnerstruktur von Hadoop. In meinem Fall ~/hadoop/hadoop-2.7.1
  • Nachdem die Einstellungen Java betreffend vorgenommen wurden, gehe ich zum nächsten Schritt über: einen Hadoop Cluster im Standalone Mode starten. Die Anleitung lässt uns erst einen neuen Ordner "input" anlegen. Auch hier ist in meinem Fall zu beachten, dass ich mich im Verzeichnis ~/hadoop/hadoop-2.7.1 befinde, da sonst das Skript nicht aufgerufen werden kann (habe ich gestestet, indem ich den Ordner an einem anderen Ort angelegt habe ;-)
  • Kopieren aller xml-Files hat funktioniert ($ cp etc/hadoop/* .xml input).
  • Allerdings gibt es bei dem Aufruf des Scriptes ($ bin/hadoop jar share/hadoop/mapreduce-examples-2.7.1.jar grep input output 'dfs[a-z.]+') eine Fehlermeldung bezüglich der Java-Version.Nach langem Suchen und diversen Fehlermeldungen (z.B. dass er das Verzeichnis /usr/bin/java//bin/java nicht findet; wird auch schwierig, wegen der beiden Slashs hintereinander...) habe ich die Lösung für den Java Pfad in einem Forum gefunden: http://stackoverflow.com/questions/20303815/hadoop-single-node-cluster-installation-on-ubuntu Ich habe nach dieser Anleitung einen Softlink ($ ln -s java-7-openjdk-amd64/ jdk) erstellt. Naürlich habe ich mich vorher davon überzeugt, dass an der Stelle die entsprechende Datei bzw. Ordner vorhanden ist. Diesen habe ich dann in die Datei hadoop-env.sh eingetragen. Entgegen der Bescheibung aus dem Forum habe ich den Eintrag in der bashrc nicht geändert, da ich diese auch gar nicht gefunden habe. Nach diesen Schritten lies sich der Befehl aus der Hadoop Anleitung ohne Fehlermeldung ausführen
  • $ bin/hadoop jar share/hadoop/mapreduce-examples-2.7.1.jar grep input output 'dfs[a-z.]+' mit bin/hadoop wird das Skript aus der Datei hadoop im Verzeichnis bin unter ~/hadoop/hadoop-2.7.1 aufgerufen. Innerhalb dieses Scripts wird mit dem Befehl jar wiederum die Klasse org.apache.hadoop.util.RunJar aufgerufen, die einen Hadoop job jar ausführt. Dabei wird ein .jar Archiv ausgeführt und nach input kopiert. In diesem Archiv werden dann mit grep nach dem definierten String gesucht und alle Übereinstimmungen in dem Ordner output abgelegt. Nach erfolgreichem Durchlauf des Befehls erzeugte der Befehl die Datei part-r-00000
Die "Installation" von Hadoop scheint lediglich in dem Entpacken des herunter geladenen Archivs zu bestehen.
Und mal wieder muss ich zum Ende feststellen, dass ich die Aufgabe zwar erfolgreich bewältigt habe, aber keine Ahnung habe, was ich damit anfangen soll.

Sonntag, 8. November 2015

Welche Cloud, wann?

Quelle: Canonical_Checklist_04_1012.pdf

Public Cloud:

Budget
  • kein CAPEX Budget verfügbar
  • minimales OPEX Budget verwendbar
  • das Projekt soll kostengünstig gestaltet werden
Resourcen
  • kleines technisches Team
  • Team hat keinerlei Erfahrung mit Virtualisierung oder Clouding
  • Einstellung von Entwicklern oder Systemadmins mit Fachkenntnissen stellt ein Problem dar
Projektdauer
  • Das Projekt soll schnell an den Start kommen
Anforderungen
  • Anforderungen an Anwendungen oder Services im Vorfeld nicht kalkulierbar
  • Anforderung an Cloud Betreuer würde extreme Spitzen und Täler beinhalten
  • Aktuelle IT Infrastruktur würde mit dem Workload Handling Probleme haben
Compliance 
  • Anwendungen und Daten sollen an externer Stelle gespeichert werden
  • Verfügbarkeit der Anwendungen und Daten für Kunden über das öffentliche Internet ist völlig ausreichend
Beachten, dass die Erzeugung einer unbekannten Menge an virtuellen Maschinen auf Grundlage lizenzbasierter System eine massive Kostenspirale verursachen kann -> Alternativ können kostenfreie Lizenzen eingesetzt werden (z.B. Ubuntu)

Private Cloud:


Budget
  • CAPEX ist verfügbar, d.h. neue Hardware zum Aufbau einer Cloud Infrastruktur kann beschafft werden
  • Ebenfalls ist OPEX Kapital verfügbar um die benötigte Infrastruktur aufzubauen
  • Das Projekt hat ein Budget zur Verfügung, welches die Betreuung und Verwaltung der entstandenen Infrastruktur erlaubt
Resourcen
  • Technisches Team intern ist gut aufgestellt
  • Das Team hat Erfahrung in Virtualizierung und Clouding
  • Es ist Budget vorhanden, um weitere Entwickler und Systemadministratoren mit Cloud-Erfahrung zu aquirieren
Projektdauer
  • Es gibt die Möglichkeit vor der Entwicklung des eigentlichen Projektes die Cloud Infrastruktur zu planen und vorzuhalten
  • Eine Cloud-Infrastruktur ist schon vorhanden
Anforderungen
  • Die aktuelle Struktur ist in der Lage auch hohe Anforderungen durch User (Kunden) abzufangen
Compliance 
  • Es sind Daten vorhanden, die unbedingt privat bleiben müssen
  • Die Compliance sieht vor, dass eigene Daten unbedingt auf eigenen Systemen beheimated sein müssen
  • Und zusätzlich sollten die Daten ebenfalls im eigenen Land bleiben
  • Diese Vorgaben sind auch in den SLAs/ IT Governance verankert 

Hybrid Cloud:


Budget
  • CAPEX ist verfügbar, d.h. neue Hardware zum Aufbau/ Erweiterung einer Cloud Infrastruktur kann beschafft werden
  • Ebenfalls ist OPEX Kapital verfügbar um die benötigte Infrastruktur aufzubauen/ zu erweitern
  • Das Projekt hat ein Budget zur Verfügung, welches die Betreuung und Verwaltung der Infrastruktur erlaubt
  • Zusätzlich ist auch Budget vorhanden, um Public Cloud Resourcen bei Bedarf zu aktivieren 
Resourcen
  • Eine Cloud Infrastruktur ist schon vorhanden und kann genutzt werden
  • Technisches Team intern ist gut aufgestellt
  • Das Team hat Erfahrung in Virtualizierung und Clouding
  • Es ist Budget vorhanden, um weitere Entwickler und Systemadministratoren mit Cloud-Erfahrung zu aquirieren
Projektdauer
  • Es gibt die Möglichkeit vor der Entwicklung des eigentlichen Projektes die Cloud Infrastruktur zu planen und vorzuhalten
Aber: Es wird flexibler Zugang zu Resourcen und Fähigkeiten benötigt, den das Team nicht decken kann und die Abdeckung ziemlich kostenintensiv wäre
 
Anforderungen 
  • Die interne Cloud Infrastruktur wird wahrscheinlich nicht in der Lage sein, extreme Anforderungs-Spitzen durch User- oder App-Anfragen zu bewältigen
  • Außerdem wird die Infrastruktur ebenfalls die angestiegenen Anforderungen der Daten-Verarbeitung bzw. -Analytik nicht bewältigen können
Compliance 
  • Es sind Daten vorhanden, die unbedingt privat bleiben müssen
  • Die Compliance sieht vor, dass eigene Daten unbedingt auf eigenen Systemen beheimated sein müssen
  • Und zusätzlich sollten die Daten ebenfalls im eigenen Land bleiben
  • Diese Vorgaben sind auch in den SLAs/ IT Governance verankert
Aber: Es soll eine Infrastruktur bereit gestellt werden, in der die Anwendungen und Buisness-Logik in der Public Cloud bereit gestellt werden, die Daten aber weiterhin im eigenen Bereich verbleiben.

Außerdem sollen die Möglichkeiten erhalten bleiben, das Projekt in Zukunft sowohl vollständig in die Private Cloud, oder auch in die Public Cloud um zu ziehen.