1 / 0

Service Computing Einführung

Service Computing Einführung. Prof. Dr. Ramin Yahyapour IT & Medien Centrum 13. Oktober 2009. Logistik. Vorlesung: Prof. Dr. Ramin Yahyapour Dienstag, 8:30- 10 Uhr Übung: Dr. Thomas Röblitz Donnerstag: 14:15 – 16 Uhr (?) Praktische Übungen Terminänderungen beachten:

marla
Télécharger la présentation

Service Computing Einführung

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Service ComputingEinführung

    Prof. Dr. Ramin YahyapourIT & Medien Centrum13. Oktober 2009
  2. Logistik Vorlesung: Prof. Dr. Ramin Yahyapour Dienstag, 8:30- 10 Uhr Übung: Dr. Thomas Röblitz Donnerstag: 14:15 – 16 Uhr (?) Praktische Übungen Terminänderungen beachten: Beispiel: Kommende Woche am Donnerstag Vorlesung! LSF Anmeldung für Mailingliste und Materialien in EWS
  3. Overview What is Service, Cloud, Grid Computing? Application Examples Architecture of Grids Current Development Similarities to eBusiness Solutions and Ubiquitous Computing
  4. Vorstellung IT & Medien Centrum Das ITMC ist der IT und Medien Dienstleister der Universität Beispiele: Management der Netzwerk-Infrastruktur bis an die Dose bzw. WLAN Zugang, DNS, Firewall, DHCP Support-Services Service-Desk Graphik, Print E-Learning Audio/Video-Erstellung und Bearbeitung Betrieb zentraler Server und Dienste eMail, Groupware Identity Management Web-Server Campus Management/Ressourcen Management Hosting und Housing von Servern Betrieb von HPC-Systemen für wissenschaftliches Rechnen.
  5. Wiss. Rechnen/ HPC an der TU 2006: LiDO 464 CPU Cores (AMD) 20 Tbyte Storage 2008: D-Grid Ressourcen Zentrum Ruhr (DGRZR) 2048 CPU Cores (Intel) 110 Tbyte Storage 2009: LiDO2 3328 CPU Cores (Intel) 215 Tbyte Storage
  6. Traditioneller Rechnerbetrieb WebApp DB Service X Mail Dedizierte System für Anwendungen HW angepasst auf Anwendung, daher hohe Performanz Systeme teilweise redundant für Ausfallsicherheit Heterogene Infrastruktur Kapazitäten meist überdimensioniert, um künftiges Wachstum vorwegzunehmen Anwendung Anwendung Anwendung Anwendung Anwendung Anwendung OperatingSystem OperatingSystem OperatingSystem OperatingSystem OperatingSystem OperatingSystem Physische Hardware Physische Hardware Physische Hardware Physische Hardware Physische Hardware Physische Hardware Storage/Network Storage/Network Storage/Network Storage/Network Storage/Network Storage/Network
  7. Virtualisierung von Rechnern Der Einsatz von Virtualisierung erlaubt eine Trennung von HW und Anwendung. VM sind isoliert voneinander Mehrere VMs können sich einen Host teilen Heterogenität kann besser verwaltet werden. Die Ressourcen lassen sich zuteilen und partitionieren. Anwendung Anwendung Anwendung Anwendung Anwendung Anwendung Anwendung Anwendung Anwendung Anwendung Virtuelle MaschineGast OS Virtuelle MaschineGast OS Virtuelle MaschineGast OS Virtuelle MaschineGast OS Virtuelle MaschineGast OS Virtuelle MaschineGast OS Virtuelle MaschineGast OS Virtuelle MaschineGast OS Virtuelle MaschineGast OS Virtuelle MaschineGast OS Virtualisierungs-plattform (Xen, vmWare, Hyperv) Virtualisierungs-plattform (Xen, vmWare, Hyperv) Virtualisierungs-plattform (Xen, vmWare, Hyperv) Virtualisierungs-plattform (Xen, vmWare, Hyperv) Virtualisierungs-plattform (Xen, vmWare, Hyperv) Physische Hardware Physische Hardware Physische Hardware Physische Hardware Physische Hardware Storage/Network Storage/Network Storage/Network Storage/Network Storage/Network Nach Forrester: Über 30% Kostenersparnis
  8. Änderung für den Betrieb eines Data Centers Trennung von Ressourcen und Anwendungen Ressourcen werden dynamisch zugeteilt Ressourcen werden selbst als Services angeboten Services Virtualisierungs-Management VirtuelleServer Speicher-virtualisierung Netzwerkvirtualisierung ITMC: Server-Virtualisierung seit 2008 Speicher-Virtualisierung projektiert CPUs Physical Storage Physical Network
  9. In die Wolken: Cloud Computing Kommerzielle Anbieter liefern Ressourcen (Amazon EC2) On-demand Zugang zu Ressourcen „Elastizität“ (dynamische Anpassung) Pay-per-useNutzung wird einzeln abgerechnet Leichter Einstieg SaaSSoftware as a Service Applikationen Plattform zur Erstellung von Applikationen PaaSPlatformas a Service IaaSInfrastructure as a Service Infrastruktur für Server, Speicher, Netzwerk, …
  10. June 2, 2008 Amazon Web Services EC2 (Elastic Computing Cloud) istder Computing Service von Amazon Basiert auf Hardware Virtualisierug(Xen) NutzerfragenvirtuelleMaschonen und undverweisen auf einein VM-Image,das in S3 abgelegtist. NutzerhabenvolleKontrolleüber die Instanzen (z.B. Root-Zugang, wennnotwendig). Anfragenkönnenüber SOAP oder REST erfolgen. S3 (Simple Storage Service) istder Storage Service von Amazon, um Daten in der Cloud zuspeichern Unabhängig von anderenDienstennutzbar Datenwerdenhierarchischorganisiert und alsObjekteoder Buckets abgelegt Zugriffüber SOAP, REST und BitTorrent Weitere AWS Dienste: SQS (Simple Queue Service) SimpleDB Billing services: DevPay Elastic IP (Static IPs for Dynamic Cloud Computing)
  11. Beispiel: Amazon WS EC2 Dienst:Hosting VirtuellerMaschinen on Demand Service Level Agreement (SLA):“Amazon EC2 SLA commitment is 99.95% availability for each Amazon EC2 Region” CPU-Leistung:[gemessen in “EC2 Compute Unit” (ECU)]“One EC2 Compute Unit (ECU) provides the equivalent CPU capacity of a 1.0-1.2 GHz 2007 Opteron or 2007 Xeon processor.”
  12. Beispiel: Amazon WebServices EC 2 Standard Instances Small Instance1.7 GB Hauptspeicher, 1 EC2-Compute-Unit (1 virtual CPU-core), 160 GB Hintergrundspeicher, 32-bit Plattform Large Instance7.5 GB Hauptspeicher, 4 EC2-Compute-Unit (2 virtual CPU-cores), 850 GB Hintergrundspeicher, 64-bit Plattform Extra Large Instance15 GB Hauptspeicher, 8 EC2-Compute-Unit (4 virtual CPU-cores), 1690 GB Hintergrundspeicher, 64-bit Plattform High-CPU Instances High-CPU Medium Instance1.7 GB Hauptspeicher, 5 EC2-Compute-Unit (2 virtual CPU-core), 350 GB Hintergrundspeicher, 32-bit Plattform High-CPU Extra Large Instance7 GB Hauptspeicher, 20 EC2-Compute-Unit (8 virtual CPU-cores), 1690 GB Hintergrundspeicher, 64-bit Plattform
  13. Public/Commercial Clouds Klares Business Modell (Pay byCreditcard..) Aktiver Markt mit vielen Anbietern Metering, Accounting, Billing Einstieg einfach und günstig … Ausstieg nicht! Für größere Data Centernur begrenzt attraktiv
  14. Private Clouds Dienstorientierung innerhalb eines Data Centers Angebot von Infrastruktur oder Plattformen als Dienst Beispiel: ITMC liefert virtuelle Maschinen Storage on-demand für Lehrstühle Klare Web-Schnittstellen für den Nutzer Services Services Attraktives Management-Modell; Dynamische Skalierbarkeit Virtualization Management Virtualization Management 1) Dynamische Skalierung VirtuelleServer Speicher-virtualisierung Netzwerkvirtualisierung VirtuelleServer Speicher-virtualisierung Netzwerkvirtualisierung 2) Scale-Out Physical Storage CPUs CPUs Physical Storage Physical Network Physical Network Weitere Ressourcen Einbindungvon externen Ressourcen
  15. Cloud Computing – Hype ? Gartner Hype Cycle 2008 Hype! Aber Konzepte bleiben.
  16. Bewertung Clouds Einfaches Managementmodell Betreiber Dienste Betreiber Infrastruktur Klare Schnittstellen Betreiber Infrastruktur sieht die Anwendung nicht. Hohe Effizienz auf Seiten des Betriebs Management von vielen VMs möglichst effizient auf verfügbaren Ressourcen Ähnliche Entwicklung bei Storage Hohe Flexibilität Erzeugung von neuen VMs auf Knopfdruck Offenheit von Clouds zurzeit noch nicht gegeben „Einbahnstraße“ zu einem Provider Aktuelle Bestrebungen zur Liberalisierung und Standardisierung
  17. UnterstützungneuerAngebote Beispiel von Amazon: Animoto, “Scale as you grow” (Musik-unterlegteVideos auseigenenBildern)http://www.animoto.com
  18. Eigenschaften eines Anbieters
  19. Grid Computing? Ressourcen „teilen“ (sharing) Produktionsumgebung in vielen Disziplinen Kollaboration in Forschungsgruppen Betrieb und Nutzung sind kompliziert TU Dortmund in mehreren Grids beteiligt
  20. Clouds für HPC Kann Virtualisierung und Cloud Computing für wissenschaftliches Rechnen genutzt werden? Abhängig von der wiss. Anwendung Parallele Applikationen mit hohen Kommunikationsanforderungen: wenig geeignet „Bagof Tasks“ Anwendungen mit geringen Anforderungen: durchaus geeignet Vorteil: Virtualisierung findet unabhängig Einzug in DataCenter: Knowhow vorhanden VMs erlauben besser auf die Bedürfnisse der Nutzer einzugehen… … und Verantwortlichkeit auf den Nutzer zu übertragen (Software-Pflege) Mehr Freiheitsgrad im Management (Migration, Preemption) Langfristig: Job = Virtuelle Maschine Es wird künftig spezielle HPC-Systeme und ComputeClouds geben
  21. Ressourcen Management Das automatische Management von Clouds oder Grids ist eine komplexe Aufgabe Welche Ressourcen werden für welchen Dienst/Anwendung wann eingesetzt? Hoch dynamisch und von der Arbeitslast/Workload abhängig Optimierungsziele: Antwortzeit Qualität Kosten Ressourcenverbrauch Strom (!) Multikriterielles Optimierungsproblem
  22. Unterschiede zwischen Grids und Service Computing Grids führen meist Batch-Jobs aus: Dynamische Einreichung neuer Jobs, meist unabhängig Batch Queuing-Systeme Typischerweise “Space-sharing” Ausführung Sequentielle oder parallele Applikationen Clouds/SOA/SOI sind: Meist transkations-orientiert, wiederholende Dienste Hosting ist für lange Zeiträume Häufig “time-sharing” Ausführung Meist synchrone Workflows über verschiedene Dienste Gekoppelte Ressourcen Hosting Environment, AppServer, Datenbank
  23. SOI Ressourcen-Management Services Neue Dienste Virtualization Management VirtuelleServer Speicher-virtualisierung Netzwerkvirtualisierung CPUs Physical Storage Physical Network
  24. Ressourcen-Management Services Neue Dienste Virtualization Management Verteilung auf Ressourcen VirtuelleServer Speicher-virtualisierung Netzwerkvirtualisierung Dynamische Anpassungder Infrastruktur CPUs Physical Storage Physical Network Aktivierung und Deaktivierung von Ressourcen
  25. Technische Herausforderungen Einheitliche Schnittstellen und Interoperabilität Dynamisches Ressourcen Management Auf Seiten der Nutzer beim Verteilen der Ressourcen Für den Betreiber im Management der Dienste Komplexität beherrschen! Skalierbarkeit, Effizienz, Dynamik, Verfügbarkeit Management von x1000 Diensten ist anspruchsvoll Komplexe Geschäftsbeziehungen zu den einzelnen Diensten Koordinierung Ein einzelner Dienst ist häufig uninteressant, Die Orchestrierung von Diensten über verschiedene Ressourcen ist notwendig Beispiel: SLA Management
  26. Service Level Agreements Es existiert ein starker Trend Service-Management über SLAs abzubilden. Elektronischer bilateraler Kontrakt definiert im Vorfeld: Dienstgüte Rahmen-/Nutzungsbedingungen Technische Anforderungen Optimierungsziele Kosten/Strafen Automatische Verhandlungs-prozesse werden benötigt Das SLA ist elektronisch auswertbar. SLA Beschreibung Translation Monitoring Adaption Optimierungs-problem Optimierungs-problem Verhandlungs-protokoll Consumer Provider
  27. Experiment: Overhead für SLA Erstellung Meta-Scheduler Meta-Scheduler Dienstgütegarantien Scheduler Scheduler Parallele Anwendung benötigt mehrere Rechenressourcen gleichzeitig Koordinierte Reservierung und garantierte parallele Ausführung Dienstgütegarantien mittels elektronischer Verträge = SLA Testanordnung 4 Systeme mit eigenem Management, 160 Rechenressourcen mit lokalem Scheduler Rechenressourcen mit zufälliger Lastverteilung Exklusive Ressourcennutzung Parallele Anwendung benötigt 6 Rechenressourcen Ablauf früheste mögliche Startzeit pro Ressource Scheduling (mögl. weitere Iteration) Überprüfung der Reservierung (mögl. weitere Iteration) Start der Anwendung Rechenres. Rechenres.
  28. Testergebnisse 1 Meta-Scheduler kontrolliert alle Rechenressourcen Vergleich bei Allokation auf einem einzelnen System: ca. 15 sec Verhandlungs-/SLA-Overhead ist vertretbar für realen Einsatz 4 Meta-Scheduler kontrollieren jeweils ¼ der Rechenressourcen Durchschnittliche Zeit bis eine Ko-Allokation erfolgt ist: ca. 20 sec
  29. Customer Service Provider BusinessAssessment BusinessUse Service Demand SLA Contracting/Sales SLA (Re-)Negotiation SLA Orchestration/Transformation/Aggregation Monitoring, Arbitration Procurement BusinessAssessment SOA Service Demand Forecasting Monitoring Adjustment Alerting Infrastructure Provider Software Provider Provisioning virtual Resource Consumption Forecasting Mapping SOI physical Projekt EU FP7: 15 Mio Eurou.a. SAP, Intel, Telefonica, Telekom Austria, TU DO
  30. SLA Management Plane Service Management Plane Design / Prediction Plane Business SAMI Business Business ViewLayer Inventory SAMI Inventory Prediction Software Service Layer Software management DB VM Service VM Design-time modelling InfrastructureService Layer Infrastructure SAMI Infrastructure SAMI
  31. Technological Trend -Computational Power Computational power followsMoore‘s Law:double oftransistordensityevery 18 months. Do weneedthiscomputational power?
  32. Applications Several relevant problems are still not adequately solved. molecular, atomic simulation (chemistry, physics) pharmaceutics climate research artificial intelligence Grand Challenge Problems
  33. Technological Trend - Networking Network performancedoublesevery 9 months. thedifference will yieldseveraldimensions in a fewyears!
  34. Consequence “When the network is as fast as the computer's internal links, the machine disintegrates across the net into a set of special purpose appliances” (George Gilder) Parallel programming Distributed applications Decentralproblemsolving
  35. The Grid “Resource sharing & coordinated problem solving in dynamic, multi-institutional virtual organizations” (Ian Foster) Source: Globus, Ian Foster
  36. Grid Vision Simple, transparent accesstoresourceswithoutcentralcontrol dynamiccoordinationandcombinationofservices on demand easy additionofresources autonomicmanagementof Grid components complexityoftheinfrastructureishiddenfromuserorresourceprovider. Analogy: Power-Grid Transformation to „e-Science“ Support of „Virtual Organizations“
  37. Computational Grids Connection of: High-performancecomputers, parallel computers Workstations-/PC-Cluster in thefuturesingle PC systems The Grid automaticallydertermins on request, where, when, whichcomputersareavailablefor a task. Ideaorginitatesfrommetacomputing (‘90)
  38. Trend of Online-Data The storagedensitydoublesevery 12 months. Example online-data: 2000 ~0.5 Petabyte 2005 ~10 Petabytes 2010 ~100 Petabytes Not onlycomputationalperformance but also datamanagementis a keychallenge in thefuture!
  39. Data-intensive Applications Medical Data Digital X-Rays Brains-Scans Petabytesof Data
  40. Data-intensive Applications Medical Data Digital X-Rays Brains-Scans Petabytesof Data Molecular Data Genom Proteine Drug analysis Environmental Data Weather-/Climate Geophysics Astronomy Physics High-EnergyPhysics Astronomy typical: time-variant, 3D models require large volumes of data (simulated, recorded)
  41. Example: CERN’s Large HadronCollider 1800 Researchers, 150 Institutes in 32 Countries work on 100 PetaByteofdatawithseveral 10.000s ofprocessors!
  42. Online System Tier2 Centre ~1 TIPS Caltech ~1 TIPS Tier2 Centre ~1 TIPS Tier2 Centre ~1 TIPS Tier2 Centre ~1 TIPS HPSS HPSS HPSS HPSS HPSS Pentium II 300 MHz Pentium II 300 MHz Pentium II 300 MHz Pentium II 300 MHz Example CERN-LHC Data-Grid ~PBytes/sec ~100 MBytes/sec Offline Processor Farm ~20 TIPS ~100 MBytes/sec Tier 0 CERN Computer Centre ~622 Mbits/sec Tier 1 France Regional Centre Germany Regional Centre Italy Regional Centre FermiLab ~4 TIPS ~622 Mbits/sec Tier 2 ~622 Mbits/sec Institute ~0.25TIPS Institute Institute Institute Physics data cache ~1 MBytes/sec Tier 4 Physicist workstations Source: Ian Foster, DataGrid, CERN
  43. Grid-“Resources“ Computer und datamanagementultimatelyrequire alsonetworkmanagement Considerationsofnetworkconnections Reservation ofnetworkproperties Quality-of-servicefeatures e.g.: GMPLS/MPLS otherresources: Visualization (3D-Cave, Video-Conferencing), Experimental devicesandinstruments Software (Licences) Services etc.
  44. Grid-Initiatives Several Grid projects in researchandacademics Globus Toolkit Open-Source solution defactostandardforseveralprotocolsandservices Open Grid Forum Forum similarto IETF, W3C Definition andstandardisationof Grid protocolsandservices Commercial support IBM, Microsoft, Sun, Compaq, … Platform, Avaki, Datasynapse, ... CombinationoftechnologicalinterestsfromeScienceandeBusiness
  45. Architectureof a Grid Situation different typesofcomponents, different rules, policies, provider Requirementofstandardisation: descriptionofand accesstoresources independent, distributed, andscalableservices sharedprotocols
  46. Grid Functions (1) Security Authentication Privacy Information Services Information aboutexistingresourcesorservices Lookup anddiscoveryoffunctionalities Resource Management Integration ofresources
  47. Grid Functions (2) Data Management Data transferring Data localisation Replication Synchronisation Scheduling automaticselectionofresources coordinationofresourceallocation Accounting Billing
  48. Future Grid Applications Useof Grid-APIs for portable accessto Grid functionalities Example: dynamicresourcediscovery datatransfers requestingnetworkservices higherabstractionlevel in softwaredevelopment
  49. Application Application Internet Protocol Architecture “Coordinationofseveralresources”: infrastructureservices, applicationservices Collective “Add resource”: Negotiateaccess, controlaccessandutilization Resource “Communication withinternalresourcefunctionsandservices” Connectivity Transport Internet “Controllocalexecution” Fabric Link Multi-level Infrastructure Source: Ian Foster
  50. Open Grid Service Architecture OGSA iscurrentlystandardised in OGF. Goal isthe simple integrationofnewservicesintothe Grid. service-orientedapproach Communication via WebServices, SOAP SimilaritywitheBusinesssolutions Similarprotocols Application Server
  51. Globus Toolkit™ Open-Source softwarepackagewithbasicservices usuallythereferenceimplementationofservicesthatarestandardizedbythe Global Grid Forum. Primarily, just a „bagofservices“ toimplement Grid projects Security Information Services Resourcemanagement Data transferring nodirectlyusable/installable „product“
  52. Example of a Grid Job Required Resources: needs 48 processing nodes of a specified architecture/properties for 6 hours a nearby visualization device is requested during execution Allocation Time Requirements: shouldbeexecutedbetween 8am and 6pm thefollowingday Data Requirements: needs a specifieddataset Storage Requirements: needs 1 GB ofstorageduringexecution Software Requirements: utilizies a specifiedlicensedsoftwarepackage Network Requirements: a networkconnectionwith a givenbandwidthbetweenthe VR deviceandtheapplicationisneeded CostRequirements: The useriswillingtopayatmost 4 Euro Objectives: He preferscheaperjobexecutionover an earlierexecution.
  53. Automatic Allocation and Reservation Goal: Automatic planningoftheresourceallocation time Network 1 Prefetching Input-Data Storing Output-Data Reservation Computation Computer 1 Computation Computer 2 Network 2 Communication Visualization Cave Visualization Software License Software Usage Storage Storage
  54. Future Grid Scenario WAN Transfer Visualization Remote CenterReads and Generates TB of Data LAN/WAN Transfer In thenearfuturethe Grid offersusers online accessto Petabyteofdatastorage, Teraflopsofcomputational power, on-demandaccesstoQoS-networkconnections on-demandsoftware, automaticaccesstoarbitraryservices. Differenceto „Internet“, anticipated potential !
  55. eBusiness Applications Internet Business services B2C: eCommerce-Solutions Portals Internet Business services B2B: Inter-operation between companies Supply-Chain Management Intranet Solutions Enterprise Application Integration EAI
  56. Trend in eBusiness Solutions Previously: use of the internet as add-on technology to existing business models often stand-alone solutions for specific prupose Current and future: integration of different services (in-house, between companies) to improve efficiency orientation of internal and external business processes and workflows leveraging new business models
  57. Technological Challenges Similar to Grid standards Standardization of services and protocols similar technologies XML-Processing Web-Services, SOAP Enterprise Java Beans Requirements security reliability performance scalability interoperability
  58. Pervasive/Ubiquitous ComputingMobile Solutions Easy and transparent integration of different mobile components Requirements security reliability performance scalability interoperability Same Requirements; similar solutions but often additional constraints: devices may be subject tighter limitations in size, cost, performance
  59. Kursinhalt Grundlagenzuaktuellen Web Technologien XML JSP, JavaBeans EJB Web-Services Peer2Peer Grid Computing Cloud Computing
  60. Danke für die Aufmerksamkeit!
  61. Presentations includes figures, trademarks, logos which are properties of third parties..Rights are reserved to the corresponding rights owners.
More Related