2. Les Boulots
Architecte en Chef @ Nokia Business Infrastructure
Architecte Principal de Commerce Électronique @ Sun
Microsystems (Maintenant Oracle)
Membre du Conseil du Projet JXTA (La technique de calculer de
pair-à-pair, comme Bit Torrent)
Membre de l’Organisation JCP
Leader des Utilisateurs de la technologie de Amazon Web
Services
Les Publications
Rédacteur en Chef pour la Revue P2P (Jugé par des pairs)
eAI Journal, Enterprise Linux, XML Journal, …
Les Conférences
JavaOne, WebServices One, Dagstuhl (Max Planck Institute),
Dresden, etc
9 Novembre, 20102010 IUT Cloud Computing Seminar 2
3. Le réseau social
Des langues humaines et des logiciels
informatiques
Des mouvements d’intérêt dans le domaine
de l’informatique
L’informatique dans le nuage (Cloud
Computing)
Questions & Réponses
9 Novembre, 20102010 IUT Cloud Computing Seminar 3
5. Plus de 500 millions de
membres actifs
Plus de 900 millions
d’objets (feuilles,
groupes, événements,
et communautés )
Environ 70% des
membres Facebook
vivent dans des pays
hors des Etats-Unis
9 Novembre, 20102010 IUT Cloud Computing Seminar 5
6. Pourcentage de personnes qui partagent leur
information personnelle sur FB
◦ Pas de compte FB
◦ Basiques - par exemple, nom, date d’anniversaire, loisirs
◦ Limitées – quelques photos, information de contact
◦ Complètes – Exposer toute leur vie privée + connexion
des amis.
Avez vous peur d’exposer votre vie privée?
9 Novembre, 20102010 IUT Cloud Computing Seminar 6
7. Pourquoi est-ce que Facebook a réussi?
◦ Zucker est un génie réel;
◦ Il est chanceux;
◦ C’est un complot des Venture Capitalists Americans en
Californie;
◦ On suit la tradition du mouvement de mai 1968;
◦ Zucker est un extraterrestre;
Ou
Il y a vraiment une grande nécessité sociale?
9 Novembre, 20102010 IUT Cloud Computing Seminar 7
8. Quelles stratégies sont importantes maintenant
pour FB?
◦ « Facebook Graph API »
◦ « Search with Google »
◦ « iLike Button »
9 Novembre, 20102010 IUT Cloud Computing Seminar 8
Quelles technologies sont utilisées partout dans FB?
REST API
Security & Oauth – Authentification Unique
Quelle est votre vision de FB dans 5 ans?
Le gens voudraient mieux communiquer ???
10. Connaissez-vous un langage de programmation
dominant dont l’origine (la syntaxe) vienne d’une autre
langue?
◦ Français
◦ Allemand
◦ Chinois
◦ Russe
◦ Espagnol
◦ Etc.
Quel est votre avis?
Je crois que No. Chaque langue a ses avantages et
limitations.
9 Novembre, 20102010 IUT Cloud Computing Seminar 10
12. Blaise Pascal (1623 – 1662) – Mathématicien, La
première machine à calculer
Gustave Coriolis (1792 – 1843) – La force de
Coriolis
Pierre Simon Laplace (1749 – 1827) – La
Transformation de Laplace
Joseph Fourier (1768 – 1830) – La Série et la
transformation de Fourier
Henri Poincaré (1854 – 1912) – Le calcul
infinitésimal
Pierre Bézier (1910 – 1999) –Cuver Bézier
9 Novembre, 20102010 IUT Cloud Computing Seminar 12
13. ◦ C – Unix
◦ Java – Web & .COM
◦ C# (Dot Net Framework) – Microsoft
◦ SmallTalk & LISP – Programmation Orientée
Object
◦ Ruby on Rails
◦ PHP
9 Novembre, 20102010 IUT Cloud Computing Seminar 13
15. 9 Novembre, 20102010 IUT Cloud Computing Seminar 15
Le Principe d’Incertitude
de Heisenberg
16. La Grammaire
Le Vocabulaire
L’Histoire
La tradition
Etc.
La Langue écrite -> prendre la décision
d’enregistrer et de supprimer des informations.
9 Novembre, 20102010 IUT Cloud Computing Seminar 16
17. Le Réseau Social
L’informatique dans le nuage
La Mobilité (iPhone + iPad vs. Android)
Le Géopositionnement
Le REST API
9 Novembre, 20102010 IUT Cloud Computing Seminar 17
24. Calcul dans le Nuage
9 Novembre, 2010 242010 IUT Cloud Computing Seminar
25. 9 Novembre, 20102010 IUT Cloud Computing Seminar 25
Réfléchir à votre consommation
d’électricité
N’utiliser que des ressources dont
vous avez besoin, par exemple
le processeur, la bande passante,
le stockage, la mémoire vivante,
etc.
Le nuage d’informatique est comme les
centrales électriques où on peut obtenir
les ressources très rapidement et
facilement
26. Définition
◦ La ressource du Cloud Computing est à calcule comme
l’électricité et l’eau potable
Avantages
◦ Moins Cher
◦ Plus Fiable
◦ Facile pour monter à charger (scalability)
◦ Processus:
Très souple
Reproductible
◦ Courbe d'apprentissage plutôt plate
9 Novembre, 20102010 IUT Cloud Computing Seminar 26
28. 9 Novembre, 20102010 IUT Cloud Computing Seminar 28
AWS provides flexible, scalable, secure, and cost-effective
IT infrastructure for businesses of all sizes around the
world.
Compute power and storage is
available to you on-demand,
you pay only for the resources
you use…
…running on scalable, reliable, and secure
infrastructure operated by Amazon Web
Services, based on the knowledge gleaned
from over a decade of building efficient and
dependable infrastructure for
Amazon.com.
29. 2007: AWS bandwidth usage surpassed
Amazon.com global websites
Today: AWS bandwidth usage 30% greater
than Amazon.com global websites
Bandwidth Usage:
9 Novembre, 20102010 IUT Cloud Computing Seminar 29
30. 9 Novembre, 20102010 IUT Cloud Computing Seminar 30
Total Number of Objects Stored in Amazon S3
2.9 Billion
14 Billion
40 Billion
102 Billion
35. Subventions pour le cours
◦ $100 AWS crédit pour chaque étudiant
Subventions pour la recherche - 4x chaque année
Compétitions des étudiants
Startup Challenge
http://aws.amazon.com/education/
http://aws.amazon.com/free/
9 Novembre, 20102010 IUT Cloud Computing Seminar 35
41. 9 Novembre, 20102010 IUT Cloud Computing Seminar 41
RegionRegion
Availability ZoneAvailability Zone Availability ZoneAvailability Zone
Le Répartiteur de charge
Les Modes de répartition de
charge
Round-robin (DNS)
Les Logiciels
RAID (Données)
Hardware (le matériel
informatique)
La Réplication de Serveur
Avec mêmes données,
logiciels, processeurs, ….
44. 9 Novembre, 20102010 IUT Cloud Computing Seminar 44
Rails EnvironmentRails Environment
ASF-SOAP-AdapterASF-SOAP-Adapter
Active
Record
Active
Record
(Demo app)
DbZilla
(Demo app)
DbZilla
SOAPSOAP
Your Rails App
Each adapter has its own thread
Connected using via SOAP Interface, to be update with REST API
Force.com as a giant cloud DB
RForceRForce
demodemo Source
code
Source
code
Source
code
Source
code GEMGEM
DocumentationDocumentation
Click on above images to the linksGEM Source codeDocumentationOn RubyGems
50. 1 ECU = 1.0 – 1.2 GHz Opteron/Xeon from 2007
9 Novembre, 20102010 IUT Cloud Computing Seminar 50
RAM Cores x ECU Arch
Hourly Cost
(US-East)
Monthly Cost
(US-East)
Standard
Small 1.7 GB 1 x 1 32bit $0.085 $62
Large 7.5 GB 2 x 2 64bit $0.34 $248
Extra Large 15 GB 4 x 2 64bit $0.68 $496
High-Memory
Extra Large 17.1 GB 2 x 3.25 64bit $0.50 $366
Double Extra Large 34.2 GB 4 x 3.25 64bit $1.20 $878
Quadruple Extra
Large
68.4 GB 8 x 3.25 64bit $2.40 $1756
High-CPU
Medium 1.7 GB 2x 2.5 32bit $0.17 $124
Extra Large 7 GB 8 x 2.5 64bit $0.68 $496
51. 9 Novembre, 20102010 IUT Cloud Computing Seminar 51
Amazon EC2 Relational
Database AMIs
Amazon Relational Database
Service
Amazon SimpleDB
Features Choose your own database
server (IBM DB2, Microsoft
SQL Server, MySQL, Oracle,
and more)
Native access to a
relational database engine,
with key features of a
relational database, such as
joins or complex
transactions
Schema-less data store
Administration Exert complete
administrative control over
your database
Gain a managed experience
and offload common
administrative tasks, such
as provisioning, backup
Zero administrative
overhead (automatic
handling of geo-redundant
replication, index creation,
database tuning)
Flexibility Easy migration path
(existing code, tools,
applications are
compatible)
Easy migration path
(existing code, tools,
applications are
compatible)
Easy to use web service APIs
Scalability Employ many of the
scalability features of
Amazon EC2
Quickly scale up resources
with only an API call
Automatic and elastic
scaling of resources to meet
request load
Backup Store snapshots to Amazon
S3
Use automatic backup
service at an interval you
specify
High availability (multiple
copies of data for reliability
and failover)
54. Standard Instances
◦ Well suited for most applications
High Memory Instances
◦ Offer large memory sizes for high throughput applications,
including database and memory caching applications
High CPU Instances
◦ Have proportionally more CPU resources than memory (RAM)
and are well suited for compute-intensive applications
55. Billed for actual usage on monthly basis
Standard Instances
◦ Linux/UNIX starting at $0.095 USD per hour
◦ Windows starting at $0.13 USD per hour
High CPU Instances
◦ Linux/UNIX starting at $0.19 USD per hour
◦ Windows starting at $0.31 USD per hour
High Memory Instances
◦ Linux/UNIX starting at $1.34 USD per hour
◦ Windows starting at $1.44 USD per hour
+ Data Transfer Costs
Reserved Instances
◦ Make a low, one-time payment for each instance
◦ Receive lower pricing for that instance
56. Pre-requisites
◦ SSH client – Putty.exe on Windows, built-in in Mac and
Linux
To-do
◦ Access Key
◦ Secret Key
◦ X.509 Certificate
Private Key
Public Key
9 Novembre, 20102010 IUT Cloud Computing Seminar 56
58. 9 Novembre, 20102010 IUT Cloud Computing Seminar 58
Allows
Start / Stop / Pause a VM
instance
Manage Firewall ports
Add S3 storage
Take snapshot of volumes &
VMs
Create Security Group and
Key Pair (Amazon use secure
key to manage access to VM
via SSH), This is different
from X509 keys.
Control Job Flow between
VMs
CloudFront Services
(pushing data to the edge of
network)
Avant, j’ai travaillé chez:
Sun Microsystems comme l’Architecte Principal pour Commerce Électronique (Senior E-commerce Architect)
Nokia comme l’Architecte Principal pour les Régions Amériques du Nord et Sud (Chief Program Architect)
Le Membre de l’Organisation JCP, pour la but d’avancer la technologie Java comme une software libre (JCP Board Member)
Le Membre du Conseil du Projet JXTA, une plate-forme libre pour la Connexion Pair à Pair (Peer-to-Peer Computing) – (JXTA Board of director)
Le Rédacteur en Chef pour le P2P Journal (Une revue de la technologie Pair à Pair qui était jugée par les membres)
J’ai donné présentations dans les congres:
Java One
Java Plus
Le Séminaire Dagstuhl, qui était organisée par L’institut Max Planck et Le Société de l’Informatique Allemande (Max Planck Institute & Deutusche Informatik Gesellschaft)
Etc.
J’ai publié les articles dans les revues:
Enterprise Linux,
XML Journal,
eAI Journal,
etc/.
Qu’est-ce que le sens du Cloud Computing? Ce nom, on peut traduire à français – la technologie informatique dans les nuages.
Comme la nuage n’a pas une forme constante, est-ce que on peut faire la même conclusions avec ça – la technologie?
La Réponse – La technologie signifie une mouvement dans l’industrie qu’on peut virtualiser les ressourcés locaux, par exemple, les mémoires vivantes, les processeurs, les bandes passantes, et le obtenir lorsque une nouvelle demande apparaît.
Nous volons discuter les joueurs dans cette domaine.
Le sens / la direction de cette industrie
Faire une démonstration de la technologie avec Amazon Web Services (AWS)
Moi avec le fondateur de Facebook
Il y a plus 500 milliards membres actives pour le réseau social - Facebook.
Un recensement de vos avis
Je vais faire un recensement et laisser les spectateurs faire leur decisions.
http://langagelinotte.free.fr/wordpress/?p=60
Quelles sont les différences entre les langage?
Spanish, la base de datos
http://fr.wikipedia.org/wiki/E%3Dmc2
X -> La position
P -> le Moment
H -> Le Constante de Planck
L’essence: On ne peut pas observer un objet sans changer son état, comme la position ou le Moment, en effet changé son état.
http://fr.wikipedia.org/wiki/Principe_d%27incertitude
Le croissance de la Mesh-Up Web.
Le Protocol REST contre Le Protocol SOAP
<Representation State Transfer>
Le REST est une stratégie pour construire un web du couplage faible ( http://fr.wikipedia.org/wiki/Couplage_faible ), sauf il n’utilise que les protocols HTTP (GET, PUT, POST, DELETE, ….)
http://fr.wikipedia.org/wiki/Hypertext_Transfer_Protocol
On a liberté de choisir entré JSON (Javascript Object Notation) et XML (Extensible Markup Language)
Facebook Graph API
Salesforce REST API
Twitter API
http://developers.facebook.com/docs/api
Pour quoi est-ce que le Cloud Computing important pour les étudiants informatique?
C’est très difficile à prévoir la demande.
Si nous sommes réussi avec la prédiction d’avenir, chaque personne doive jouer la loterie.
L’utilisation de système est jamais fois constant! Il régulé comme une fonctionne du temps.
-------------------------
This is a real usage graph from one of our financial services customers during the last week of April (They have asked to remain anonymous for competitive reasons). Firms on Wall Street are finding EC2 an ideal environment to run many of their daily mission critical grid computing and cpu bound applications for a couple key reasons: 1/ Flexibilitythe ability to instantly access hundreds/thousands of cores increases the amount of data they can process, improving the overall quality of their models. and 2/ Cost efficiencies, as they can complete more of their processing for less total spend (Not paying for infrastructure during times of the day and weekends when its not needed)
This wall street firm in particular has a nightly business process where they upload the day’s market trading data into S3, and then run proprietary ‘risk management’ algorithms. This lasts ~10 hours during week nights, where they ramp up to the equivalent 3000 m1.smalls.
During the day and on weekends, they maintain a base of roughly 300 cores, to handle their always on work loads.
La promesse du Cloud Computing – on pourrait / puisse obtenir les ressourcés de calcules sur la demande, par exemple, les mémoires vivantes, les processeurs, et les bandes passantes, si la nouvelle demande apparaît. C’est l’histoire ancienneté qu’on a besoins de acheté « les boîtes » - un autre nom pour l’ordinateur, parce qu’ils sont cher et aussi n’est pas souple -> Le prix pour l’investissement de équipements est élevé; et, les équipements deviennent aussi obsolete plutôt rapide.
Les ressourcés de calcule comme l'électricité. Je profite de l’énergie sans les problèmes d’opérer une centre électrique.
Les avantages:
Économiser -> le prix est variable et ne pas fixe. Pourquoi payer pour les choses dont vous n’avez pas besoin? Ce n’est pas de bon sens pour acheter les ressources dont on n’a pas besoins.
La vitesse est excellente – Les discs durs sont vraiment des fichiers. Il est plus rapide pour ouvrir / enregistrer une fichier que plusieurs fichiers.
Très fiable – J’ai plus confiance à « cloud computing » que mon ordinateur – la batterie, la température, les virus, … AWS a sa propre très bons systèmes sauvegardes que moi.
Monter à charger (Scalability) est très facile – On peut ajouter les ressources si on veuille.
Le processus est définitif est facile à documenter.
La technologie informatique dans les nuages est deviné comme une grande business pour touts les joueurs, par exemple,
IBM - http://www.ibm.com/ibm/cloud/
Amazon – La modelé classique
Microsoft – Azure (DotNet) - http://www.microsoft.com/windowsazure/
Google – (Python) http://code.google.com/appengine/
Oracle – (Oracle S/W on Sun hardware) http://www.oracle.com/us/products/middleware/exalogic/index.html
D’abord, je vous présente la modelé classique. C’est la AWS, qui a commencé l’opération depuis 2002. Avec AWS, on a une Centre de traitement de données (datacenter) sauf le prix et les responsabilités. Presque toutes les activités managements, on peut commander par le Navigateur Web (browser). Par exemple:
Ajouter plusieurs de stockage
Démarrer/Redémarrer des novelle instances de la machine
Terminer une instances de la machine
Convertir une machine virtuelle par un fichier dans le formate de S3.
Attacher des nouvelles adressées à une machine virtuelle qui est tourner maintenant
Monter à charger par ajouter plusieurs machines virtuelles.
Après 2008, il y a plus de la trafique du web qui a origine du AWS que le site principal du Amazon.
Il y a plus de 103 milliards de S3 objets, depuis 2009.
Les éléments de AWS sont représentes par l’image au dessus. Pour expérimenter, il faut comprendre
EC2 – La machine virtuelle
S3 – La system du Storage
EBS – opérer comme un disc dur
Simple DB – Une base de données, qui est très simple sans schémas.
---------------------------------------------------------
Amazon Web Services is a set of primitive building blocks to enable developers to build applications and, ultimately, businesses, on our battle-tested infrastructure. So what kinds of building blocks do developers need?
First, you need compute resources. The Elastic Compute Cloud, or EC2, allows developers to rent virtual computers, running in our data centers, and pay for them by the hour. Provision as many as you need – 1, 10, 1000, for as long as you need them, and you pay only for what you use (starting at 10 cents/hour).
Next, you probably need somewhere to durably store and retrieve data. The Simple Storage Service, is, well, a simple storage service that allows to store and retrieve objects in the cloud using simple put and get API calls.
You might need to index and query for that data, or create other structured data that you want to query, which is what we built SimpleDB.
C’est le outil principal pour manager l’infrastructure AWS. L’interface est via le navigateur web.
Un autre outil de management par le navigateur web.
Une system virtuelle sans la tète – l’écran.
Les avantages pour l’université
Subvention pour recherché
Les crédits pour les cours
Faire les expérimentés – lancer et terminer les instances de la machine virtuelle. L’environnement est toujours propre et pas sale.
http://calculator.s3.amazonaws.com/calc5.html
Aspect Oriented Programming
Les avantages:
La vitesse
Le prix
La flexibilité
La processus pour monter à charger.
L’interface facile pour apprendre dans les minutes.
Ce sont les type différents de machine virtuelle.
Standard Instances
Well suited for most applications
Small Instance (Default) 1.7 GB of memory, 1 EC2 Compute Unit (1 virtual core with 1 EC2 Compute Unit), 160 GB of local instance storage, 32-bit platform
Large Instance 7.5 GB of memory, 4 EC2 Compute Units (2 virtual cores with 2 EC2 Compute Units each), 850 GB of local instance storage, 64-bit platform
Extra Large Instance 15 GB of memory, 8 EC2 Compute Units (4 virtual cores with 2 EC2 Compute Units each), 1690 GB of local instance storage, 64-bit platform
High-Memory Instances
Offer large memory sizes for high throughput applications, including database and memory caching applications
High-Memory Double Extra Large Instance 34.2 GB of memory, 13 EC2 Compute Units (4 virtual cores with 3.25 EC2 Compute Units each), 850 GB of local instance storage, 64-bit platform
High-Memory Quadruple Extra Large Instance 68.4 GB of memory, 26 EC2 Compute Units (8 virtual cores with 3.25 EC2 Compute Units each), 1690 GB of local instance storage, 64-bit platform
High-CPU Instances
Have proportionally more CPU resources than memory (RAM) and are well suited for compute-intensive applications
High-CPU Medium Instance 1.7 GB of memory, 5 EC2 Compute Units (2 virtual cores with 2.5 EC2 Compute Units each), 350 GB of local instance storage, 32-bit platform
High-CPU Extra Large Instance 7 GB of memory, 20 EC2 Compute Units (8 virtual cores with 2.5 EC2 Compute Units each), 1690 GB of local instance storage, 64-bit platform
EC2 Compute Unit (ECU) – One EC2 Compute Unit (ECU) provides the equivalent CPU capacity of a 1.0-1.2 GHz 2007 Opteron or 2007 Xeon processor.