La computación en nube es un modelo que permite, acceso ubicuo conveniente, a pedido de red a una compartida conjunto de recursos informáticos configurables (por ejemplo, redes, servidores, almacenamiento, aplicaciones y servicios) que se pueden aprovisionar rápidamente y puesto en libertad con mínimo esfuerzo de gestión o interacción proveedor de servicios. Este modelo de nube se compone de cinco características esenciales, tres modelos de servicio, y cuatro de despliegue modelos. Características esenciales: En la demanda de autoservicio.
1. CLOUD COMPUTING
La computación en nube es un modelo que permite, acceso ubicuo conveniente, a pedido
de red a una compartida conjunto de recursos informáticos configurables (por ejemplo,
redes, servidores, almacenamiento, aplicaciones y servicios) que se pueden aprovisionar
rápidamente y puesto en libertad con mínimo esfuerzo de gestión o interacción proveedor
de servicios. Este modelo de nube se compone de cinco características esenciales, tres
modelos de servicio, y cuatro de despliegue modelos. Características esenciales: En la
demanda de autoservicio. Un consumidor puede unilateralmente las capacidades de
prestación de computación, tales como el tiempo de almacenamiento y servidores de red,
según sea necesario de forma automática sin necesidad humana interacción con cada
proveedor de servicios. amplio acceso a la red. Capacidades están disponibles en la red y
acceder a través de norma mecanismos que promueven el uso de plataformas de cliente
delgado o grueso heterogéneos (por ejemplo, teléfonos móviles, tabletas, ordenadores
portátiles y estaciones de trabajo). Puesta en común de recursos. los recursos informáticos
del proveedor se combinaron para servir a múltiples consumidores utilizando un modelo
de múltiples usuarios, con diferentes recursos físicos y virtuales de forma dinámica
asignados y reasignados de acuerdo con la demanda de los consumidores. Hay un sentido
de ubicación independencia en que el cliente tiene en general ningún control o
conocimiento sobre la exacta ubicación de los recursos proporcionados pero puede ser
capaz de especificar la ubicación en un nivel superior de abstracción (por ejemplo, país,
estado, o centro de datos). Ejemplos de recursos incluyen el almacenamiento,
procesamiento, memoria y ancho de banda de red. elasticidad rápida. Las capacidades
pueden ser elásticamente aprovisionados y liberados, en algunos casos de forma
automática, para escalar rápidamente exterior e interior acorde con la demanda. Al los
consumidores, las capacidades disponibles para la provisión menudo parece ser ilimitada
y puede deba asignarse en cualquier cantidad en cualquier momento. Medido servicio.
sistemas de nubes controlan automáticamente y optimizar el uso de recursos mediante el
aprovechamiento una medición capability1 en algún nivel de abstracción apropiado para
el tipo de servicio (por ejemplo, almacenamiento, procesamiento, ancho de banda, y las
cuentas de usuario activas). El uso de recursos puede ser supervisar, controlar, e informó,
proporcionando transparencia, tanto para el proveedor como consumidor del servicio
utilizado. (Peter Mell, 2011)
Nube privada.
La infraestructura de la nube está preparada para el uso exclusivo de una sola
organización que comprende varios consumidores (por ejemplo, unidades de negocio).
Puede ser de propiedad, gestionados y operado por la organización, un tercero, o alguna
combinación de ellos, y que puede existir dentro o fuera de las instalaciones (Peter Mell,
2011)
Nube pública.
La infraestructura de la nube está preparada para el uso abierto por el público en general.
Puede ser propiedad, administrado y operado por una empresa, o una organización
2. gubernamental académica, o alguna combinación de ellos. Existe en las instalaciones del
proveedor de la nube. (Peter Mell, 2011)
Nube híbrida.
La infraestructura de la nube es una composición de dos o más nube distinta
infraestructuras (privada, comunitaria o pública) que siguen siendo entidades únicas, pero
están obligados junto con la tecnología estandarizada o propietaria que permite que los
datos y las aplicaciones la portabilidad (por ejemplo, la nube de ruptura de equilibrio de
carga entre las nubes). (Peter Mell, 2011)
BIG DATA
Big Data representa una nueva era en la exploración y utilización de datos, e IBM está en
una posición única para ayudar a los clientes a navegar esta transformación. Este libro
revela cómo IBM está aprovechando la tecnología de grandes volúmenes de datos de
código abierto, infundido con las tecnologías de IBM, para ofrecer una solución robusta,
de clase empresarial de la plataforma, seguro y de alta disponibilidad de datos grandes.
Se discuten - Las tres características definitorias de Big Data - volumen, variedad y
velocidad. Usted obtendrá una cartilla sobre Hadoop y cómo es el endurecimiento de IBM
para la empresa, y aprender cuándo debe aprovechar IBM InfoSphere BigInsights (Big
Data en reposo ) y IBM InfoSphere Streams ( Big Data en movimiento) tecnologías .
Casos de uso industria también se incluyen en esta guía práctica. Aprender cómo IBM se
endurece Hadoop para la escalabilidad de clase empresarial y la idea de ganancia en la
fiabilidad de IBM única en movimiento y en reposo plataforma de análisis de grandes
volúmenes de datos a aprender consejos y trucos para grandes volúmenes de datos de
casos de uso y soluciones Obtener una cartilla rápida Hadoop (Paul Zikopoulos, 2011)
ANÁLISIS BASADO EN HADOOP
La monitorización y el análisis del tráfico de red cobran gran importancia cuando se trata
de optimizar los recursos de red y mejorar la experiencia de los usuarios. Las técnicas
habituales utilizan un único servidor que, a pesar de ser de alto rendimiento, consta de
unos recursos limitados y no es escalable para el análisis exhaustivo de grandes
volúmenes de datos. Por ello, una paralelización del trabajo puede resultar útil a la hora
de realizar este tipo de tareas.
El proyecto Apache Hadoop, junto a todas las herramientas que surgen a su alrededor,
proporciona una plataforma para la computación distribuida de Big Data de forma
escalable y fiable. El objetivo de este trabajo es la evaluación tanto del rendimiento de
dicho proyecto como de las posibilidades que ofrece en el contexto de la monitorización
y el análisis de redes. Con este propósito, se ha creado una herramienta basada en Hadoop
para la captura, el almacenamiento, el procesamiento y el análisis de grandes cantidades
de tráfico de red. Para probar el funcionamiento del sistema propuesto, se ha utilizado
tráfico real obtenido de la red de los laboratorios docentes de la Escuela Politécnica
Superior de la Universidad Autónoma de Madrid.
3. Se ofrece también la posibilidad de utilizar una interfaz web para definir y ejecutar
consultas de forma interactiva, con las que realizar la parte del análisis. Se propone la
herramienta Apache Hive para el desarrollo de esta parte, ya que su lenguaje de
programación, basado en SQL, permite consultar de forma distribuida grandes cantidades
de datos. Esto facilita la labor de los administradores de red, pues disponen de una forma
sencilla de definir consultas en función de sus necesidades. Para evaluar la capacidad del
sistema creado se han realizado varios análisis sobre las diferentes fuentes de información
disponibles. Estos han permitido generar estadísticas del uso de la red, detectar errores en
sus componentes y realizar predicciones sobre el patrón de uso de la misma. Por último,
se ha comparado el rendimiento de la herramienta propuesta con el de las soluciones
actuales. Los resultados experimentales muestran que, con un pequeño clúster, se puede
conseguir un tasa de procesamiento superior a 7 Gbps (7 109 bits por segundo),
mejorando el rendimiento de las herramientas más potentes disponibles en la actualidad.
(García-Valcárcel Sen, 2015)
STREAM COMPUTING
S4 es una de propósito general, plataforma distribuida y escalable, parcialmente tolerante
a fallos, conectable que permite a los programadores desarrollar fácilmente aplicaciones
para el procesamiento de flujos continuos sin límites de datos. acontecimientos de datos
por clave se encaminan con afinidad al tratamiento Elementos (PSE), que consumen los
eventos y realice una o ambas de las siguientes: (1) emite uno o más eventos que pueden
ser consumidos por otras empresas públicas, (2) publicar los resultados. La arquitectura
se asemeja al modelo de Actores, proporcionando semántica de encapsulación y
transparencia de ubicación, permitiendo así que las aplicaciones sean masivamente
simultánea mientras se expone una interfaz de programación sencillo para los
desarrolladores de aplicaciones. En este trabajo, se describe la arquitectura S4 en detalle,
se describen diversas aplicaciones, incluyendo las implementaciones de la vida real.
Nuestro diseño es impulsado principalmente por aplicaciones a gran escala para la
minería de datos y aprendizaje automático en un entorno de producción. Se demuestra
que el diseño S4 es sorprendentemente flexible y se presta para funcionar en grandes
conglomerados construidos con hardware comercial. (Neumeyer, 2010)
ALMACENAMIENTO DE DATOS
Tecnologías que son tierra sobre todo en la minería de datos y análisis estadístico. Como
se mencionó anteriormente, la mayoría de estas técnicas se basan en la tecnologías
comerciales maduras de DBMS relacional, los datos almacenamiento, ETL, OLAP, y
BPM Desde finales de la década de 1980, varios algoritmos de minería de datos tienen
sido desarrollado por investigadores de la inteligencia artificial, algoritmos, bases de
datos y las comunidades. En el IEEE 2006 Conferencia Internacional sobre Minería de
Datos (ICDM), el 10 la mayoría de los algoritmos de minería de datos se basaron
influyente identificado en las nominaciones de expertos, el número de citas, y una
comunidad encuesta. En orden de rango, son C4.5, k-medias, SVM (Máquinas de
vectores soporte), A priori, EM (maximización de la expectativa), PageRank, AdaBoost,
4. kNN (k-vecinos más cercanos), Naïve Bayes, y CART (Wu et al., 2007). estos algoritmos
clasificación de la cubierta, la agrupación, el análisis de regresión, de asociación, y
análisis de redes. La mayoría de estos minería de datos populares Los algoritmos se han
incorporado en comercial y abierto sistemas de minería de datos de origen. (Chiang, 2012)
Bibliografía
Chiang,R. H. (2012). BUSINESSINTELLIGENCEANDANALYTICS:FROMBIGDATA TO BIG
IMPACT. Cincinnati:EllerCollegeof Management.
García-Valcárcel Sen,R.(Juniode 2015). Biblos-E.Obtenidode RepositorioUAM:
http://hdl.handle.net/10486/668990
Neumeyer,L.(2010). DistributedStreamComputingPlatform. IEEEInternational,170 - 177.
Paul Zikopoulos,C.E.(2011). Understanding Big Data:AnalyticsforEnterpriseClass Hadoop
and Streaming Data. McGraw-Hill Osborne Media.
PeterMell,T.G. (2011). The NISTDefinition of Cloud. Gaithersburg:National Institute of
Standardsand Technology.