SlideShare una empresa de Scribd logo
1 de 20
Descargar para leer sin conexión
pág. 1
Resumen – El presente documento nace como un intento de
ordenar el conjunto de ideas que llevo años desarrollando. Al
final, por falta de tiempo o de conocimiento no las he podido
desarrollarlas en la medida que me hubiera gustado, pero
aun así he decido escribirlas y organizarlas de forma que
puedan servir de base para mis futuros desarrollos. O en su
defecto, que otras personas puedan interesarse por algunas
de las partes y desarrollarlas de la forma que crean
conveniente. Sobra decir que todas las reflexiones y conte-
nidos son totalmente personales por lo que probablemente no
sean acertados, pero aprovechándome de la licencia que el
papel me permite, desarrollaré esta visión teórica del
futuro/presente de la tecnología en base a mis conocimientos
actuales y sesgos intelectuales.
Index – Learning organization, Learning & Innovation Society,
BizDevOps, DataOps, Arquitectura Informacinal, Ambient
Intelligent, AIOps, VUCA.
I. INTRODUCCIÓN.
Hace ya 25 años que leí uno de los libros que marcarían mi
forma de pensar a lo largo de todos estos años. “Stephen
Hawking y la búsqueda de una teoría del universo”, es un
pequeño libro que describe de forma magistral la búsqueda de
una teoría física unificada que englobe al resto. Habla de las
problemáticas que han ido surgiendo con cada una de las
teorías y como han conseguido ir juntando unas con otras
para, poco a poco, conseguir una visión global de las leyes
que describen la naturaleza. Salvando las distancias, esta idea
de ir juntando todas las ideas y teorías para conseguir un
argumento general es lo que siempre me ha movido para
aprender diferentes materias que a priori no parecen tener
relación y al final convergen en diferentes puntos de vista de
unas ideas generales que emergen como entidades
transversales a numerosos campos. Siguiendo este argumento,
voy a exponer un desarrollo conceptual que englobará ideas
de diferentes campos que podemos unir para construir el
relato del dominio en el que nos moveremos al largo de la
exposición. De ahí pasaré a describir las diferentes entidades
tecnológicas, que, a día de hoy, creo que serán los principales
agentes de cambio de los procesos de negocio presentes y
futuros y terminare con unas conclusiones básicas.
Durante los diferentes apartados intentaré dar una visión clara
y concisa de los diferentes conceptos y definiciones que nos
servirán de base para la construcción de la ontología propia
que le dé sentido a la visión global que expondré. En cierta
medida es más importante que tengamos claro cuál es el
domino en el que nos movemos y que significado tienen los
conceptos en este contexto que la propia exactitud de las
definiciones. Las definiciones siempre las debemos
considerar como algo mutable que se ajusta al contexto en el
que se proponen. Lo mismo sucede con las metodologías,
marcos de referencia y estándares, son herramientas
conceptuales que debemos adecuar y asimilar en nuestro
dominio de actuación, modificando todo aquello que no
encaje con nuestra visión. Al final los conceptos estarán bien
o mal, deberán evolucionar o cambiar, pero lo que realmente
nos debe preocupar es que todos los participantes entendamos
lo que los términos (meras representaciones lógicas) quieren
decir y en qué contexto. A priori, la idea parece sencilla …,
pero en la práctica es bastante difícil de implementar.
Para abordar las ideas dividiré el documento en diferentes
partes. En una primera, hablare sobre mi visión del futuro de
las empresas tecnológicas dentro de un panorama VUCA y
cómo afecta este, a las características que deberán presentar
las personas que trabajen en ellas.
Ilustración 1 Modificación de: Caos, orden y finalidad en las
ilustraciones de Samuel Gómez Source:
http://arteaunclick.es/2015/01/26/samuel-gomez-grafito-dibujo-
ilustracion/
En mi contexto entenderemos el concepto de VUCA como un
entorno volátil, incierto, complejo y ambiguo donde la
empresa deberá desempeñar sus operatorias y funciones.
Después presentaré el concepto de learning & innovation
Society(LIS) como la expresión utópica de lo que la sociedad
debería ser para afrontar los escenarios empresariales futuros.
En ellos las organizaciones deberán convertirse en un tipo de
empresa denominado learning organization para poder
abordar de la forma más eficiente posible los escenarios
VUCA.
Una vez entendido el contexto y algunas de las definiciones
pasaremos a ver el apartado de las tecnologías, en el que me
centrare en describir las denominadas “GPT” o general
purpose tecnology. Estas tecnologías presentan cualidades
intrínsecas que las hacen muy interesantes para el modelado
de los futuros procesos que implementarán las
organizaciones. Hasta hace pocos años sólo elementos como
la máquina de vapor o la electricidad han sido consideradas
como GPTs, pero en las últimas décadas, y gracias al impulso
de la industria 4.0, las tecnologías digitales están pasando a
considerarse en esta categoría. Ya no quedan dudas que la
introducción de estas nuevas tecnologías en la industria
permitirá cambiar la forma de fabricación. Ahora bien, el reto
que se nos plantea es ser capaces de identificar tecnologías
con esta capacidad de transformación. Durante el documento
Futuro Tecnológico. Una visión teórica.
Victor Martinez Bahillo (victor.martinez@versia.com)
Versia Tecnología Emergentes
pág. 2
desarrollaré las GPTs en las que creo que podremos aportar o
en su defecto desarrollar e implementar. En el siguiente
esquema podemos ver u resumen de ellas.
Ilustración 2 Cuadro de GPT seleccionadas.
Dentro de las GPTs que expondré, encontraremos tecnologías
como X Data Space, arquitectura que englobará el Data
Informed && Data driven que será implementado por un
DaaS siguiendo una cultura DataOps; Smart Dapp como
diseño de aplicaciones descentralizadas apoyadas en entornos
de blockchain transversales; security by disign como
elemento diferenciador en un mundo ultra-conectado y la
hyper-convergencia & cloud systems como exponente
máximo de la transformación de las arquitecturas físicas
empresariales. Para terminar la parte de tecnologías me
centrare en el ambient intelligent donde trataré uno de los
temas más interesantes de estos últimos años, los procesos
adaptativos impulsados por la inteligencia artificial(IA) así
como las derivadas que estas tecnologías introducirán en
entornos como la operación de los sistemas (IAOps).
Describiré de una forma superficial el mundo tan interesante
que se nos presenta al producirse la intersección entre la IA y
la cognición humana. Un mundo en el que las tecnologías se
funden con el ambiente ofreciéndonos un nuevo mundo de
posibilidades.
Después de describir las tecnologías de propósito general
seleccionadas pasaré a desarrollar los conceptos de
BizDevOps y DataOps como culturas de trabajo que nos
ayudarán a marcar las pautas de los cambios que necesitamos
para llegar a intentar conseguir una learning organization.
Por un lado, BizDevOps es considerado el DevOps 2.0 y está
cambiando la forma en la que las compañías implementan el
nuevo software. Las implementaciones se lanzan en
alineación casi perfecta con los objetivos comerciales de la
empresa, así como con los requisitos de seguridad y
cumplimiento. BizDevOps integrará a los gerentes y
directores empresariales en el ciclo de vida DevOps, creando
un flujo de trabajo simplificado desde la estrategia
empresarial hasta la implementación y el mantenimiento.
Imaginemos por un segundo, al responsable de ventas,
lanzando de forma automática la puesta en producción de la
1
La entropía es el grado de desorden y caos que existe en un sistema. Es el
segundo principio de la termodinámica que puede definirse
esquemáticamente como el “progreso para la destrucción” o “desorden
campaña que han diseñado… sin intervención de ningún
integrante del equipo TI.
Por otro, DataOps propone desde su base filosófica la
democratización del dato y gestionar los datos a lo largo de
los diferentes departamentos y perfiles. Técnicamente se
define como un marco de colaboración empresarial que alinea
los objetivos de gestión de datos con los ideales de consumo
de datos para maximizar el valor de los datos derivados.
DataOps explotara la cadena de suministro de información
para crear un flujo de producción de datos optimizado para la
eficiencia, la velocidad y la obtención de resultados. Durante
el apartado veremos algunos conceptos claves como la
arquitectura informacional, Data Lakes y DaaS (Data as a
Service).
Para terminar esta introducción, quiero recalcar que todo lo
expuesto a continuación son simplemente ideas que
conformar mi propia visión de contexto, la cual va
evolucionando y mutando, incluso mientras escribo este
documento ….
II. NUEVO MODELO.
Nunca me ha interesado mucho el modelo organizacional de
las empresas, ni el conjunto de complejas relaciones
interdepartamentales que se construyen en ellas, pero para
poder crear arquitecturas que se ajusten a sus necesidades hay
que entenderlas. A mí me gusta pensar en ellas como
organismos vivos que luchan contra el aumento de
entropía1
(desorden) que las devora por dentro. Por definición
todo sistema tiende a aumentar la entropía y para tratar de
evitarlo utilizan los recursos del ecosistema para mantenerla
contenida. En el momento que aparecen condiciones en el que
no se puede mantener la entropía controlada, el sistema muere
o desaparece. Cambiemos empresa por vida y tendremos una
buena definición de la misma, “Sistema que lucha contra la
entropía aprovechándose de los recursos del medio”.
En el contexto empresarial tanto las condiciones del entorno
como las patologías internas pueden llevar a un desequilibrio
de la entropía con fatales consecuencias. Ser capaces de
detectar estos factores es algo complejo y más aún en el
escenario que nos movemos actualmente. Para describirlo se
ha rescatado un término muy interesante denominado VUCA,
acrónimo utilizado por primera vez por el Ejército de Estados
Unidos para definir el mundo posterior al colapso del bloque
comunista al comienzo de la década de los noventa. El
término responde al acrónimo ingles formado por los términos
Volatily(V), Uncertainly(U), Complexity(C) y ambiguity(A) y
se caracteriza por ser un escenario en el que las empresas se
ven en la obligación de adaptarse a los continuos cambios que
atacan su programación estratégica y sus rutinas
profesionales. Podemos desarrollar los diferentes términos de
la siguiente forma:
• Volatilidad(V). La naturaleza y la dinámica de los
cambios, así como la velocidad y el volumen con los que
se están produciendo, transforman los escenarios de
inherente a un sistema”. En este contexto el caos es la nada y significa la
máxima indiferenciación de un sistema (Cesarman: 1982).
pág. 3
manera inesperada y constante. La realidad social se
mueve a una velocidad que no siempre coincide con la
agilidad que muestran las estructuras empresariales que
deben enfrentarse ante un estado de inestabilidad
permanente con escaso tiempo para reaccionar.
• Incertidumbre(U). Intentamos categorizar soluciones
usando modelos y estableciendo patrones predecibles.
Pero el ritmo frenético marcado por la volatilidad origina
una falta de previsibilidad y una gran incerteza al no
saber cómo y qué factores se van a desarrollar y cómo
nos pueden llegar a influir. Los escenarios no pueden ser
anticipados, lo que dificulta nuestra capacidad de
conceptualizar las amenazas o de detectar
oportunidades, por lo que las decisiones tienen cada vez
un mayor componente de incertidumbre. Las soluciones
de ayer no son útiles para los desafíos de hoy. Los
acontecimientos pasados ya no son predictores del
futuro, lo que dificulta la previsión y la toma de
decisiones y nos obliga a reinventarnos constantemente.
Además, siempre se nos olvida que los sistemas
complejos no son predecibles por naturaleza ya que
están sujetos a la teoría del cisne negro de Nassim
Nicholas Taleb2
.
• Complejidad(C). El grado de complejidad de los
problemas y la variabilidad en cuanto a las posibles
soluciones se incrementan. Cada vez es más complejo
entender la relación entre diferentes elementos que se
interrelacionan entre sí, cuando se pierde la conexión
entre la cadena causa-efecto, lo que genera confusión y
desconcierto.
• Ambigüedad(A). Aumenta la confusión y la falta de
claridad a la hora de determinar cuáles son los factores
o las variables que determinan un hecho o suceso. Cada
vez es más difícil discernir la realidad y existen más
significados posibles de esta, con lo que se genera un
potencial de diversidad de interpretaciones y
significados mixtos. La ambigüedad conduce
principalmente a la ineficiencia e inyecta una alta dosis
de inseguridad que puede ser una de las principales
causas de conflicto en las organizaciones; a su vez,
puede convertirse en un peligro ante la incapacidad de
conceptualizar con precisión las amenazas, antes de que
se conviertan en letales para la organización, o de
detectar las oportunidades.
Creo que podemos llegar a afirmar que las empresas del hoy
y del mañana se moverán en este ambiente caótico, turbulento
y rápidamente cambiante que define la nueva normalidad.
Dicho esto, las empresas deberán de prepararse para ello
mediante la adquisición de nuevas competencias y
habilidades que les permitirán generar antídotos mentales y
organizativos de cara a afrontar estos nuevos entornos. En esta
2
La Teoría del Cisne Negro o Teoría de los Eventos del Cisne Negro, es una
metáfora que encierra el siguiente concepto:
- El evento es una sorpresa para el observador pues está fuera de las
expectativas normales pues no existe ningún evento en el pasado que
apunte de forma convincente a su posibilidad;
- Tiene un impacto extremo con importantes consecuencias en nuestras
vidas;
línea Bob Johansen3
, del Institute for the Future, propone que
las empresas deberán trabajar en la visión, comprensión,
claridad y agilidad de la siguiente forma:
• Una buena forma de afrontar la volatilidad es contar con
una visión clara de futuro. Comprender e intuir lo que
viene permitirá a las organizaciones anticiparse,
prepararse y adoptar nuevos enfoques. Pero no se trata
solo de conocimiento y comprensión, sino de un cambio
de actitud y, sobre todo, de un cambio de mirada y de
una nueva manera de pensar que permita formular las
preguntas y los enfoques adecuados. Tener visión es
contar con una dirección clara; significa una actitud
proactiva que trabaja para diseñar nuestro propio futuro,
no para enfrentarnos al que creen otros. Una visión
compartida con toda la organización que inspire y alinee
los esfuerzos en esa dirección.
• Una de las mejores maneras de afrontar la incertidumbre
es con entendimiento y conocimiento. Para ser eficientes
en entornos VUCA, las empresas deberán tener una
mentalidad abierta para explorar y pensar de manera
divergente huyendo de modelos preestablecidos.
Además, deberán fomentar una formación constante en
un entorno en el que los nuevos avances tecnológicos
hacen necesaria una actualización casi inmediata de los
conocimientos.
• Claridad. Frente a la complejidad, buscar la simplicidad,
analizar y comprender la complejidad en sus diferentes
perspectivas desde un enfoque holístico de los
problemas que nos permitirá tomar decisiones más
eficaces. Para ello se requiere una toma de decisiones
empresariales más informadas. Invertir en información,
recolectarla, interpretarla y compartirla, monitorizar
datos y tendencias nos permitirá arrojar claridad ante la
complejidad. La empresa que mejor informada esté, que
mejor sistema de información y traducción de los datos
en conocimiento posea, tendrá más posibilidades.
• La ambigüedad se puede contrarrestar con agilidad,
capacidad de comunicarse a través de la organización y
moverse rápidamente para aplicar soluciones. Ante un
entorno tan imprevisible, la rápida capacidad de
reacción ante los acontecimientos es más importante que
la planificación. La flexibilidad de las empresas es un
gran indicador de las posibilidades de adaptación al
cambio y de la capacidad para aprovechar las
oportunidades. Las empresas deben mudar sus
estructuras tradicionales, con estructuras verticales y
cultura rígida y estanca, hacia modelos menos rígidos
que permitan amoldarse mejor a las oportunidades e
innovaciones que se presentan en los escenarios de
incertidumbre.
- Después del hecho, el evento es racionalizado por retrospección como
si pudiera haber sido esperado (por ejemplo, los datos estaban
disponibles, pero no se los tuvo en cuenta). En otras palabras, no
podemos predecirlo, pero, una vez que ocurre, pensamos que lo
“veíamos venir”.
3
Autor de Leaders Make the Future: Ten New Leadership Skills for an
Uncertain World.
pág. 4
Mirando los modelos de empresa actuales y teniendo en
cuenta tanto el entorno VUCA, como las características que
tienen que presentar, he llegado a la conclusión de que las
learning organization puede ser un buen modelo que encaje
bien con estas necesidades. Las learning organization facilitan
el aprendizaje de todos sus miembros, compartiendo
globalmente la información y experimentando en sí misma
una transformación constante. Este tipo de organizaciones se
caracterizan por presentar la innovación, conocimiento
compartido, resiliencia y adaptabilidad como características
principales. La innovación no solo está en su ADN, sino que
forma parte de su fenotípica4
que es bastante más interesante
ya que hace referencia a la expresión física de dicha
característica. El conocimiento compartido (shared learning)
es la base de funcionamiento. Todas las personas disponen de
los mejores datos disponibles para tomar las decisiones que se
encuentran en su día a día. El enfoque de resiliencia hace
referencia a la capacidad de dirigir la mirada hacia la
posibilidad de identificar los recursos usados por la empresa
para mejorar y crecer, sobre todo en circunstancias adversas.
La capacidad de adaptarse a los diferentes desafíos que se
plantean sobre su planificación estratégica proviene de su
agilidad y flexibilidad propiciado tanto por su tecnología
como por el perfil de sus personas.
Este último punto, las personas, es clave para el buen
funcionamiento de las learning organization. La imposición
de procedimientos y herramientas no crea la cultura necesaria
para llevar a buen término este tipo de organizaciones. Se
necesita gente a la que le guste estar en continuo aprendizaje
y que sepa adaptarse a las diferentes situaciones. La búsqueda
del conocimiento y la eficiencia debe ser continuo, voluntario
y auto-motivado por razones personales o profesionales. Con
este tipo de personas se creará una cultura que arrastrará al
resto de personas que se unan. Actualmente a este tipo de
personas se las denomina con el término “Lifelong learning
persons” y son las que pueden marcar la diferencia en el
futuro. Desde las instituciones educativas deberíamos estar
trabajando en formar personas con estas capacidades.
Llegado este punto ya comenzamos a tener algunos conceptos
interesantes, pero vamos a introducir una idea esencial que
nos permitirá unirlos todos: El pensamiento sistémico. Esta
forma de pensar es inherente a las learning organization y nos
enseña a ver totalidades en lugar de partes. Nos ayudará a
tener esa visión global que nos ayudará a contrarrestar la
volatilidad. Permite que las personas vean más allá de sus
competencias diarias y puedan ver los objetivos de conjunto
permitiéndoles ser partícipes activos en la modelación de la
realidad dentro de sus márgenes de contexto. A priori, esta
afirmación puede parecer banal, pero pequeños cambios en
los procesos pueden producir grandes disrupciones en el
funcionamiento global.
Si utilizamos esta forma de pensar, rápidamente llegamos a la
conclusión de que las empresas no son sistemas aislados sin
dependencias del exterior, sino que forman parte de
complejos tejidos empresariales que se interrelacionan de
muy diversas formas. Tanto entre ellas como con el resto de
componentes del mundo. Ahora bien, ¿qué pasaría si
4
En biología y específicamente en genética, se denomina fenotipo a la
expresión del genotipo en función de un determinado ambiente. No importa
que este en tu ADN, sino se expresa de forma correcta.
reconvertimos este enjambre de empresas en una red de
learning organizations en la que trabajen Lifelong learning
person?
La respuesta es harto compleja, pero a mí me gusta pensar que
pasaríamos a un nuevo modelo al que podríamos denominar
Learning & Inovation Socity. Una sociedad formada por
empresas que nacen, se desarrollan y que son capaces de
adaptarse a los entornos VUCA de forma ágil. En este entorno
lo importante sería la supervivencia de la sociedad que gracias
a sus capacidades de aprendizaje y adaptabilidad son capaces
de llevar adelante o de reinventar las empresas incluso en
entornos adversos y cambiantes.
Se que esta es una visión utópica de la realidad futura, pero
me gusta pensar que gracias a las nuevas tecnologías que
promueven las GPTs podremos ayudar a que esta realidad se
materialice.
Ilustración 3 Learning & Innovation Society (LIS).
No quisiera terminar esta parte sin hablar de la palabra
“Innovation” que aparece en la nomenclatura del nuevo
modelo. Esta palabra sirve de conexión con la sociedad del
conocimiento que la Unión Europea desea alentar como
modelo de desarrollo. La innovación y el desarrollo
tecnológico constituyen la pieza clave, porque a través de
ellos se podrá manifestar el valor económico del
conocimiento. Por esta razón debemos de tener presente que
sólo las sociedades sensibles a las demandas de innovación
tecnológica, y a su valor social y cultural, serán
verdaderamente capaces de asegurar un mejor futuro para sus
miembros.
III. NUEVAS TECNOLOGIAS.
Durante los últimos años las Tecnologías han evolucionado
de forma exponencial haciendo prácticamente imposible
conseguir tener una visión global de las mismas. Sin esta
visión global se hace muy difícil poder identificar las
tecnologías con capacidad de convertirse en GPTs (General
Purpose Technologies) por lo que muchas veces se realiza una
aproximación no tanto a la tecnología si no a la corriente que
impulsa. Por ejemplo, describiré “ambient Intelligent” como
GPT sabiendo que son las diferentes técnicas de IA e IoT las
pág. 5
verdaderas GPTs. Aclarado esto punto, diremos que estas
tecnologías presentan cualidades intrínsecas que las hacen
muy interesantes para el modelado de los futuros procesos que
implementarán las organizaciones. Hasta hace pocos años
sólo elementos como la máquina de vapor o la electricidad
han sido consideradas como GPTs, pero en las últimas
décadas, y gracias al impulso de la industria 4.0, las
tecnologías digitales están pasando a considerarse en esta
categoría.
Según Bresnahan y Trajtenberg (1996) podremos identificar
las GPTs en base a las tres características principales que
presentan:
• Se caracteriza por su “aplicabilidad general, esto es, por
el hecho de que realiza alguna función genérica que es
vital para el funcionamiento de un gran número de
productos de uso o sistemas de producción”
• “Exhibe un gran dinamismo tecnológico: esfuerzos de
innovación que incrementan en el tiempo la eficiencia
con la cual la función genérica es realizada”
• Presenta lo que podría llamarse “complementariedad
innovativa”, es decir, una capacidad de potenciar
innovaciones en los sectores de la economía en los que
se aplica.
Es importante señalar que las GPT no son sólo nuevas
tecnologías, sino que pueden ser el resultado de una nueva
manera de combinar las tecnologías ya existentes.
A diferencia de las tecnologías de utilidad simple, que ofrecen
soluciones de uso inmediato y completo, las tecnologías de
utilidad general (GPT), aunque son aplicables en muchos
sectores y campos de actividad, no son generalmente de uso
inmediato. Suelen necesitar un tiempo de maduración y
entendimiento. Es normal que estas tecnologías de propósito
general desencadenen una trayectoria de crecimiento
desigual, que comienza con una desaceleración prolongada
seguida por una aceleración rápida (Helpman, 2004: 51). La
“desaceleración prolongada” se refiere al período de
reorganización, rediseño de instituciones y aprendizaje que
exigen las transformaciones necesarias para la asimilación de
una nueva GPT dentro de las organizaciones y empresas.
Siguiendo esta idea de las GPTs, me propuse seleccionar
algunas que pudieran ser la base de un departamento de
análisis de tecnologías emergentes. Después de ver cuales
podían encajar mejor con el área que desarrollamos, escogí las
que se representan a continuación5
.
5
Si no estuviera condicionado por las necesidades de la empresa hubiera
eliminado alguna y desarrollado otras como la bioinformática.
Ilustración 4 Esquema de GPTs seleccionadas.
Dentro de las GPTs seleccionadas encontramos Hyper-
convergencia y Security by design que no desarrollaré de
forma individual ya que abordan tecnologías que ya se están
desarrollando actualmente de forma masiva. Por un lado, la
hyper-convergencia hace referencia al cambio de paradigma
a nivel hardware que están sufriendo las arquitecturas físicas
de TI. Se están pasando de arquitecturas de tres capas en las
que teníamos comunicaciones, almacenamiento y servidores
a arquitecturas de dos capas con comunicaciones y servidores.
Esto es gracias al desarrollo exponencial que han sufrido los
tipos de disco y la aparición de nuevas tecnologías de creación
de clúster distribuidos. Aunque el tema es muy interesante, no
me extenderé más ya que las ideas implícitas ya no son muy
innovadoras. Por otro lado, tenemos el security by design que
es una forma de expresar la integración de la capa de
seguridad en todos los estadios de implementación y
despliegue de un producto. En este punto yo tengo muchas
dudas, ya que considero que no deben ser los técnicos de
seguridad los que impongan las configuraciones de seguridad
al resto de equipos de TI, sino que deben ser cada uno de los
equipos responsables de asegurar cada uno de sus entornos. Si
que veo al equipo de seguridad como un QA que realice
pruebas de seguridad sobre los artefactos liberados por el resto
de los equipos, pero siempre manteniendo la responsabilidad
última en los equipos de los entornos y nunca traspasándola
al equipo de seguridad. La mayoría de los errores de seguridad
derivan de una mala configuración que deberían conocer los
expertos de ese entorno.
Durante los siguientes capítulos trataré de explicar las GPTs
que a mi modo de ver son más interesantes:
• X Data Space.
• Smart Dapps.
• Ambient Intelligent.
Consciente de que los tres conceptos seleccionados son muy
amplios, trataré de dar simplemente algunas pincelas ya que
un desarrollo completo se escapa a las pretensiones de este
documento. Recomiendo ver la parte de bibliografía donde
encontraremos enlaces a documentaciones interesantes sobre
los diferentes temas.
pág. 6
IV. X Data Space.
Antes de poder entrar a definir X Data Space y lo que tratamos
de hacer con los datos dentro de la organización, deberíamos
de tener una idea básica de los que es un sistema
informacional y cuáles son sus componentes lógicos.
¿Como se organiza y mueve la información?, ¿qué niveles
de organización existe? ¿Cuál es su objetivo?
Normalmente no suelo tener clara la respuesta a estas
preguntas, pero lo que sí que tengo claro es que los sistemas
que manejan la información de una organización deben ser
mecanismos ágiles, con una gran capacidad de adaptación
frente a los cambios del entorno y de los propios
departamentos, que aseguren la eficacia del resultado a la hora
de alcanzar los objetivos marcados y eficiente respecto al uso
de recursos, sobre todo de la información. En este contexto
podemos ver la información como un ente material de gran
valor que circulará por toda la organización como si fuera un
fluido, por cauces formales e informales y en sentido tanto
horizontal como vertical. Entendido esta visión, el sistema de
información será la estructura organizativa que debe
administrar dichos flujos de información con la máxima
eficacia y eficiencia en su recolección, procesado,
almacenamiento y distribución.
Ya tenemos la definición, pero necesitamos entender cuál son
sus partes para poder traspasarlo a tecnología. Los
componentes principales que podemos encontrar son:
• El subsistema operativo.
• El subsistema Informacional o Decisional.
Ilustración 5 Los sistemas de la información en la arquitectura
empresarial.
El subsistema operativo será la base del sistema de
información y es básico en la organización de los
departamentos. En este subsistema se procesan los datos
referentes a las actividades rutinarias de los departamentos,
las cuales tienen que ser fiables, coherentes y con un tiempo
de respuesta relativamente pequeño. Este subsistema lo
integran los sistemas de procesamiento transaccional (TPS)
que son las aplicaciones básicas para la actividad de los
departamentos que desarrollan, de forma automática,
funciones como por ejemplo: Guías, ayudas, Facturación,
Control de Costes, Gestión de persona o recursos, …. Desde
este nivel se tomaran la mayoría de las decisiones operativas.
Por otro lado encontraremos el subsistema informacional o
decisional, que constituye un apoyo a los distintos procesos
de la toma de decisiones que impliquen a más de un
departamento e incluso a nivel estratégico. Para los diferentes
departamentos la información es imprescindible a la hora de
acometer un proceso decisional de forma lógica, variando ésta
en función del tipo de decisión a la que se hace frente. La
función de este subsistema será proporcionar la información,
tanto en cantidad como calidad, necesaria para los distintos
procesos decisionales de la empresa. En este subsistema no se
procesarán transacciones, sino información. Estaremos dentro
del Sistema de información gerencial (MIS). En este sistema
se extraeran datos, depositados en los TPS, así como alguna
información específica para cada proceso decisional,
posibilitando una mejor evaluación y elección de las
alternativas en una toma de decisiones. Al ser capaz de
integrar información con distintas procedencias permite
proporcionar información multifuncional y agregada sobre las
actividades de los departamentos. Estas salidas del
subsistema, junto a las herrameintas informáticas de ayuda y
soporte a la decisión, constituirán el subsitema Informacional
(ó decisional). Este subsistema lo dividiremos a su vez en dos:
• Los sistemas de Ayuda. Estos sistemas nos ofrecen
información seleccionada configurando informes
agregados resumidos, que nos servirán como ayuda a la
toma de decisiones estratégicas y tácticas. Tienen un
carácter enunciativo, ya que no sugieren una solución
específica a un problema concreto, sólo nos ofrece un
fácil y cómodo acceso a la información.
• Los sistemas de soporte. Estos sistemas utilizarán la
información que suministrarán los subsistemas
operativos y los sistemas de ayuda para considerar las
distintas alternativas y los escenarios resultantes de cada
una de ellas, ofreciendo ayuda a la resolución de
problemas, sobre todo las de carácter táctico y
estratégico (e incluso operativo), pudiendo llegar incluso
a proponer una decisión. Aquí situaremos los Sistemas
de Soporte a las Decisiones (DSS).
Definir así los sistemas informacionales nos abre la puerta a
entender como poder separar las tecnologías que se encargan
de nuestra parte operativa de la que nos da soporte decisional.
Parece trivial pero esta forma de entender los sistemas
informacionales nos ayudará a proponer las tecnologías de
otra forma dando la sensación de que entendemos el contexto
en él nos movemos.
Después de este análisis superficial de los sistemas
informacionales pasamos a ver lo que nos pueden aportar los
X Data Space.
X Data Space no es más que un término de fabricación propia
derivado del concepto de Industrial Data Space. Este concepto
hace referencia a la forma de compartir los datos de forma
segura entre diferentes organizaciones y de cómo se
interrelacionan todos los elementos que participan en este
proceso. Cogiendo esta idea, podemos subir un nivel más el
concepto para que englobe todo el tratamiento de los datos en
las organizaciones y lo denominamos “X Data Space”. La X
pág. 7
la podemos sustituir por cualquier entorno en el que nos
movamos, Organization Data Space, Open Data Space,
Government Data Space; pueden ser algunos ejemplos.
X Data Space es un concepto muy amplio por lo que trataré
de acotarlo a lo representado en el siguiente esquema.
Ilustración 6 Esquema mínimo X Data Space.
Data Space está regido o guiado por la cultura de DataOps,
un marco de colaboración empresarial que alinea los objetivos
de gestión de datos con los ideales de consumo de datos para
maximizar el valor de los datos derivados. DataOps explotará
la cadena de suministro de información para crear un flujo de
datos optimizados para la eficiencia, la velocidad y la
consecución de productividad. Presenta tres principios
fundamentales que condicionarán las arquitecturas:
• Visión global de los datos. Visión global documentada
mediante el catálogo de datos que nos permite definir los
flujos de los datos desde las fuentes hasta la entrega,
pasando por las diferentes transformaciones y análisis.
• Pensamiento Colaborativo. Estructura de
comportamiento organizacional en torno al modelo de
datos de viaje ideal para maximizar el valor de los datos
derivados y fomentar la colaboración entre los
administradores de los datos y los consumidores de los
mismos.
• “Get in front of Data”. Descentralización de los datos,
potenciar los servicios de autoservicio y análisis de los
datos en toda la organización. En definitiva, la
democratización del dato y del análisis del mismo.
No me extiendo más con el concepto de DataOps porque lo
explicaré con más detalle en el apartado correspondiente.
Centrémonos ahora en los objetivos del Data Space. Los
objetivos no serán otros que proporcionar el mejor marco
posible para conseguir que la organización pueda funcionar
en base a las corrientes data driven y data informed6
. A la
6
Entiendo que pueden existir otros objetivos importantes, como el simple
almacenamiento centralizado de los datos, pero pienso que hay que darle la
dimensión de inteligencia a los datos.
hora de escoger alguna de ellas tengo muchas dudas de cómo
afectan al funcionamiento de las organizaciones y de cuanto
de verdad tenemos desarrollados los modelos para dejar que
controlen por completo las decisiones de las organizaciones.
Según la variante data driven, el progreso en cualquier
actividad o proceso debe estar dirigido y obligado por los
datos, más que por la intuición o la experiencia personal. Y
según data informed, los datos servirán para realizar controles
sobre la intuición o la experiencia. Las organizaciones no
basan en datos todas sus decisiones. Usan una forma más ágil
y receptiva de usar los datos de forma que los datos se ven en
su contexto específico. Los datos se usan para crear una
hipótesis que aún no se ha demostrado.
Conociendo esto, yo considero que data driven está orientado
a la optimización de procesos dentro de la organización y nos
permitirá acercar el foco en detalle para optimizarlos. Se
podría decir que está más focalizado a la optimización de la
operatoria pero nunca te dirá como cambiarla. La estrategia y
la visión de conjunto necesita de una intuición y una
experiencia que debe ser acompañada de una visión de los
datos. Aquí es donde entra el Data Informed.
Por lo tanto, una organización que implementa un Data Space
debe ser data driven para optimizar los procesos y data
informed para determinar las estrategias.
La arquitectura de implementación del Data Space puede ser
muy variada. Durante los últimos años nos han bombardeado
con arquitecturas de Big Data hasta llegar a simplificarlo en
dos modelos básicos: arquitectura Lambda y arquitectura
Kappa. La arquitectura Lambda apareció en 2012 y define
una arquitectura cuyo objetivo era tener un sistema robusto
tolerante a fallos, tanto humanos como de hardware, que fuera
linealmente escalable y que permitiese realizar escrituras y
lecturas con baja latencia. Se caracteriza principalmente por
tener varias capas de procesamiento, una en modo batch para
procesado de grandes volúmenes de datos y otra streaming
que es capaz de presentar los datos en tiempo cuasi-real.
Ilustración 7 Ejemplo de arquitectura Lambda.
La arquitectura Kappa fue introducida en 2014 y su propuesta
consiste en eliminar la capa batch dejando solamente la capa
de streaming. Esta única capa, a diferencia de la de tipo batch,
no tiene comienzo ni un fin desde un punto de vista temporal
pág. 8
y está continuamente procesando nuevos datos a medida que
van llegando. En esta arquitectura un proceso batch se puede
entender como un stream acotado, podríamos decir que el
procesamiento batch es un subconjunto del procesamiento en
streaming.
Ahora bien, el termino big data se ha usado tanto y sin sentido
que actualmente las organizaciones huyen de él y hemos
tenido que evolucionar hacia otros nuevos conceptos que
eviten ese rechazo. El que mejor nos encaja para definir la
estructura base del Data Space es el “Data Lake”.
Para definir el Data Lake voy a usar el documento, O-BDL7
de Open Group. Data Lake es una capacidad empresarial
proporcionada por tecnologías provenientes del Big Data,
cuyo objetivo es consolidar y preservar los datos
empresariales a lo largo de su ciclo de vida. Permite que los
datos puedan ser consumidos estratégicamente aplicando
definiciones estructurales adecuadas y aplicando
transformaciones según sea necesario. Nos ayudará a
consolidar los datos de hoy, para que puedan ser
transformados mañana. Contrasta con los Data Warehouse al
diferir en las definiciones de esquema para el tiempo de uso
(Schema on Read), en lugar de en el momento del
almacenamiento (Schema on Write), dando la posibilidad de
crear una idea usando todos los datos. Esta separación de
preocupaciones de almacenamiento y uso permite a la
empresa definir y ejecutar cualquier estrategia de
conocimiento de datos (es decir descriptiva, diagnóstico,
predictivo, prescriptivo), sabiendo que los datos pueden ser
utilizados de manera efectiva cuando sea necesario.
Las implementaciones de los Data Lake tienden a utilizar
arquitecturas tipo Lambda.
El principal beneficio de un Data Lake es la centralización de
fuentes de contenido dispares. Una vez reunidas (de sus "silos
7
Arquitectura de referencia para un Data Lake empresarial.
de información"), estas fuentes pueden ser combinadas y
procesadas utilizando big data, búsquedas y análisis que de
otro modo hubieran sido imposibles. Las fuentes de contenido
dispares a menudo contienen información confidencial que
requerirá la implementación de las medidas de seguridad
apropiadas.
Una vez construido el Data Lake, pasa a convertirse en el
centro de la arquitectura del Data Space permitiendo a los
diferentes equipos autoabastecer sus propios entornos
analíticos y facilitar el intercambio de datos.
En esquema de la ilustración 8 se describe una arquitectura
básica de Data Lake. Podemos ver como la arquitectura se
acopla perfectamente con la arquitectura labmda
anteriormente presentada. En esta arquitectura encontramos
diferentes capas que pueden variar en función de las
necesidades de construcción del Data Lake:
• Capa de ingestión: Esta capa se encarga de recoger los
datos desde los orígenes. Los datos pueden llegar desde
diferentes orígenes y formatos. Pueden recibirse en
modo batch o en modo streaming.
• Capa de Consultas (Insights). Esta capa es la encargada
de proporcionar los métodos de consulta para acceder a
los datos del Data Lake.
• Capa de almacenamiento. Se suelen usar mecanismos
como HDFS para almacenar tanto datos estructurados
como no estructurados, aunque se pueden utilizar otras
tecnologías de almacenamiento e incluso bases de datos.
• Capa de preparación. Toma los datos en RAW y crea
las estructuras necesarias para cada uno de los
demandantes del sistema de forma que se facilita el
análisis. Los resultados los puede colocar en otras bases
Ilustración 8 Arquitectura genérica de un Data Lake.
pág. 9
de datos más específicas que proporcionan más
funcionalidades a las aplicaciones.
• Capa de procesamiento ejecuta algoritmos analíticos y
consultas de usuarios con diferentes tiempos: reales,
interactivos, por lotes; para generar datos estructurados
para facilitar el análisis.
• Capa de operación unificada. Controla la capa de
administración y supervisión del sistema. Incluye
gestión de auditoría y competencia, gestión de datos,
gestión del flujo de trabajo.
Algunas de las características principales que podemos
destacar de los Data Lakes son:
• Almacenamiento de datos centralizado, singular y sin
esquemas. Normalmente con los datos en RAW.
• Mecanismos para la ingestión rápida de datos con las
latencias adecuadas.
• Capacidad para mapear datos entre las fuentes y
proporcionar visibilidad y seguridad a los usuarios.
• Catálogo para buscar y recuperar datos.
• Capacidad de administrar seguridad, permisos y
enmascaramiento de datos.
• Admite el auto-aprovisionamiento de nodos, datos y
herramientas analíticas sin intervención de los equipos
de TI.
Para montar un Data Lake debemos tener en cuenta
numerosas consideraciones que recogemos en el siguiente
esquema.
• La seguridad debe implementarse en cada capa del Data
Lake, desde el almacenamiento hasta el control de los
flujos de la información. La prioridad básica debe ser
detener el acceso para todos aquellos usuarios no
autorizados.
• La gobernanza de los datos es el proceso encargado de
la disponibilidad, usabilidad, seguridad e integrad de los
datos utilizados en la organización.
• La calidad de los datos es un componente esencial para
un Data Lake ya que de la calidad de estos dependen el
resto de aplicaciones y usuarios que los utilizan.
• Dentro de las auditorias de datos encontramos
principalmente dos tareas: Seguimiento de cambios a
elementos importantes del conjunto de datos y Captura
cómo/cuando y quién cambia los elementos. Esta
auditoria nos ayudará a evaluar los riesgos y a abordar
los cumplimientos.
• El almacenamiento de los datos debe ser escalable y
rentable. Debe permitir un acceso rápido a la
exploración de datos.
• La ingestión de datos se encarga de recibir e insertar los
datos en el Data Lake.
• Framework. Definición de las APIs de acceso a nuestro
entorno Data Lake.
Ilustración 9 Conceptos clave del Data Lake.
Una vez implementado el armazón que soportará el Data
Space hace falta tener un elemento que gestione el auto-
aprovisionamiento de los datos y que nos permita conseguir
nuestro objetivo principal: “democratización del dato”. Este
elemento será el “Data as A Service (DAAS)”. Este
componente puede asumir parte de las funcionalidades
liberando al Data Lake. Temas como la gobernanza o la
creación de servicios de auto-aprovisionamiento serán
asumidos por este componente. De esta forma el Data Lake
puede dedicarse simplemente a almacenar los datos. Uniendo
los dos conceptos tenemos una arquitectura híbrida bastante
interesante:
Ilustración 10 Arquitectura de referencia del Framework de DaaS
+ Data Lake.
pág. 10
La implementación de un DaaS en nuestra organización no es
simplemente implementar tecnología. DaaS será un marco
arquitectónico para diseñar y desarrollar un conjunto de
servicios de datos reutilizables que estarán implementados
siguiendo los estándares empresariales establecidos. Esta
estandarización nos permitirá la reutilización de estos datos
en múltiples aplicaciones. Los servicios de datos
empresariales se podrán crear de modo independiente ya que
desacoplamos la lógica de los datos. Finalmente estaremos en
disposición de crear un API de acceso global a los datos en la
que podremos gestionar numerosos parámetros como
seguridad, versiones y estadísticas.
Remarcar que el marco arquitectónico debe recoger las ideas,
las bases, las guías que queremos seguir para consecución de
nuestros objetivos y la tecnología es un habilitador que puede
ir cambiando y evolucionando siempre que se ajuste a
nuestros objetivos.
Ilustración 11Bloques de construcción del DaaS
Para poder diseñar un DaaS que se ajuste a las necesidades de
nuestra organización debemos desarrollar una estrategia
empresarial de datos (EDS) que nos permita definir nuestra
hoja de ruta en relación con la utilización de la información
de la empresa. Existen guías como la “Enterprise Data
Principles8
” que nos proporcionan recomendaciones de
implementación de los DaaS.
“every enterprise should have a data strategy, driven by the
enterprise business strategy and used to guide all data
management activities.”
DMBOK
La implementación de una EDS en la organización puede
causar una reingeniería y rediseño de algunos procesos de
negocio por lo que se necesitará una IT flexible y ágil con una
arquitectura con las mismas características.
Resumiendo, un poco, lo que hemos visto hasta ahora, las
organizaciones deben generar su propia estrategia de datos en
función de sus objetivos y visión de negocio. Con esta visión
deberán definir los sistemas informacionales y los proyectos
8
necesarios para abordar las nuevas aplicaciones que se
implementarán en las tecnologías que en cada momento se
consideren adecuadas.
Ahora bien, ya tenemos nuestra arquitectura de Data Space,
pero no nos debemos de olvidar de nuestro objetivo principal:
hacer que cada persona tenga disponibles los datos que
necesitan para tomar las mejores soluciones posibles. Para
que puedan hacer esto, necesitamos que los usuarios sean
capaces de entender y manejar esos datos para tomar las
decisiones. Los sistemas decisionales pueden proponer
conclusiones, pero los usuarios deben ser capaces de
interpretarlas en su contexto. Necesitaremos crear una cultura
del dato dentro de nuestras organizaciones.
Todo lo que hemos visto hasta ahora iba enfocado a crear tu
propio Data Space, pero falta darla un empujón más y ver
cómo podemos ayudar a crear ese enjambre de learning
Organization. Para ello usaremos la definición pura de
Industrial Data Space que hace referencia a un espacio virtual
donde se puede realizar intercambios, de forma segura y
sencilla, de enlaces de datos dentro de los ecosistemas del
negocio, siempre bajo las normas y haciendo uso de los
modelos de colaboración de la empresa. De esta manera la
empresa siempre tiene el control sobre sus propios datos y
pueden hacer que se cumplan sus normas de privacidad.
Los datos sólo se intercambian cuando los socios han firmado
un certificado de confianza. El titular de los datos, es decir, la
empresa, determina quién está autorizado a utilizarlos y de
qué manera. ¿La ventaja? Facilita el acceso a conjuntos o
grupos de datos a los socios de una cadena de suministro. Bien
para que puedan empezar a trabajar en algo nuevo, para
desarrollar nuevos modelos de negocio, diseñar sus propios
procesos de manera más eficiente o iniciar procesos de valor
añadido adicionales en otros lugares.
Industrial Data Space es la arquitectura de referencia para
organizar los datos aprovechando los estándares y tecnologías
existentes además de utilizar los modelos de gobernanza
diseñados para facilitar el intercambio seguro de datos
generando el entorno de confianza necesario para el
ecosistema empresarial.
La búsqueda de un auto-aprovisionamiento del dato junto con
la soberanía de los mismos y como se transmiten entre los
diferentes puntos serán las máximas preocupaciones de esta
arquitectura.
pág. 11
V. SmartDapps.
“A blockchain is a digital, distributed transaction ledger, with
identical copies maintained on multiple computer systems controlled
by different entities.”
David Schatsky and Craig Muraskin, Beyond Bitcoin: Blockchain is
Coming to Disrupt your Industry,
Deloitte University Press, 2015, page 2
Comenzaré este apartado recordando el párrafo introductorio
del documento “[Blockchain] Una visión teórica” que escribí
el año pasado:
En la literatura actual, suele tenderse a utilizar Blockchain y
distibuted Ledger como sinónimos, pero realmente son
conceptos diferentes. Por un lado, definiremos el registro
distribuido (Distributed Ledger) como a un registro secuen-
cial cifrado de transacciones replicadas simultáneamente a
través de una red de nodos. Y por otro, definiremos
Blockchain como una tecnología de registro distribuido
protegidos criptográficamente y agrupados secuencialmente
en bloques inmutables. En esta red cada miembro mantiene su
propia copia de la información, y todos los miembros tienen
que validar colectivamente cualquier actualización mediante
el consenso previamente establecido. La información
almacenada podría representar transacciones, contratos,
activos, identidades, o prácticamente cualquier cosa que
pueda ser descrita en forma digital. Las transacciones tratadas
se vuelven permanentes, transparentes, inmutables, y se
pueden buscar, lo cual hace posible que los miembros de la
comunidad vean las historias de la transacción. Cada
actualización es un nuevo “bloque” adicionado al final de la
“cadena.” Un protocolo de consenso administra cómo las
nuevas transacciones son iniciados, validados, registrados, y
distribuidos. De manera crucial, la privacidad también puede
ser selectivamente forzada, permitiendo grados diversos de
anonimato o protección de información sensible más allá de a
quienes explícitamente se les haya dado acceso. Con
blockchain, la criptografía reemplaza las entidades
intermediarias como el guardián de la confianza, con todos los
participantes en la blockchain operando algoritmos complejos
para certificar la integridad del conjunto.
No me extenderé más en la definición de blockchain ya que
en ese documento queda bastante bien explicado el
funcionamiento de esta tecnología. Con la idea central que nos
tenemos que quedar es que esta tecnología nos permite
descentralizar las entidades autoritativas traspasando el
empoderamiento a los usuarios. No sólo eso, sino que nos abre
la posibilidad a crear un tipo de aplicaciones descentralizadas
denominadas Dapps que encierran un poderoso potencial.
Muchas veces confundimos Dapp con Smart Contract y
realmente son muy diferentes. Una Dapp es una aplicación
web donde el Contrato Inteligente es lo que permite
conectarse a la cadena de bloques. La forma más sencilla de
entender esto es comprendiendo cómo funcionan los sitios
web tradicionales. Normalmente son programas que usan
lenguajes como HTML, CSS y javascript para representar una
página. Suelen necesitar obtener datos de alguna base de datos
a la que se conectan mediante un API.
Front End  API  Base de datos
La Dapp es muy similar a la aplicación tradicional. El front
End usará las mismas tecnologías y lenguajes que la
aplicación tradicional, pero en lugar de tener un API para
conectarse a la base de datos tendrá un contrato inteligente
que se conectará a una cadena de bloques.
Front End  Smart Contract  Base de datos
Se que esta es una aproximación muy burda pero este símil
muestra que los contratos inteligentes están desempeñando el
papel del conector API de la cadena de bloques.
Los DAPP básicamente permiten descentralizar todo el
código de back-end y los datos, y por lo tanto son inmutables
y no se pueden falsificar. Teniendo en cuenta la naturaleza
descentralizada de estas aplicaciones junto con los
mecanismos que aseguran los datos de blockchain, los DAPP
tienen el potencial de desbloquear una amplia gama de casos
de uso.
Si al potencial de las Dapps le añadimos la tecnología de IPFS
podemos conseguir aplicativos totalmente descentralizados
que a priori no necesitan servidores centrales.
El Sistema de Archivos InterPlanetario (IPFS) es un proyecto
de código abierto basado en blockchain diseñado para
permitir el almacenamiento y transmisión peer-to-peer de
información a través de internet. Su propósito es proporcionar
a los usuarios la habilidad de publicar en línea sin necesidad
de depender de un servidor de una tercera parte que albergue
su contenido.
La mejora principal del IPFS respecto del HTTP es que
proporciona una manera de recuperar contenido de una red
distribuida de proveedores de almacenamiento, usando una
función hash del archivo para apuntar hacia donde está
almacenado el contenido en internet. A día de hoy esta
tecnología tiene sus limitaciones en cuanto a tamaño de los
ficheros, pero poco a poco se va resolviendo.
En el siguiente esquema podemos ver un esquema general de
una aplicación completamente descentralizada que utiliza
blockchain e IPFS.
Ilustración 12 Ejemplo de aplicación genérica descentralizada.
pág. 12
Todos estos avances están impulsando lo que será la próxima
gran revolución, Web 3.09
. Una web más centrada en el
usuario en la que conservaremos la propiedad completa de
nuestros datos, identidad y activos digitales.
Hay una serie de ventajas que ofrece Web 3.0:
• No punto central de control: Los intermediarios se
eliminan de la ecuación, blockchains como Etereum
proporcionar una plataforma de confianza menos donde
las reglas son irrompibles y de datos es totalmente
encriptada.
• Propiedad de los datos: los usuarios finales recuperarán
el control total de los datos y tendrán la seguridad del
cifrado. La información puede luego compartirse caso
por caso y con permiso.
• Reducción drástica de piratería y violaciones de datos:
debido a que los datos se descentralizarán y distribuirán,
los hackers necesitarán desactivar toda la red, mientras
que las herramientas patrocinadas por el estado como
Vault7 , utilizadas por las agencias de tres letras, se
volverán obsoletas.
• Interoperabilidad: las aplicaciones serán fáciles de
personalizar y no dependerán del dispositivo, y pueden
ejecutarse en teléfonos inteligentes, televisores,
automóviles, microondas y sensores inteligentes. En la
actualidad, las aplicaciones son específicas del sistema
operativo y, a menudo, están limitadas a un solo sistema
operativo.
• Blockchains sin permiso: cualquiera puede crear una
dirección e interactuar con la red. El poder de acceder a
cadenas sin permiso no puede ser exagerado. Los
usuarios no serán excluidos debido a su ubicación
geográfica, ingresos, género, orientación u otros factores
sociológicos y demográficos. La riqueza y otros activos
digitales se pueden transferir de manera transfronteriza,
rápida y eficientemente, a cualquier parte del mundo.
• Servicio ininterrumpido: la suspensión de la cuenta y la
denegación de servicio distribuida se reducen
drásticamente. Debido a que no existe un solo punto de
falla, la interrupción del servicio será mínima. Los datos
se almacenarán en nodos distribuidos para garantizar la
redundancia y las copias de seguridad múltiples evitarán
la falla o incautación del servidor.
La evolución y crecimiento de este tipo de tecnologías está
creciendo de forma exponencial, existiendo ya en el mercado
numerosos proyectos de descentralización. En la siguiente
imagen podemos ver algunos de ellos.
9
Usare el nombre Web 3.0 aunque lo considero totalmente incorrecto, por
eso he denominado a la GPT Smart Dapp. La web 3.0 siempre ha hecho
Ilustración 13 Miembros de Essentia.one, un marco para la
creación de aplicaciones descentralizadas.
En lugar de Google Drive o Dropbox, tenemos servicios como
Storj, Siacoin, Filecoin o la tecnología IPFS para distribuir y
almacenar archivos.
En lugar de Skype, tenemos plataformas como Experty.io.
En lugar de WhatsApp y Wechat tenemos el estado
En lugar de sistemas operativos como iOS y Android, los
marcos como Essentia.one y EOS proporcionan una puerta de
enlace a la nueva web.
Akasha o Steemit desempeñarán el papel de Facebook, el
navegador Brave servirá como Chrome y Ethlance podrá
reemplazarlo.
referencia a la web semántica que en este caso no aplica. Concretamente se
englobaría más dentro de la denominada web 4.0.
pág. 13
VI. Ambient Intelligent.
Durante los últimos años estamos asistiendo a un proceso muy
interesante denominado “democratización de la IA”, en el
cual se están creando numerosos frameworks que nos ofrecen
la posibilidad de utilizar las capacidades de la inteligencia
artificial de una forma sencilla y accesible. Esta nueva
capacidad trae consigo el poder acercarnos a la interesante
visión del “ambient intelligence”. En un mundo ambient
intelligent los dispositivos funcionan en conjunto para ayudar
a las personas a llevar a cabo sus actividades cotidianas y
tareas de una manera fácil y natural usando información e
inteligencia que está oculta en la red que conecta estos
dispositivos. A medida que estos dispositivos se vuelven más
pequeños, más conectados, más inteligentes y más integrados
en nuestro entorno, la tecnología se mimetiza con nuestro
entorno hasta que sólo la interfaz de usuario permanece
perceptible por los usuarios.
Para que esta tecnología pueda ayudarnos de esta forma tiene
que ser capaz de identificar el contexto y ante eso construir
los procesos más óptimos para poder responder a las
necesidades del usuario. Hasta ahora se diseñaban sistemas
expertos simples que funcionaban como una secuencia
encadenada de “if” o “case” que se implementaban con
reglas. Estos sistemas tenían que funcionar en entornos
acotados, ya que los entornos reales tienden a ser tan
complejos y cambiantes que no pueden ser totalmente
especificados.
Ahora con la cantidad de información que recibimos del
entorno y las capacidades que nos aporta la IA, esos procesos
no tienen por qué estar escritos. Podemos describir el
problema tipo que queremos optimizar y dejar que el sistema
construya los procesos en tiempo real para llegar a esa mejor
opción. Estos procesos se convertirán en procesos adaptativos
y son implementados por Sistemas Inteligentes Adaptativos
que se estudian en la rama de Inteligencia Artificial en
Tiempo Real.
Los sistemas de tiempo real se definen como aquellos
sistemas en los que su corrección depende, no sólo de los
resultados lógicos, sino también del momento en que se
producen dichos resultados. Esta característica se debe a que
estos sistemas interactúan con un entorno físico: sus entradas
reflejan eventos ocurridos en su entorno, y sus salidas se
traducen en efectos sobre dicho entorno. Estos resultados se
deben producir, por tanto, en momentos en los que aún tengan
validez dentro de ese entorno sobre el que el sistema está
actuando.
Bien, esto ha sido un poco de teoría, pero siendo un proveedor
de servicios informáticos, ¿para qué nos puede servir? La
respuesta es sencilla, para llevar los entornos de operación a
otro nivel, al nivel de AIOps.
Cuando diseñamos la operación de sistemas asumimos que
disponemos a priori de la mayor parte de la información sobre
las características de las tareas a ejecutar y del entorno con el
que el sistema va a interactuar, y por tanto se basan en diseños
estáticos, lo que acaba contribuyendo en un alto coste y poca
flexibilidad. A medida que vamos implementando más
sistemas para problemas y entornos más complejos se vuelve
cada vez más difícil de disponer de esta información en el
momento del diseño del sistema. Por tanto, los entornos de
operación que manejan los sistemas de tiempo real críticos
deben evolucionar para ser dinámicos y flexibles en su
funcionamiento, deben convertirse en sistemas inteligentes
adaptativos que implementen procesos adaptativos. O, dicho
de otra forma, los sistemas deben estar preparados para
adaptarse de forma automática las necesidades de los procesos
de negocio. Además, la auto-remediación debe ser una de sus
características principales.
Tenemos que ser capaces de transformas nuestros sistemas en
una máquina inteligente, un agente relacional flexible que
percibe su entorno y lleva a cabo acciones que maximicen sus
posibilidades de éxito en algún objetivo o tarea.
Soy consciente de que esto no es una tarea fácil, pero existe
una nueva corriente de operación denomina AIOps que trata
de realizar algo parecido para tratar de optimizar los procesos
de operación.
AIOps (Artificial intelligence for IT operations), es un
término general para el uso de análisis de big data, machine
learning, Deep learning y otras tecnologías de inteligencia
artificial para automatizar la identificación y resolución de
problemas surgidos en los entornos de operación.
La mayoría de los sistemas que administramos generan
números eventos y datos de rendimiento que analizamos con
técnicas tradicionales de análisis y detección. AIOps utiliza
técnicas de inteligencia artificial para monitorizar y visualizar
los activos. Los datos que maneja la plataforma de AIOps
englobarán los eventos de los sistemas y procesos que se
ejecutan en ellos, los registros de los rendimientos, los
registros de incidencias en las herramientas de operación y
otras fuentes.
Las plataformas de AIOps tienen la característica de soportar
varias capacidades:
• Automatización de las tareas rutinarias. Engloba la
capacidad de automatizar todas aquellas tareas, no
críticas y carentes de aportación de valor, susceptibles
de ser automatizadas por herramientas. Con la
introducción de la IA el entorno dispondría de una base
de hechos prestablecida que utilizaría para seleccionar
los procedimientos adecuados, siempre con el objetivo
de maximizar la eficiencia de la ejecución.
• Reconocimiento proactivo de patrones que generan
incidencias en el ecosistema. Una vez definidas las
líneas bases de comportamiento de los sistemas, las
herramientas de IAOps pueden determinar los
comportamientos anómalos del entorno pudiendo
incluso a realizar acciones de prevención tempranas. Los
sistemas actuales tienden a basarse en simples cálculos
matemáticos o en su defecto en rangos, produciendo
numerosos falsos positivos que no hacen más que
introducir ruido en nuestros sistemas. Esto es debido a
que no todas las anomalías son un error y que no todos
los errores se presentan en anomalías. La correcta
identificación de patrones mediante el uso de técnicas de
IA nos ayudará a mejorar estos aspectos.
• Optimización de las comunicaciones e interacciones
entre los diferentes equipos de operación. Las
herramientas de AIOps deben ser capaces de ir
pág. 14
mejorando la presentación de los datos a los diferentes
equipos en base a los históricos recogidos. Los cuadros
de mando son dinámicos y se construirán en función de
los eventos detectados y los métodos de resolución
utilizados anteriormente. Algunos productos ya están
desarrollando lo que denominan “Cognitive insights”,
nuevas plataformas de inteligencia artificial que
combina el aprendizaje automático y la interacción
humana10
. Transforma las tareas manuales de análisis de
registro de operaciones de TI y DevOps en procesos
científicos automatizados que descubren eventos que de
otro modo serían pasados por alto y los enriquece con
datos accionables sobre el contexto, la gravedad, la
relevancia y los próximos pasos11
.
El objetivo del esfuerzo realizado para llevar a cabo el análisis
es descubrir patrones que describan o en su defecto sean
capaces de describir el contexto que están modelando. Los
patrones serán elementos novedosos que se podrán utilizar
para mirar hacia adelante en el tiempo para predecir posibles
incidencias y perfiles de uso emergentes, y mirar hacia atrás
en el tiempo para determinar las causas raíz del
comportamiento del sistema. En la siguiente figura de Gartner
se describe la idea de la generación de patrones para mejorar
la operación de sistemas (ITOM).
Ilustración 14 Plataforma IAOps que permite obtener estadísticas
continuas en IT Operation Management (ITOM).
Según Gartner, AIOps tiene dos componentes principales: Big
Data y Machine Learning que requieren de un agregamiento
de los datos observacionales (monitorización y registros de
trabajo) junto con datos de participación (incidencias y
eventos) dentro de una plataforma de Big Data. Luego, AIOps
implementa una estrategia integral de análisis y aprendizaje
automático (Machine Learning, ML) contra los datos
combinados de TI. El resultado que persigue es un
conocimiento continuo que arroje mejoras y soluciones
10
…donde la tecnología y la cognición humana convergen para facilitar y
mejorar los procesos de negocio….
11
Logz.io está desarrollando una interfaz denominada UMI (Unified
Machine Intelligence) como núcleo de su Cognitive Insights. UMI ™
continuas, utilizando la auto-remediación vía la
automatización.
AIOps es el siguiente paso de Gartner en la evolución de IT
Operational Analytics (ITOA). Está creciendo a partir de
varias tendencias y necesidades que afectan las operaciones
de TI, que incluyen:
• La dificultad que TI Operations tiene para administrar
manualmente su infraestructura. Se está convirtiendo en
un nombre inapropiado usar el término "infraestructura"
aquí, ya que los entornos de TI modernos incluyen la
nube administrada, la nube no administrada, los
servicios de terceros, las integraciones de SaaS, los
dispositivos móviles y más. Los enfoques tradicionales
para gestionar la complejidad no funcionan en entornos
dinámicos y elásticos. Seguir y administrar esta
complejidad a través de la supervisión manual y humana
ya no es posible. La tecnología actual de IT Ops ya está
más allá del alcance de la administración manual y solo
empeorará en los próximos años.
• La cantidad de datos que IT Ops necesita retener
aumenta exponencialmente. La supervisión del
rendimiento está generando un número
exponencialmente mayor de eventos y alertas. La
función de paso de experiencia en volúmenes de tickets
de servicio aumenta con la introducción de dispositivos
IOT, API, aplicaciones móviles y usuarios digitales o de
máquina. De nuevo, simplemente se está volviendo
demasiado complejo para informes y análisis manuales.
• Los problemas de infraestructura deben responderse a
velocidades cada vez mayores. A medida que las
organizaciones digitalizan sus negocios, las TI se
convierten en el negocio. El consumo de la tecnología
ha cambiado las expectativas de los usuarios para todas
las industrias. Las reacciones a los eventos de TI ya sean
reales o percibidas, deben ocurrir inmediatamente,
especialmente cuando un problema afecta la experiencia
del usuario.
• Más poder de computación se está moviendo a los
bordes de la red. La facilidad con la que se puede
adoptar la infraestructura de la nube y los servicios de
terceros ha potenciado las funciones de la línea de
negocio (LOB) para crear sus propias soluciones y
aplicaciones de TI. El control y el presupuesto han
cambiado desde el núcleo de TI hasta el borde. Se está
agregando más poder de cómputo (que se puede
aprovechar) fuera de la TI central.
• Los desarrolladores tienen más poder e influencia, pero
la rendición de cuentas aún se basa en TI central.
DevOps y Agile están obligando a los programadores a
asumir más responsabilidad de monitoreo a nivel de
aplicación, pero la responsabilidad por la salud general
del ecosistema de TI y la interacción entre aplicaciones,
identifica las interacciones humanas con los datos de registro, incluidas las
discusiones sobre StackOverFlow o Serverfault, las búsquedas de Google de
información relevante y los problemas que se publican en GitHub;
correlaciona estas interacciones con nuestros datos de registro; y luego los
muestra como eventos o estadísticas en la interfaz de usuario de Logz.io.
pág. 15
servicios e infraestructura aún permanece la provincia de
TI central. IT Ops comienza a asumir más
responsabilidades justo cuando sus redes se vuelven más
complejas.
Podríamos pensar que los IAOps presentan arquitecturas
complejas, pero realmente no distan mucho de las plataformas
de análisis de datos. La mayoría de ellos tienen los siguientes
componentes:
Ilustración 15 Componentes básicos sistema IAOps.
Los datos de TI deben ser identificados, catalogados y
agregados en una especie de Data Lake o catalogo inteligente
para que mediante procesamiento se puedan aplicar analíticas
y algoritmos de reconocimiento de patrones. Una vez
realizado necesitaremos de una herramienta que nos
proporcione una visualización clara y eficiente.
Yo además añadiría que necesitamos establecer una ontología
propia o adquirida que nos permita dotar de contexto a los a
los datos mediante los metadatos que necesitemos. Y aún más
interesante, necesito algo que mantenga actualizadas las
relaciones de los datos, una base de datos de grafos.
Esto es muy interesante, por un lado, tengo los datos puros y
por otro las relaciones entre ellos de forma que en base al
aprendizaje automático puedo crear nuevas relaciones entre
los datos y guardarlos en esa base de datos12
.
Un esquema más técnico de la solución lo podemos encontrar
en la siguiente figura:
12
Hace unos meses vi una conferencia donde de pasada hablaban de usar una
base de datos de grafos en el circuito de integración continua para almacenar
las relaciones entre las aplicaciones. Esta idea es la forma perfecta de
El esquema es muy parecido al anterior, pero añadiendo los
flujos de información y los elementos que propiciarán las
interconexiones entre los diferentes elementos. El API de
operación IT será el encargado de poner todas las
funcionalidades al ITOM.
Los diseños arquitectónicos existen, pero las herramientas de
IAOps están todavía en un desarrollo inicial. Aun así, Gartner
vaticina lo siguiente:
Para 2022, el 40% de todas las grandes empresas
combinarán las funciones de big data y machine learning
para respaldar y reemplazar parcialmente los procesos de
monitorización, service desk y automatización y tareas, en
comparación con el 5% actual.
Guía de mercado para plataformas AIOps
Gartner
Sabiendo esto, para implementar AIOps de forma correcta
deberemos seguir algunas pautas:
• Para garantizar la implementación de IAOps debemos
optar por un enfoque gradual que se centre en los datos
históricos para poder crear los contextos.
• Tenemos que asegurar una visión de los sistemas de TI
pasados, presentes y futuros seleccionado plataformas
que sean capaces de ingerir y proporcionar acceso a
datos de los eventos, métricas y demás parámetros de
entorno.
• Deberemos fomentar las
habilidades analíticas de los
equipos de operación selec-
cionando herramientas que
soporten la capacidad de
implementar incremental-
mente las cuatro fases del
aprendizaje automático
orientado a operaciones de
TI: visualización y análisis
estadístico, descubrimiento
automático de patrones,
predicción basada en patrones y análisis de causa raíz.
construir un mapa de relaciones de las aplicaciones desde el ciclo de entrega
continua.
Ilustración 16 Arquitectura IAOps según Gartner.
Ilustración 17 Fases del
aprendizaje automático orientado
a operaciones IT.
pág. 16
Gartner considera AIOps como la evolución natural de los
entornos de operación IT e incluso ha propuesto una hoja de
ruta para reconvertir nuestros entornos13
. Está compuesta de
12 pasos que se agrupa en cuatro etapas:
• Fase de establecimiento.
• La fase reactiva.
• La fase proactiva.
• La fase de expansión.
No quiero extenderme más, pero me gustaría terminar con un
diagrama de elaboración propia que recoge un poco la
transición desde un modelo DevOps de sistemas a un IAOps
con DevOps. El concepto principal es la “Visión única de
Operación” y como la conseguimos mediante una
implementación de IAOps basada en la monitorización,
automatización, orquestación y gestión de
configuraciones. La centralización de
todos los datos recogidos más los entornos
de ticketing junto con el uso de técnicas
avanzadas de análisis nos permitirán
acercarnos a la idea de patrones. Estos
patrones son los que nos permitirán
predecir y anticiparnos a los problemas de
operación y aplicar auto-remediaciones
cuando sea necesario.
También introduzco dos elementos que a
mi modo de ver pueden ser interesantes.
Por un lado, ChatOps como elemento
interesante de conexión a los sistemas. Una
forma de interactuar con ellos desde un
lenguaje natural prestablecido.
Por otro lado, los perfiles de SER y
DataOps. Uno velará por que la plataforma
de IAOps funcione en su conjunto y el otro
por optimizar los flujos de datos y los
análisis.
13
12 Steps to Artificial Intelligence for IT Operations Excellence
.
Ilustración 18 Fases de implementación de AIOps por Gartner.
Ilustración 19 Ecosistema IAOps. Diseño propio.
pág. 17
VII. Cultura.
La cultura empresarial se puede definir como “el conjunto de
normas, de valores y de formas de pensar que caracterizan el
comportamiento, posicionamiento del personal en todos los
niveles de la empresa, el estilo de dirección, la forma de
asignar los recursos, la forma de organizar la esa
corporación, así como la imagen de la empresa”,
La cultura de la empresa viene a ser la expresión física del
ADN de la misma. Cambiarla no es un proceso sencillo ya que
aparecen numerosos problemas de fricción entre los
diferentes estamentos establecidos. Además, una cultura no se
puede imponer a base de reglas o herramientas que obliguen
a los trabajadores a ejecutar los procesos de forma semi-
automática. Crear un cambio cultural conlleva crear una
gestión del cambio que nos permita controlar la transición
hacia la nueva forma de hacer las cosas. Para poder hacerlo
necesitamos que los integrantes de la organización entiendan
que necesitamos ese cambio y como va afectar tanto a la
organización como a los trabajadores.
Para llevar a cabo esta transición hay que crear un equipo del
cambio que elabore una visión clara que se pueda comunicar
de forma adecuada al resto de integrantes de la organización.
Llegado este punto es importante encontrar los puntos de
resistencia y ver si son débiles, medios o fuertes y actuar en
función de cada una de las circunstancias. A partir de ahí sólo
queda implementar y evaluar los cambios para poder mejorar
en progresivas iteraciones.
Realizar una gestión del cambio requiere tiempo, dedicación
y compromiso por parte de todos los miembros de una
organización. Una gestión del cambio va a tener éxito siempre
y cuando esta se centre en las necesidades de los clientes tanto
internos como externos.
Todo esto es mucho más fácil escribirlo que ejecutarlo, pero
debe ser clave para cualquier organización que quiera
alcanzar el estatus de learning organization.
Dicho esto, a mí me gustan dos modelos culturales,
BizDevOps que sería el principal y DataOps que podemos
considerar como derivado del anterior. Para hablar de ellos
necesitaría varios documentos como este así que los resumiré
a la mínima expresión.
a. BizDevOps.
DevOps un término acuñado por primera vez por un joven
belga en una conferencia sobre Agile en Toronto(Canadá).
Patrick Debois dio una conferencia, “¿Cómo de infra-ágil
eres?”, que no tuvo mucho éxito, pero el término fue poco a
poco extendiéndose hasta que se formalizo en la primera
conferencia denominada “DevOps Days” en Bélgica. A partir
de ahí, esta nueva cultura se extendería por todo el mundo,
llegando a España por primera vez en el 2013 a Barcelona y a
14
Soy consciente de que la definición oficial es la siguiente: “DevOps es un
acrónimo inglés de development (desarrollo) y operations (operaciones), que
se refiere a una metodología de desarrollo de software que se centra en la
comunicación, colaboración e integración entre desarrolladores de software
y los profesionales de sistemas en las tecnologías de la información (IT)”.
DevOps es una respuesta a la interdependencia del desarrollo de software y
mí en 2014. Lo que más preocupo al principio fue entender
el significado del término y encontré la siguiente definición14
:
“DevOps es un modelo cultural y organizacional que
promueve la colaboración y comunicación para habilitar
equipos TIC de alto rendimiento, que consigan apoyar a los
objetivos de negocio”.
Los principios básicos en los que se sustenta DevOps son:
Kaizen y Lean.
Y su objetivo inicial fue romper las brechas existentes entre
desarrollo y sistemas implantando nuevas formas de trabajar
basadas en la automatización y la comunicación.
En poco tiempo DevOps pasa a convertirse en una
metodología con la que se cambia el modo el que se gestiona
el ciclo de desarrollo del software. Comienzan a derribarse los
silos existentes entre desarrollo y operación y comienzan a
trabajar de forma conjunta y bidireccional. Pasan a ser un
equipo que cubre el ciclo completo del desarrollo software,
garantizando procesos de entrega muchos más rápidos,
seguros y con entregas más fiables. Para conseguirlo, se
introducen nuevas herramientas que contribuyen a la
automatización de tareas repetitivas y al trabajo en equipo,
ayudando a agilizar los procesos y evitar trabajo duplicado.
Ilustración 20 DevOps
las operaciones IT. Su objetivo es ayudar a una organización a producir
productos y servicios software más rápidamente, de mejor calidad y a un
coste menor.” Pero creo que la que he propuesto describe mejor el propósito
de DevOps.
“Hoy mejor que
ayer pero peor
que mañana.”
“Entrega de máximo
valor usando los
mínimos recursos.”
pág. 18
El objetivo final de DevOps es minimizar el riesgo de los
cambios que se producen en las entregas y dar así un mayor
valor tanto a los clientes como al propio negocio.
Si queremos implementar y evaluar DevOps en una
organización podemos usar el modelo CALMS que hace
referencia a:
Ilustración 21 CALM
Crear una cultura de colaboración en la que la responsabilidad
es compartida por todo el equipo, donde existe la
transparencia y el feedback es inmediato será el mayor factor
de éxito de DevOps y se convertirá en la base de la eficiencia
de los equipos que la practiquen.
En este tipo de cultura todos trabajan de forma conjunta
utilizando una visión holística15
guiada por el pensamiento
sistémico. Los miembros son conscientes de que sus acciones
no sólo afectan a su entorno inmediato, sino a todos los
miembros.
La introducción de la automatización como una capacidad
básica y diaria ayuda a evitar numerosos errores debido a la
ejecución de tareas repetitivas. La falta de automatización en
las tareas de testing y despliegue frenen la agilad de los
equipos disminuyendo drásticamente la eficiencia de los
mismos.
El equipo con el ciclo de feedback más rápido es el equipo
que prospera. Con una transparencia total y una comunicación
fluida, los equipos de DevOps reducen al mínimo el tiempo
de inactividad y resuelven las incidencias más rápido.
Como hemos visto DevOps nace para unir a los entornos de
Desarrollo y Operaciones, pero en los últimos años se han
dado cuenta que necesitan meter la pata de negocio para poder
cerrar el ciclo por completo. Esta nueva variante se ha
denominado DevOps 2.0 o BizDevOps y trata de conseguir la
alineación entre negocios y TI. Su meta es conseguir la
alineación entre negocio y TI. Para ello se fundamenta en los
siguientes pilares: acción centrada en el cliente, mentalidad
basada en el objetivo y equipos multidisciplinares (desarrollo,
operaciones, QA, seguridad, comunicaciones…). Los
objetivos que se persiguen garantizar la responsabilidad
extrema a extremo, la mejora continua y, finalmente,
automatizar todo lo que sea posible.
En el siguiente esquema se ve de forma clara esta relación:
15
La falta de visibilidad y objetivos compartidos se traduce en falta de
planificación de dependencias, prioridades mal organizadas, acusaciones
Y queda perfectamente retratado en la imagen que pongo a
continuación:
Ilustración 22 Esquema general BizDevOps.
Haciendo un poco más de foco en el esquema encontramos:
• BIZ: Necesidades de negocio. Una adecuada gestión de
las mismas permitirá su adecuación y adaptación a los
requisitos de “explotabilidad” de la aplicación en
producción.
• DEV: Entrada de los cambios. Controlando los
correctivos y evolutivos, estandarizando y normalizando
las entregas, y anticipando posibles problemas derivados
de los mismos.
• OPS: Entrada de incidencias y problemas. Realizando
una correcta gestión de incidencias y problemas,
coordinando a los grupos implicados, llevando a cabo un
análisis causal y una predicción/previsión de
incidencias, enfocándose al servicio y planteando
además medidas a futuro para minimizar esta entrada.
Este modelo se está desarrollando rápidamente y se está
llegando a tal nivel de automatización que la propia gente de
negocio puede planificar los despliegues de las campañas que
quieren sin necesidad de intervención ni de DEV ni de OPS.
Me gustaría terminar este apartado hablando del Kernel
DevOps. Cuando empecé a investigar sobre DevOps se
hablaba todo el rato de automatizar los despliegues y los test
del software y nada sobre los sistemas. Existían herramientas
de gestión de configuración y demás, pero no existía un marco
general de referencia que me permitiese pensar en los sistemas
personales y una actitud de 'no es problema mío', provocando una
disminución de la velocidad y la calidad.
pág. 19
desde el punto de vista de DevOps. Ante esto, con mayor o
menor fortuna se me ocurrió describirlo de la siguiente forma:
Ilustración 23 Kernel DevOps.
La idea del kernel DevOps era que sirviese de marco
metodológico que describiese todos aquellos procesos que los
equipos de sistemas debemos implementar cada vez que
introducimos un artefacto nuevo en nuestras infraestructuras.
Y que los tratásemos desde el punto de vista de DevOps. Ya
no se trataba de instalar un Apache o un sistema operativo sino
de ir un poco más allá y describir la configuración necesaria
para crear una línea base que luego pudiese ser automatiza y
controlada por procesos semi-automáticos.
Curiosamente la última parte de abajo hace referencia a las
reglas, aprendizaje automático y a los procesos adaptativos
que encaja al 95% con la idea de IAOps.
b. DataOps.
Durante los últimos años el énfasis por el análisis y el control
del dato a llevado a la aparición de numerosas
especializaciones dentro de las empresas. Analistas de datos,
científicos de datos, ingenieros del dato, administradores de
bases de datos, calidad del dato son algunos de ellos. Toda
esta compartimentación está llevando a la aparición de los
mismos problemas que teníamos con DEV y OPS. Cada
equipo crea su silo y dificulta la velocidad de la puesta en
servicio de los datos. Ante esta corriente nace DataOps una
variante de DevOps que trata de implementar esta cultura para
mejorar la puesta en producción del dato.
Ilustración 24 DataOps
DataOps promociona el desarrollo de equipos donde el
individualismo queda a un lado en busca de una mejor
autoorganización en torno a objetivos comunes. Equipos de
metodología ágil, adaptados al cambio que, en la búsqueda de
la satisfacción del cliente, tendrán como valor máximo la
entrega ininterrumpida de conocimientos analíticos. El
mundo está en constante movimiento y, por ello, saber qué
necesita el cliente en cada momento será clave para que los
resultados den sus frutos. Conocer el entorno, organizar los
datos y saber qué herramientas usar serán los desafíos a los
que se enfrenten estos equipos.
La adhesión exitosa a DataOps requiere de tres principios
fundamentales:
• Visión global de datos de empresa. Definición de un
catálogo global de datos en los que se defina el tipo,
calidad y formas de integración. Al plantear una visión
holística de los mismos permite generar valor en otros
procesos que en principio no parecen conectados.
• Pensamiento colaborativo. Estructura de
comportamiento organizacional en torno al modelo de
datos para maximizar el valor de los datos derivados y
fomentar la colaboración entre los administradores de
datos y consumidores de datos.
• Get in front of Data. Potenciar los servicios y análisis
de datos en formato de autoservicio en toda la
organización.
VIII. Conclusiones.
Durante todo el documento he tratado de plasmar algunas de
las ideas que me han preocupado durante estos últimos años.
No todas, pero si un conjunto de algunas que pueden venir
bien para el objetivo y contexto del documento.
Me ha parecido interesante visualizar los tipos de empresas
que queremos que existan y relacionarlo con lo que podemos
aportar para que lo consigan. Desde nuestra posición no
podemos cubrir todos los aspectos necesarios para esa
transformación, pero sí que podemos aportar una nueva TI
basada en nuevas tecnologías que haga de agente habilitador
para esa transformación.
Las GPTs seleccionadas tienen el potencial de habilitar ese
potencial y por eso debemos alinearnos con ellas para, llegado
el momento, poder ser referentes en esos campos.
Yo por mi parte seguiré desarrollando diferentes temas y
tecnologías como el Chaos engineering, IPFS, Bases de datos
de grafos, TOGAF y muchas otras cosas que ahora mismo no
conozco…
Suelen decir, que sobreviven las empresas que mejor se
adaptan, pero a mí me gusta pensar que sobrevive y triunfan
aquellas que son capaces de anticipar el cambio provocando
que las demás tengan que adaptarse.
Víctor MArtinez Bahillo
Arquitecto de sistemas
pág. 20
IX. BIBLIOGRAFÍA.
VUCA
[1] Paula Canal, “Educación en entornos VUCA”. Source:
https://www.iebschool.com/blog/educacion-en-entornos-vuca-
innovacion/
[2] Sintelia, “Quieras o no, vives en un entorno VUCA, descubre cómo
moverte en él”, Source: https://www.sintetia.com/quieras-o-no-vives-
en-un-entorno-vuca-descubre-como-moverte-en-el/
[3] Juan Martin, “¿cómo triunfar en un entorno VUCA?”. Source:
https://www.cerem.es/blog/como-triunfar-en-un-entorno-vuca
[4] Adp, “¿Qué es el entorno VUCA y cómo afecta a la supervivencia de
las empresas?”. Source: https://www.apd.es/que-es-el-entorno-vuca-y-
como-afecta-a-la-supervivencia-de-las-empresas/
[5] Andres Macario, “Cómo gestionar el nuevo entorno VUCA”. Source:
https://andresmacario.com/como-gestionar-el-nuevo-entorno-vuca/
[6] Antoni Gutierrez-Rubi, “Momento VUCA”. Source:
https://www.gutierrez-rubi.es/2017/01/12/momento-vuca/
[7] Fernando Velazquez jimenez, “VUCA y la innovación”. Source:
https://fernandovelazquezjimenez.wordpress.com/2015/09/28/vuca-y-
la-innovacion/
[8] Jesús rodriguez, “Guerra 3.0”. Source:
https://elpais.com/internacional/2017/02/10/actualidad/1486742896_3
96520.html
[9] Alvaro Merino, “Navegar en un munco V.U.C.A”. Source:
http://www.alvaromerino.com/navegar-en-un-mundo-v-u-c-a/
[10] Jesús A. Lacoste, “ENTORNO VUCA ¿SABES QUÉ ES Y CÓMO TE
AFECTA?. Source: https://jalacoste.com/entorno-vuca
[11] Margaret Rouse, “VUCA (volatilidad, incertidumbre, complejidad y
ambigüedad)”. Source:
https://searchdatacenter.techtarget.com/es/definicion/VUCA-
volatilidad-incertidumbre-complejidad-y-ambiguedad
[12] BBVA, “Reinventar la empresa”. Source:
https://www.bbvaopenmind.com/wp-content/uploads/2015/02/BBVA-
OpenMind-libro-Reinventar-la-Empresa-en-la-Era-Digital-empresa-
innovacion1.pdf
GPTs
[13] BOYAN JOVANOVIC, “GENERAL PURPOSE TECHNOLOGIES”.
Source: http://www.nyu.edu/econ/user/jovanovi/JovRousseauGPT.pdf
[14] Cantner, Uwe; Vannuccini, Simone, “A new view of general purpose
technologies”. Source:
https://pdfs.semanticscholar.org/24d7/4686006c37edcf95df457c20a98
0cc040e44.pdf
[15] Diego Hurtado, Manuel Lugones y Sofya Surtayeva, “Tecnologías de
propósito general y políticas tecnológicas en la semiperiferia: el caso
de la nanotecnología en la Argentina”. Source:
http://www.revistacts.net/files/Volumen_12_Numero_34/HurtadoEDI
TADO.pdf
DATA SPACE
[16] Fraunhofer, “Reference architecture model for the industrial data
space”.
[17] Openfuture, “Industrial Data Space, una nueva dimensión para la
industria”, Source: https://www.openfuture.org/es/new/industrial-
data-space-una-nueva-dimension-par
[18] Andrew Chen, “Know the difference between data-informed and versus
data-driven”. Source: http://andrewchen.co/know-the-difference-
between-data-informed-and-versus-data-driven/
[19] PowerData, “Data lake: definición, conceptos clave y mejores
prácticas”. Source: https://www.powerdata.es/data-lake
[20] Bill Schmarzo, “Why Do I Need A Data Lake? .Source:
https://infocus.dellemc.com/william_schmarzo/why-do-i-need-a-data-
lake-for-big-data/
[21] Daniel Newman, “Data As A Service: The Big Opportunity For
Business”. Source:
https://www.forbes.com/sites/danielnewman/2017/02/07/data-as-a-
service-the-big-opportunity-for-business/#6b4b8a4a24d9
[22] Pushpak Sarkar, “Data as a Service. A framework for providing
Reusable Enterprise Data Services”.
[23] Ben Sharman, “Architecting Data Lakes”. O’REILLY
AIOps
[24] Margaret Rouse, “AIOps (artificial intelligence for IT operations)”.
Source:
https://searchitoperations.techtarget.com/definition/AIOps?track=NL-
1823&ad=920913&src=920913&asrc=EM_NLN_94900603&utm_me
dium=EM&utm_source=NLN&utm_campaign=20180515_Word%20
of%20the%20Day:%20AIOps
[25] Beth Pariseau, “AI's role in future of DevOps provokes IT industry
agita”. Source:
https://searchitoperations.techtarget.com/news/450429776/AIs-role-in-
future-of-DevOps-provokes-IT-industry-agita
[26] Vijay Rayapati, “The 2017 Cloud Trends — From DevOps to NoOps”.
Source: https://articles.microservices.com/the-2017-cloud-trends-
from-devops-to-noops-1d12fa85d433
[27] Will Cappelli, Colin Fletcher, Pankaj Prasad, “12 Steps to Artificial
Intelligence for IT Operations Excellence”. Source:
http://planinonline.com.br/gartner-news/wp-
content/uploads/2018/02/12_steps_to_artificial_intel_333595.pdf
[28] Manuel Ramos Cabrer, “Una arquitectura para sistemas inteligentes
adaptativos basada en el modelo de pizarra”. Source:
http://nortia.det.uvigo.es/grupo/images/pdf/tesis/tesis-manuel.pdf
[29] Bishnu Nayak, “Artificial intelligence is rewriting the book on IT
operations”. Source: https://jaxenter.com/artificial-intelligence-in-it-
144495.html
[30] Logz.io, “How to Power Your IT Operations With Artificial
Intelligence”. Source: https://logz.io/blog/how-to-power-your-it-
operations-with-artificial-intelligence/
[31] JOE HERTVIK, “What Is AIOps? AIOps Explained”. Source:
https://www.bmc.com/blogs/what-is-aiops/
[32] Patrick Campbell, “Reduce MTTR: Machine Learning to the Rescue”.
Source: https://www.bmc.com/blogs/reduce-mttr-machine-learning-
rescue/
Otros
[33] Silvia Chauvin, “El cisne Negro: EL impacto de lo Altamente
Improbable.” Source: http://www.mujeresdeempresa.com/el-cisne-
negro-el-impacto-de-lo-altamente-improbable/
DataOps
[34] Marta Nieto, “DataOps, la disciplina de datos emergente que toda
empresa deseará”. Source: https://blogthinkbig.com/dataops-
tecnologia-datos-emergente
[35] Ashish Thusoo & Joydeep Sen Sarma, “Creating a Data-Driven
Enterprise with DataOps”

Más contenido relacionado

La actualidad más candente

Organizar para la Complejidad, parte I+II. Como hacer que el trabajo funcione...
Organizar para la Complejidad, parte I+II. Como hacer que el trabajo funcione...Organizar para la Complejidad, parte I+II. Como hacer que el trabajo funcione...
Organizar para la Complejidad, parte I+II. Como hacer que el trabajo funcione...Niels Pflaeging
 
Transformando: Administrar en la Complejidad 2003
Transformando: Administrar en la Complejidad 2003Transformando: Administrar en la Complejidad 2003
Transformando: Administrar en la Complejidad 2003Gustavo Giorgetti
 
Construcción de un modelo de gestion del conocimiento
Construcción de un modelo de gestion del conocimientoConstrucción de un modelo de gestion del conocimiento
Construcción de un modelo de gestion del conocimientoRoger David Sanchez
 
Desarrollo de la unidad 3 y caso colgar
Desarrollo de la unidad 3 y caso colgarDesarrollo de la unidad 3 y caso colgar
Desarrollo de la unidad 3 y caso colgarkarina
 
Seminario pensamiento sistemico y simulacion estrategica
Seminario pensamiento sistemico y simulacion estrategicaSeminario pensamiento sistemico y simulacion estrategica
Seminario pensamiento sistemico y simulacion estrategicaRoberto A. Oropeza Y.
 
Conocimiento organizacional cuervo
Conocimiento organizacional cuervoConocimiento organizacional cuervo
Conocimiento organizacional cuervosimonamercedes
 

La actualidad más candente (9)

Organizar para la Complejidad, parte I+II. Como hacer que el trabajo funcione...
Organizar para la Complejidad, parte I+II. Como hacer que el trabajo funcione...Organizar para la Complejidad, parte I+II. Como hacer que el trabajo funcione...
Organizar para la Complejidad, parte I+II. Como hacer que el trabajo funcione...
 
Transformando: Administrar en la Complejidad 2003
Transformando: Administrar en la Complejidad 2003Transformando: Administrar en la Complejidad 2003
Transformando: Administrar en la Complejidad 2003
 
Gestion del Conocimiento
Gestion del ConocimientoGestion del Conocimiento
Gestion del Conocimiento
 
7principios ramirez
7principios ramirez7principios ramirez
7principios ramirez
 
Construcción de un modelo de gestion del conocimiento
Construcción de un modelo de gestion del conocimientoConstrucción de un modelo de gestion del conocimiento
Construcción de un modelo de gestion del conocimiento
 
Desarrollo de la unidad 3 y caso colgar
Desarrollo de la unidad 3 y caso colgarDesarrollo de la unidad 3 y caso colgar
Desarrollo de la unidad 3 y caso colgar
 
Seminario pensamiento sistemico y simulacion estrategica
Seminario pensamiento sistemico y simulacion estrategicaSeminario pensamiento sistemico y simulacion estrategica
Seminario pensamiento sistemico y simulacion estrategica
 
Conocimiento organizacional cuervo
Conocimiento organizacional cuervoConocimiento organizacional cuervo
Conocimiento organizacional cuervo
 
Modelo seci nonakaytakeuchi2
Modelo seci nonakaytakeuchi2Modelo seci nonakaytakeuchi2
Modelo seci nonakaytakeuchi2
 

Similar a Futuro tecnologico.una vision_teorica__v1.1

Trabajo Práctico 02 Heterarquía Vs Jerarquía
Trabajo Práctico 02 Heterarquía Vs Jerarquía Trabajo Práctico 02 Heterarquía Vs Jerarquía
Trabajo Práctico 02 Heterarquía Vs Jerarquía Roberto Soto
 
Notas sobre sistemas de información
Notas sobre sistemas de informaciónNotas sobre sistemas de información
Notas sobre sistemas de informaciónDulce Maria Manzo
 
informe taller Empresas del Procomún
informe taller Empresas del Procomúninforme taller Empresas del Procomún
informe taller Empresas del Procomúnyproductions
 
Hsalazar_evidencia_portafolio_de_trabajo
Hsalazar_evidencia_portafolio_de_trabajoHsalazar_evidencia_portafolio_de_trabajo
Hsalazar_evidencia_portafolio_de_trabajosalazth
 
Software libre para comunidades y su impacto en las organizaciones: en la tra...
Software libre para comunidades y su impacto en las organizaciones: en la tra...Software libre para comunidades y su impacto en las organizaciones: en la tra...
Software libre para comunidades y su impacto en las organizaciones: en la tra...Ricardo Pluss
 
El Modelado de Negocios y la Producción del Software, un Ensayo
El Modelado de Negocios y la Producción del Software, un EnsayoEl Modelado de Negocios y la Producción del Software, un Ensayo
El Modelado de Negocios y la Producción del Software, un EnsayoIng-D-SW-TorresKhano--ME
 
Proyecto Final
Proyecto FinalProyecto Final
Proyecto Finallinapau26
 
Model de nonak (para blog)
Model de nonak (para blog)Model de nonak (para blog)
Model de nonak (para blog)CeSalinas
 
Inconvenientes de los sistemas de gestion del conocimiento / Drawbacks of kno...
Inconvenientes de los sistemas de gestion del conocimiento / Drawbacks of kno...Inconvenientes de los sistemas de gestion del conocimiento / Drawbacks of kno...
Inconvenientes de los sistemas de gestion del conocimiento / Drawbacks of kno...FORMAEMPLEO
 
Gestionar el conocimiento en la empresa 2.0
Gestionar el conocimiento en la empresa 2.0Gestionar el conocimiento en la empresa 2.0
Gestionar el conocimiento en la empresa 2.0Alfredo Castañeda
 

Similar a Futuro tecnologico.una vision_teorica__v1.1 (20)

Enfoque sistemico
Enfoque sistemicoEnfoque sistemico
Enfoque sistemico
 
El valor de un erp
El valor de un erpEl valor de un erp
El valor de un erp
 
Trabajo Práctico 02 Heterarquía Vs Jerarquía
Trabajo Práctico 02 Heterarquía Vs Jerarquía Trabajo Práctico 02 Heterarquía Vs Jerarquía
Trabajo Práctico 02 Heterarquía Vs Jerarquía
 
Principales Errores En Arquitectura De La Información
Principales Errores En Arquitectura De La InformaciónPrincipales Errores En Arquitectura De La Información
Principales Errores En Arquitectura De La Información
 
Trabajo Práctico 02
Trabajo Práctico 02Trabajo Práctico 02
Trabajo Práctico 02
 
Pasos para el proyecto
Pasos para el  proyectoPasos para el  proyecto
Pasos para el proyecto
 
Notas sobre sistemas de información
Notas sobre sistemas de informaciónNotas sobre sistemas de información
Notas sobre sistemas de información
 
Gestion estrategica ri
Gestion estrategica riGestion estrategica ri
Gestion estrategica ri
 
informe taller Empresas del Procomún
informe taller Empresas del Procomúninforme taller Empresas del Procomún
informe taller Empresas del Procomún
 
Modulo1
Modulo1Modulo1
Modulo1
 
Presentación1
Presentación1Presentación1
Presentación1
 
Hsalazar_evidencia_portafolio_de_trabajo
Hsalazar_evidencia_portafolio_de_trabajoHsalazar_evidencia_portafolio_de_trabajo
Hsalazar_evidencia_portafolio_de_trabajo
 
Software libre para comunidades y su impacto en las organizaciones: en la tra...
Software libre para comunidades y su impacto en las organizaciones: en la tra...Software libre para comunidades y su impacto en las organizaciones: en la tra...
Software libre para comunidades y su impacto en las organizaciones: en la tra...
 
Libro
LibroLibro
Libro
 
El Modelado de Negocios y la Producción del Software, un Ensayo
El Modelado de Negocios y la Producción del Software, un EnsayoEl Modelado de Negocios y la Producción del Software, un Ensayo
El Modelado de Negocios y la Producción del Software, un Ensayo
 
Proyecto Final
Proyecto FinalProyecto Final
Proyecto Final
 
Model de nonak (para blog)
Model de nonak (para blog)Model de nonak (para blog)
Model de nonak (para blog)
 
Seagate Technology
Seagate TechnologySeagate Technology
Seagate Technology
 
Inconvenientes de los sistemas de gestion del conocimiento / Drawbacks of kno...
Inconvenientes de los sistemas de gestion del conocimiento / Drawbacks of kno...Inconvenientes de los sistemas de gestion del conocimiento / Drawbacks of kno...
Inconvenientes de los sistemas de gestion del conocimiento / Drawbacks of kno...
 
Gestionar el conocimiento en la empresa 2.0
Gestionar el conocimiento en la empresa 2.0Gestionar el conocimiento en la empresa 2.0
Gestionar el conocimiento en la empresa 2.0
 

Más de Victor Martinez

Addo 2019 ppt_the_dream_of_antifragile_systems- final
Addo 2019 ppt_the_dream_of_antifragile_systems- finalAddo 2019 ppt_the_dream_of_antifragile_systems- final
Addo 2019 ppt_the_dream_of_antifragile_systems- finalVictor Martinez
 
Meetup Málaga caos y kubernetes
Meetup Málaga caos y kubernetesMeetup Málaga caos y kubernetes
Meetup Málaga caos y kubernetesVictor Martinez
 
Apache nifi_introduccion_v1.0
Apache nifi_introduccion_v1.0Apache nifi_introduccion_v1.0
Apache nifi_introduccion_v1.0Victor Martinez
 
Malaga chaos-caminando hacia-sistemas_antifragiles-v0.1
Malaga chaos-caminando hacia-sistemas_antifragiles-v0.1Malaga chaos-caminando hacia-sistemas_antifragiles-v0.1
Malaga chaos-caminando hacia-sistemas_antifragiles-v0.1Victor Martinez
 
Introduccion a hyperledger meetup_vthot4
Introduccion a hyperledger meetup_vthot4Introduccion a hyperledger meetup_vthot4
Introduccion a hyperledger meetup_vthot4Victor Martinez
 
blockchain e industria 4.0 (Vitoria)
blockchain e industria 4.0  (Vitoria)blockchain e industria 4.0  (Vitoria)
blockchain e industria 4.0 (Vitoria)Victor Martinez
 
Dev opsconf una-vision_desde_sistemas-v1..0
Dev opsconf una-vision_desde_sistemas-v1..0Dev opsconf una-vision_desde_sistemas-v1..0
Dev opsconf una-vision_desde_sistemas-v1..0Victor Martinez
 

Más de Victor Martinez (7)

Addo 2019 ppt_the_dream_of_antifragile_systems- final
Addo 2019 ppt_the_dream_of_antifragile_systems- finalAddo 2019 ppt_the_dream_of_antifragile_systems- final
Addo 2019 ppt_the_dream_of_antifragile_systems- final
 
Meetup Málaga caos y kubernetes
Meetup Málaga caos y kubernetesMeetup Málaga caos y kubernetes
Meetup Málaga caos y kubernetes
 
Apache nifi_introduccion_v1.0
Apache nifi_introduccion_v1.0Apache nifi_introduccion_v1.0
Apache nifi_introduccion_v1.0
 
Malaga chaos-caminando hacia-sistemas_antifragiles-v0.1
Malaga chaos-caminando hacia-sistemas_antifragiles-v0.1Malaga chaos-caminando hacia-sistemas_antifragiles-v0.1
Malaga chaos-caminando hacia-sistemas_antifragiles-v0.1
 
Introduccion a hyperledger meetup_vthot4
Introduccion a hyperledger meetup_vthot4Introduccion a hyperledger meetup_vthot4
Introduccion a hyperledger meetup_vthot4
 
blockchain e industria 4.0 (Vitoria)
blockchain e industria 4.0  (Vitoria)blockchain e industria 4.0  (Vitoria)
blockchain e industria 4.0 (Vitoria)
 
Dev opsconf una-vision_desde_sistemas-v1..0
Dev opsconf una-vision_desde_sistemas-v1..0Dev opsconf una-vision_desde_sistemas-v1..0
Dev opsconf una-vision_desde_sistemas-v1..0
 

Último

How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.FlorenciaCattelani
 
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptx
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptxEL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptx
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptxMiguelAtencio10
 
Avances tecnológicos del siglo XXI y ejemplos de estos
Avances tecnológicos del siglo XXI y ejemplos de estosAvances tecnológicos del siglo XXI y ejemplos de estos
Avances tecnológicos del siglo XXI y ejemplos de estossgonzalezp1
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveFagnerLisboa3
 
Refrigerador_Inverter_Samsung_Curso_y_Manual_de_Servicio_Español.pdf
Refrigerador_Inverter_Samsung_Curso_y_Manual_de_Servicio_Español.pdfRefrigerador_Inverter_Samsung_Curso_y_Manual_de_Servicio_Español.pdf
Refrigerador_Inverter_Samsung_Curso_y_Manual_de_Servicio_Español.pdfvladimiroflores1
 
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptx
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptxPROYECTO FINAL. Tutorial para publicar en SlideShare.pptx
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptxAlan779941
 
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...JohnRamos830530
 
Avances tecnológicos del siglo XXI 10-07 eyvana
Avances tecnológicos del siglo XXI 10-07 eyvanaAvances tecnológicos del siglo XXI 10-07 eyvana
Avances tecnológicos del siglo XXI 10-07 eyvanamcerpam
 
Modulo-Mini Cargador.................pdf
Modulo-Mini Cargador.................pdfModulo-Mini Cargador.................pdf
Modulo-Mini Cargador.................pdfAnnimoUno1
 
pruebas unitarias unitarias en java con JUNIT
pruebas unitarias unitarias en java con JUNITpruebas unitarias unitarias en java con JUNIT
pruebas unitarias unitarias en java con JUNITMaricarmen Sánchez Ruiz
 
Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21mariacbr99
 

Último (11)

How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.
 
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptx
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptxEL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptx
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptx
 
Avances tecnológicos del siglo XXI y ejemplos de estos
Avances tecnológicos del siglo XXI y ejemplos de estosAvances tecnológicos del siglo XXI y ejemplos de estos
Avances tecnológicos del siglo XXI y ejemplos de estos
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial Uninove
 
Refrigerador_Inverter_Samsung_Curso_y_Manual_de_Servicio_Español.pdf
Refrigerador_Inverter_Samsung_Curso_y_Manual_de_Servicio_Español.pdfRefrigerador_Inverter_Samsung_Curso_y_Manual_de_Servicio_Español.pdf
Refrigerador_Inverter_Samsung_Curso_y_Manual_de_Servicio_Español.pdf
 
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptx
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptxPROYECTO FINAL. Tutorial para publicar en SlideShare.pptx
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptx
 
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
 
Avances tecnológicos del siglo XXI 10-07 eyvana
Avances tecnológicos del siglo XXI 10-07 eyvanaAvances tecnológicos del siglo XXI 10-07 eyvana
Avances tecnológicos del siglo XXI 10-07 eyvana
 
Modulo-Mini Cargador.................pdf
Modulo-Mini Cargador.................pdfModulo-Mini Cargador.................pdf
Modulo-Mini Cargador.................pdf
 
pruebas unitarias unitarias en java con JUNIT
pruebas unitarias unitarias en java con JUNITpruebas unitarias unitarias en java con JUNIT
pruebas unitarias unitarias en java con JUNIT
 
Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21
 

Futuro tecnologico.una vision_teorica__v1.1

  • 1. pág. 1 Resumen – El presente documento nace como un intento de ordenar el conjunto de ideas que llevo años desarrollando. Al final, por falta de tiempo o de conocimiento no las he podido desarrollarlas en la medida que me hubiera gustado, pero aun así he decido escribirlas y organizarlas de forma que puedan servir de base para mis futuros desarrollos. O en su defecto, que otras personas puedan interesarse por algunas de las partes y desarrollarlas de la forma que crean conveniente. Sobra decir que todas las reflexiones y conte- nidos son totalmente personales por lo que probablemente no sean acertados, pero aprovechándome de la licencia que el papel me permite, desarrollaré esta visión teórica del futuro/presente de la tecnología en base a mis conocimientos actuales y sesgos intelectuales. Index – Learning organization, Learning & Innovation Society, BizDevOps, DataOps, Arquitectura Informacinal, Ambient Intelligent, AIOps, VUCA. I. INTRODUCCIÓN. Hace ya 25 años que leí uno de los libros que marcarían mi forma de pensar a lo largo de todos estos años. “Stephen Hawking y la búsqueda de una teoría del universo”, es un pequeño libro que describe de forma magistral la búsqueda de una teoría física unificada que englobe al resto. Habla de las problemáticas que han ido surgiendo con cada una de las teorías y como han conseguido ir juntando unas con otras para, poco a poco, conseguir una visión global de las leyes que describen la naturaleza. Salvando las distancias, esta idea de ir juntando todas las ideas y teorías para conseguir un argumento general es lo que siempre me ha movido para aprender diferentes materias que a priori no parecen tener relación y al final convergen en diferentes puntos de vista de unas ideas generales que emergen como entidades transversales a numerosos campos. Siguiendo este argumento, voy a exponer un desarrollo conceptual que englobará ideas de diferentes campos que podemos unir para construir el relato del dominio en el que nos moveremos al largo de la exposición. De ahí pasaré a describir las diferentes entidades tecnológicas, que, a día de hoy, creo que serán los principales agentes de cambio de los procesos de negocio presentes y futuros y terminare con unas conclusiones básicas. Durante los diferentes apartados intentaré dar una visión clara y concisa de los diferentes conceptos y definiciones que nos servirán de base para la construcción de la ontología propia que le dé sentido a la visión global que expondré. En cierta medida es más importante que tengamos claro cuál es el domino en el que nos movemos y que significado tienen los conceptos en este contexto que la propia exactitud de las definiciones. Las definiciones siempre las debemos considerar como algo mutable que se ajusta al contexto en el que se proponen. Lo mismo sucede con las metodologías, marcos de referencia y estándares, son herramientas conceptuales que debemos adecuar y asimilar en nuestro dominio de actuación, modificando todo aquello que no encaje con nuestra visión. Al final los conceptos estarán bien o mal, deberán evolucionar o cambiar, pero lo que realmente nos debe preocupar es que todos los participantes entendamos lo que los términos (meras representaciones lógicas) quieren decir y en qué contexto. A priori, la idea parece sencilla …, pero en la práctica es bastante difícil de implementar. Para abordar las ideas dividiré el documento en diferentes partes. En una primera, hablare sobre mi visión del futuro de las empresas tecnológicas dentro de un panorama VUCA y cómo afecta este, a las características que deberán presentar las personas que trabajen en ellas. Ilustración 1 Modificación de: Caos, orden y finalidad en las ilustraciones de Samuel Gómez Source: http://arteaunclick.es/2015/01/26/samuel-gomez-grafito-dibujo- ilustracion/ En mi contexto entenderemos el concepto de VUCA como un entorno volátil, incierto, complejo y ambiguo donde la empresa deberá desempeñar sus operatorias y funciones. Después presentaré el concepto de learning & innovation Society(LIS) como la expresión utópica de lo que la sociedad debería ser para afrontar los escenarios empresariales futuros. En ellos las organizaciones deberán convertirse en un tipo de empresa denominado learning organization para poder abordar de la forma más eficiente posible los escenarios VUCA. Una vez entendido el contexto y algunas de las definiciones pasaremos a ver el apartado de las tecnologías, en el que me centrare en describir las denominadas “GPT” o general purpose tecnology. Estas tecnologías presentan cualidades intrínsecas que las hacen muy interesantes para el modelado de los futuros procesos que implementarán las organizaciones. Hasta hace pocos años sólo elementos como la máquina de vapor o la electricidad han sido consideradas como GPTs, pero en las últimas décadas, y gracias al impulso de la industria 4.0, las tecnologías digitales están pasando a considerarse en esta categoría. Ya no quedan dudas que la introducción de estas nuevas tecnologías en la industria permitirá cambiar la forma de fabricación. Ahora bien, el reto que se nos plantea es ser capaces de identificar tecnologías con esta capacidad de transformación. Durante el documento Futuro Tecnológico. Una visión teórica. Victor Martinez Bahillo (victor.martinez@versia.com) Versia Tecnología Emergentes
  • 2. pág. 2 desarrollaré las GPTs en las que creo que podremos aportar o en su defecto desarrollar e implementar. En el siguiente esquema podemos ver u resumen de ellas. Ilustración 2 Cuadro de GPT seleccionadas. Dentro de las GPTs que expondré, encontraremos tecnologías como X Data Space, arquitectura que englobará el Data Informed && Data driven que será implementado por un DaaS siguiendo una cultura DataOps; Smart Dapp como diseño de aplicaciones descentralizadas apoyadas en entornos de blockchain transversales; security by disign como elemento diferenciador en un mundo ultra-conectado y la hyper-convergencia & cloud systems como exponente máximo de la transformación de las arquitecturas físicas empresariales. Para terminar la parte de tecnologías me centrare en el ambient intelligent donde trataré uno de los temas más interesantes de estos últimos años, los procesos adaptativos impulsados por la inteligencia artificial(IA) así como las derivadas que estas tecnologías introducirán en entornos como la operación de los sistemas (IAOps). Describiré de una forma superficial el mundo tan interesante que se nos presenta al producirse la intersección entre la IA y la cognición humana. Un mundo en el que las tecnologías se funden con el ambiente ofreciéndonos un nuevo mundo de posibilidades. Después de describir las tecnologías de propósito general seleccionadas pasaré a desarrollar los conceptos de BizDevOps y DataOps como culturas de trabajo que nos ayudarán a marcar las pautas de los cambios que necesitamos para llegar a intentar conseguir una learning organization. Por un lado, BizDevOps es considerado el DevOps 2.0 y está cambiando la forma en la que las compañías implementan el nuevo software. Las implementaciones se lanzan en alineación casi perfecta con los objetivos comerciales de la empresa, así como con los requisitos de seguridad y cumplimiento. BizDevOps integrará a los gerentes y directores empresariales en el ciclo de vida DevOps, creando un flujo de trabajo simplificado desde la estrategia empresarial hasta la implementación y el mantenimiento. Imaginemos por un segundo, al responsable de ventas, lanzando de forma automática la puesta en producción de la 1 La entropía es el grado de desorden y caos que existe en un sistema. Es el segundo principio de la termodinámica que puede definirse esquemáticamente como el “progreso para la destrucción” o “desorden campaña que han diseñado… sin intervención de ningún integrante del equipo TI. Por otro, DataOps propone desde su base filosófica la democratización del dato y gestionar los datos a lo largo de los diferentes departamentos y perfiles. Técnicamente se define como un marco de colaboración empresarial que alinea los objetivos de gestión de datos con los ideales de consumo de datos para maximizar el valor de los datos derivados. DataOps explotara la cadena de suministro de información para crear un flujo de producción de datos optimizado para la eficiencia, la velocidad y la obtención de resultados. Durante el apartado veremos algunos conceptos claves como la arquitectura informacional, Data Lakes y DaaS (Data as a Service). Para terminar esta introducción, quiero recalcar que todo lo expuesto a continuación son simplemente ideas que conformar mi propia visión de contexto, la cual va evolucionando y mutando, incluso mientras escribo este documento …. II. NUEVO MODELO. Nunca me ha interesado mucho el modelo organizacional de las empresas, ni el conjunto de complejas relaciones interdepartamentales que se construyen en ellas, pero para poder crear arquitecturas que se ajusten a sus necesidades hay que entenderlas. A mí me gusta pensar en ellas como organismos vivos que luchan contra el aumento de entropía1 (desorden) que las devora por dentro. Por definición todo sistema tiende a aumentar la entropía y para tratar de evitarlo utilizan los recursos del ecosistema para mantenerla contenida. En el momento que aparecen condiciones en el que no se puede mantener la entropía controlada, el sistema muere o desaparece. Cambiemos empresa por vida y tendremos una buena definición de la misma, “Sistema que lucha contra la entropía aprovechándose de los recursos del medio”. En el contexto empresarial tanto las condiciones del entorno como las patologías internas pueden llevar a un desequilibrio de la entropía con fatales consecuencias. Ser capaces de detectar estos factores es algo complejo y más aún en el escenario que nos movemos actualmente. Para describirlo se ha rescatado un término muy interesante denominado VUCA, acrónimo utilizado por primera vez por el Ejército de Estados Unidos para definir el mundo posterior al colapso del bloque comunista al comienzo de la década de los noventa. El término responde al acrónimo ingles formado por los términos Volatily(V), Uncertainly(U), Complexity(C) y ambiguity(A) y se caracteriza por ser un escenario en el que las empresas se ven en la obligación de adaptarse a los continuos cambios que atacan su programación estratégica y sus rutinas profesionales. Podemos desarrollar los diferentes términos de la siguiente forma: • Volatilidad(V). La naturaleza y la dinámica de los cambios, así como la velocidad y el volumen con los que se están produciendo, transforman los escenarios de inherente a un sistema”. En este contexto el caos es la nada y significa la máxima indiferenciación de un sistema (Cesarman: 1982).
  • 3. pág. 3 manera inesperada y constante. La realidad social se mueve a una velocidad que no siempre coincide con la agilidad que muestran las estructuras empresariales que deben enfrentarse ante un estado de inestabilidad permanente con escaso tiempo para reaccionar. • Incertidumbre(U). Intentamos categorizar soluciones usando modelos y estableciendo patrones predecibles. Pero el ritmo frenético marcado por la volatilidad origina una falta de previsibilidad y una gran incerteza al no saber cómo y qué factores se van a desarrollar y cómo nos pueden llegar a influir. Los escenarios no pueden ser anticipados, lo que dificulta nuestra capacidad de conceptualizar las amenazas o de detectar oportunidades, por lo que las decisiones tienen cada vez un mayor componente de incertidumbre. Las soluciones de ayer no son útiles para los desafíos de hoy. Los acontecimientos pasados ya no son predictores del futuro, lo que dificulta la previsión y la toma de decisiones y nos obliga a reinventarnos constantemente. Además, siempre se nos olvida que los sistemas complejos no son predecibles por naturaleza ya que están sujetos a la teoría del cisne negro de Nassim Nicholas Taleb2 . • Complejidad(C). El grado de complejidad de los problemas y la variabilidad en cuanto a las posibles soluciones se incrementan. Cada vez es más complejo entender la relación entre diferentes elementos que se interrelacionan entre sí, cuando se pierde la conexión entre la cadena causa-efecto, lo que genera confusión y desconcierto. • Ambigüedad(A). Aumenta la confusión y la falta de claridad a la hora de determinar cuáles son los factores o las variables que determinan un hecho o suceso. Cada vez es más difícil discernir la realidad y existen más significados posibles de esta, con lo que se genera un potencial de diversidad de interpretaciones y significados mixtos. La ambigüedad conduce principalmente a la ineficiencia e inyecta una alta dosis de inseguridad que puede ser una de las principales causas de conflicto en las organizaciones; a su vez, puede convertirse en un peligro ante la incapacidad de conceptualizar con precisión las amenazas, antes de que se conviertan en letales para la organización, o de detectar las oportunidades. Creo que podemos llegar a afirmar que las empresas del hoy y del mañana se moverán en este ambiente caótico, turbulento y rápidamente cambiante que define la nueva normalidad. Dicho esto, las empresas deberán de prepararse para ello mediante la adquisición de nuevas competencias y habilidades que les permitirán generar antídotos mentales y organizativos de cara a afrontar estos nuevos entornos. En esta 2 La Teoría del Cisne Negro o Teoría de los Eventos del Cisne Negro, es una metáfora que encierra el siguiente concepto: - El evento es una sorpresa para el observador pues está fuera de las expectativas normales pues no existe ningún evento en el pasado que apunte de forma convincente a su posibilidad; - Tiene un impacto extremo con importantes consecuencias en nuestras vidas; línea Bob Johansen3 , del Institute for the Future, propone que las empresas deberán trabajar en la visión, comprensión, claridad y agilidad de la siguiente forma: • Una buena forma de afrontar la volatilidad es contar con una visión clara de futuro. Comprender e intuir lo que viene permitirá a las organizaciones anticiparse, prepararse y adoptar nuevos enfoques. Pero no se trata solo de conocimiento y comprensión, sino de un cambio de actitud y, sobre todo, de un cambio de mirada y de una nueva manera de pensar que permita formular las preguntas y los enfoques adecuados. Tener visión es contar con una dirección clara; significa una actitud proactiva que trabaja para diseñar nuestro propio futuro, no para enfrentarnos al que creen otros. Una visión compartida con toda la organización que inspire y alinee los esfuerzos en esa dirección. • Una de las mejores maneras de afrontar la incertidumbre es con entendimiento y conocimiento. Para ser eficientes en entornos VUCA, las empresas deberán tener una mentalidad abierta para explorar y pensar de manera divergente huyendo de modelos preestablecidos. Además, deberán fomentar una formación constante en un entorno en el que los nuevos avances tecnológicos hacen necesaria una actualización casi inmediata de los conocimientos. • Claridad. Frente a la complejidad, buscar la simplicidad, analizar y comprender la complejidad en sus diferentes perspectivas desde un enfoque holístico de los problemas que nos permitirá tomar decisiones más eficaces. Para ello se requiere una toma de decisiones empresariales más informadas. Invertir en información, recolectarla, interpretarla y compartirla, monitorizar datos y tendencias nos permitirá arrojar claridad ante la complejidad. La empresa que mejor informada esté, que mejor sistema de información y traducción de los datos en conocimiento posea, tendrá más posibilidades. • La ambigüedad se puede contrarrestar con agilidad, capacidad de comunicarse a través de la organización y moverse rápidamente para aplicar soluciones. Ante un entorno tan imprevisible, la rápida capacidad de reacción ante los acontecimientos es más importante que la planificación. La flexibilidad de las empresas es un gran indicador de las posibilidades de adaptación al cambio y de la capacidad para aprovechar las oportunidades. Las empresas deben mudar sus estructuras tradicionales, con estructuras verticales y cultura rígida y estanca, hacia modelos menos rígidos que permitan amoldarse mejor a las oportunidades e innovaciones que se presentan en los escenarios de incertidumbre. - Después del hecho, el evento es racionalizado por retrospección como si pudiera haber sido esperado (por ejemplo, los datos estaban disponibles, pero no se los tuvo en cuenta). En otras palabras, no podemos predecirlo, pero, una vez que ocurre, pensamos que lo “veíamos venir”. 3 Autor de Leaders Make the Future: Ten New Leadership Skills for an Uncertain World.
  • 4. pág. 4 Mirando los modelos de empresa actuales y teniendo en cuenta tanto el entorno VUCA, como las características que tienen que presentar, he llegado a la conclusión de que las learning organization puede ser un buen modelo que encaje bien con estas necesidades. Las learning organization facilitan el aprendizaje de todos sus miembros, compartiendo globalmente la información y experimentando en sí misma una transformación constante. Este tipo de organizaciones se caracterizan por presentar la innovación, conocimiento compartido, resiliencia y adaptabilidad como características principales. La innovación no solo está en su ADN, sino que forma parte de su fenotípica4 que es bastante más interesante ya que hace referencia a la expresión física de dicha característica. El conocimiento compartido (shared learning) es la base de funcionamiento. Todas las personas disponen de los mejores datos disponibles para tomar las decisiones que se encuentran en su día a día. El enfoque de resiliencia hace referencia a la capacidad de dirigir la mirada hacia la posibilidad de identificar los recursos usados por la empresa para mejorar y crecer, sobre todo en circunstancias adversas. La capacidad de adaptarse a los diferentes desafíos que se plantean sobre su planificación estratégica proviene de su agilidad y flexibilidad propiciado tanto por su tecnología como por el perfil de sus personas. Este último punto, las personas, es clave para el buen funcionamiento de las learning organization. La imposición de procedimientos y herramientas no crea la cultura necesaria para llevar a buen término este tipo de organizaciones. Se necesita gente a la que le guste estar en continuo aprendizaje y que sepa adaptarse a las diferentes situaciones. La búsqueda del conocimiento y la eficiencia debe ser continuo, voluntario y auto-motivado por razones personales o profesionales. Con este tipo de personas se creará una cultura que arrastrará al resto de personas que se unan. Actualmente a este tipo de personas se las denomina con el término “Lifelong learning persons” y son las que pueden marcar la diferencia en el futuro. Desde las instituciones educativas deberíamos estar trabajando en formar personas con estas capacidades. Llegado este punto ya comenzamos a tener algunos conceptos interesantes, pero vamos a introducir una idea esencial que nos permitirá unirlos todos: El pensamiento sistémico. Esta forma de pensar es inherente a las learning organization y nos enseña a ver totalidades en lugar de partes. Nos ayudará a tener esa visión global que nos ayudará a contrarrestar la volatilidad. Permite que las personas vean más allá de sus competencias diarias y puedan ver los objetivos de conjunto permitiéndoles ser partícipes activos en la modelación de la realidad dentro de sus márgenes de contexto. A priori, esta afirmación puede parecer banal, pero pequeños cambios en los procesos pueden producir grandes disrupciones en el funcionamiento global. Si utilizamos esta forma de pensar, rápidamente llegamos a la conclusión de que las empresas no son sistemas aislados sin dependencias del exterior, sino que forman parte de complejos tejidos empresariales que se interrelacionan de muy diversas formas. Tanto entre ellas como con el resto de componentes del mundo. Ahora bien, ¿qué pasaría si 4 En biología y específicamente en genética, se denomina fenotipo a la expresión del genotipo en función de un determinado ambiente. No importa que este en tu ADN, sino se expresa de forma correcta. reconvertimos este enjambre de empresas en una red de learning organizations en la que trabajen Lifelong learning person? La respuesta es harto compleja, pero a mí me gusta pensar que pasaríamos a un nuevo modelo al que podríamos denominar Learning & Inovation Socity. Una sociedad formada por empresas que nacen, se desarrollan y que son capaces de adaptarse a los entornos VUCA de forma ágil. En este entorno lo importante sería la supervivencia de la sociedad que gracias a sus capacidades de aprendizaje y adaptabilidad son capaces de llevar adelante o de reinventar las empresas incluso en entornos adversos y cambiantes. Se que esta es una visión utópica de la realidad futura, pero me gusta pensar que gracias a las nuevas tecnologías que promueven las GPTs podremos ayudar a que esta realidad se materialice. Ilustración 3 Learning & Innovation Society (LIS). No quisiera terminar esta parte sin hablar de la palabra “Innovation” que aparece en la nomenclatura del nuevo modelo. Esta palabra sirve de conexión con la sociedad del conocimiento que la Unión Europea desea alentar como modelo de desarrollo. La innovación y el desarrollo tecnológico constituyen la pieza clave, porque a través de ellos se podrá manifestar el valor económico del conocimiento. Por esta razón debemos de tener presente que sólo las sociedades sensibles a las demandas de innovación tecnológica, y a su valor social y cultural, serán verdaderamente capaces de asegurar un mejor futuro para sus miembros. III. NUEVAS TECNOLOGIAS. Durante los últimos años las Tecnologías han evolucionado de forma exponencial haciendo prácticamente imposible conseguir tener una visión global de las mismas. Sin esta visión global se hace muy difícil poder identificar las tecnologías con capacidad de convertirse en GPTs (General Purpose Technologies) por lo que muchas veces se realiza una aproximación no tanto a la tecnología si no a la corriente que impulsa. Por ejemplo, describiré “ambient Intelligent” como GPT sabiendo que son las diferentes técnicas de IA e IoT las
  • 5. pág. 5 verdaderas GPTs. Aclarado esto punto, diremos que estas tecnologías presentan cualidades intrínsecas que las hacen muy interesantes para el modelado de los futuros procesos que implementarán las organizaciones. Hasta hace pocos años sólo elementos como la máquina de vapor o la electricidad han sido consideradas como GPTs, pero en las últimas décadas, y gracias al impulso de la industria 4.0, las tecnologías digitales están pasando a considerarse en esta categoría. Según Bresnahan y Trajtenberg (1996) podremos identificar las GPTs en base a las tres características principales que presentan: • Se caracteriza por su “aplicabilidad general, esto es, por el hecho de que realiza alguna función genérica que es vital para el funcionamiento de un gran número de productos de uso o sistemas de producción” • “Exhibe un gran dinamismo tecnológico: esfuerzos de innovación que incrementan en el tiempo la eficiencia con la cual la función genérica es realizada” • Presenta lo que podría llamarse “complementariedad innovativa”, es decir, una capacidad de potenciar innovaciones en los sectores de la economía en los que se aplica. Es importante señalar que las GPT no son sólo nuevas tecnologías, sino que pueden ser el resultado de una nueva manera de combinar las tecnologías ya existentes. A diferencia de las tecnologías de utilidad simple, que ofrecen soluciones de uso inmediato y completo, las tecnologías de utilidad general (GPT), aunque son aplicables en muchos sectores y campos de actividad, no son generalmente de uso inmediato. Suelen necesitar un tiempo de maduración y entendimiento. Es normal que estas tecnologías de propósito general desencadenen una trayectoria de crecimiento desigual, que comienza con una desaceleración prolongada seguida por una aceleración rápida (Helpman, 2004: 51). La “desaceleración prolongada” se refiere al período de reorganización, rediseño de instituciones y aprendizaje que exigen las transformaciones necesarias para la asimilación de una nueva GPT dentro de las organizaciones y empresas. Siguiendo esta idea de las GPTs, me propuse seleccionar algunas que pudieran ser la base de un departamento de análisis de tecnologías emergentes. Después de ver cuales podían encajar mejor con el área que desarrollamos, escogí las que se representan a continuación5 . 5 Si no estuviera condicionado por las necesidades de la empresa hubiera eliminado alguna y desarrollado otras como la bioinformática. Ilustración 4 Esquema de GPTs seleccionadas. Dentro de las GPTs seleccionadas encontramos Hyper- convergencia y Security by design que no desarrollaré de forma individual ya que abordan tecnologías que ya se están desarrollando actualmente de forma masiva. Por un lado, la hyper-convergencia hace referencia al cambio de paradigma a nivel hardware que están sufriendo las arquitecturas físicas de TI. Se están pasando de arquitecturas de tres capas en las que teníamos comunicaciones, almacenamiento y servidores a arquitecturas de dos capas con comunicaciones y servidores. Esto es gracias al desarrollo exponencial que han sufrido los tipos de disco y la aparición de nuevas tecnologías de creación de clúster distribuidos. Aunque el tema es muy interesante, no me extenderé más ya que las ideas implícitas ya no son muy innovadoras. Por otro lado, tenemos el security by design que es una forma de expresar la integración de la capa de seguridad en todos los estadios de implementación y despliegue de un producto. En este punto yo tengo muchas dudas, ya que considero que no deben ser los técnicos de seguridad los que impongan las configuraciones de seguridad al resto de equipos de TI, sino que deben ser cada uno de los equipos responsables de asegurar cada uno de sus entornos. Si que veo al equipo de seguridad como un QA que realice pruebas de seguridad sobre los artefactos liberados por el resto de los equipos, pero siempre manteniendo la responsabilidad última en los equipos de los entornos y nunca traspasándola al equipo de seguridad. La mayoría de los errores de seguridad derivan de una mala configuración que deberían conocer los expertos de ese entorno. Durante los siguientes capítulos trataré de explicar las GPTs que a mi modo de ver son más interesantes: • X Data Space. • Smart Dapps. • Ambient Intelligent. Consciente de que los tres conceptos seleccionados son muy amplios, trataré de dar simplemente algunas pincelas ya que un desarrollo completo se escapa a las pretensiones de este documento. Recomiendo ver la parte de bibliografía donde encontraremos enlaces a documentaciones interesantes sobre los diferentes temas.
  • 6. pág. 6 IV. X Data Space. Antes de poder entrar a definir X Data Space y lo que tratamos de hacer con los datos dentro de la organización, deberíamos de tener una idea básica de los que es un sistema informacional y cuáles son sus componentes lógicos. ¿Como se organiza y mueve la información?, ¿qué niveles de organización existe? ¿Cuál es su objetivo? Normalmente no suelo tener clara la respuesta a estas preguntas, pero lo que sí que tengo claro es que los sistemas que manejan la información de una organización deben ser mecanismos ágiles, con una gran capacidad de adaptación frente a los cambios del entorno y de los propios departamentos, que aseguren la eficacia del resultado a la hora de alcanzar los objetivos marcados y eficiente respecto al uso de recursos, sobre todo de la información. En este contexto podemos ver la información como un ente material de gran valor que circulará por toda la organización como si fuera un fluido, por cauces formales e informales y en sentido tanto horizontal como vertical. Entendido esta visión, el sistema de información será la estructura organizativa que debe administrar dichos flujos de información con la máxima eficacia y eficiencia en su recolección, procesado, almacenamiento y distribución. Ya tenemos la definición, pero necesitamos entender cuál son sus partes para poder traspasarlo a tecnología. Los componentes principales que podemos encontrar son: • El subsistema operativo. • El subsistema Informacional o Decisional. Ilustración 5 Los sistemas de la información en la arquitectura empresarial. El subsistema operativo será la base del sistema de información y es básico en la organización de los departamentos. En este subsistema se procesan los datos referentes a las actividades rutinarias de los departamentos, las cuales tienen que ser fiables, coherentes y con un tiempo de respuesta relativamente pequeño. Este subsistema lo integran los sistemas de procesamiento transaccional (TPS) que son las aplicaciones básicas para la actividad de los departamentos que desarrollan, de forma automática, funciones como por ejemplo: Guías, ayudas, Facturación, Control de Costes, Gestión de persona o recursos, …. Desde este nivel se tomaran la mayoría de las decisiones operativas. Por otro lado encontraremos el subsistema informacional o decisional, que constituye un apoyo a los distintos procesos de la toma de decisiones que impliquen a más de un departamento e incluso a nivel estratégico. Para los diferentes departamentos la información es imprescindible a la hora de acometer un proceso decisional de forma lógica, variando ésta en función del tipo de decisión a la que se hace frente. La función de este subsistema será proporcionar la información, tanto en cantidad como calidad, necesaria para los distintos procesos decisionales de la empresa. En este subsistema no se procesarán transacciones, sino información. Estaremos dentro del Sistema de información gerencial (MIS). En este sistema se extraeran datos, depositados en los TPS, así como alguna información específica para cada proceso decisional, posibilitando una mejor evaluación y elección de las alternativas en una toma de decisiones. Al ser capaz de integrar información con distintas procedencias permite proporcionar información multifuncional y agregada sobre las actividades de los departamentos. Estas salidas del subsistema, junto a las herrameintas informáticas de ayuda y soporte a la decisión, constituirán el subsitema Informacional (ó decisional). Este subsistema lo dividiremos a su vez en dos: • Los sistemas de Ayuda. Estos sistemas nos ofrecen información seleccionada configurando informes agregados resumidos, que nos servirán como ayuda a la toma de decisiones estratégicas y tácticas. Tienen un carácter enunciativo, ya que no sugieren una solución específica a un problema concreto, sólo nos ofrece un fácil y cómodo acceso a la información. • Los sistemas de soporte. Estos sistemas utilizarán la información que suministrarán los subsistemas operativos y los sistemas de ayuda para considerar las distintas alternativas y los escenarios resultantes de cada una de ellas, ofreciendo ayuda a la resolución de problemas, sobre todo las de carácter táctico y estratégico (e incluso operativo), pudiendo llegar incluso a proponer una decisión. Aquí situaremos los Sistemas de Soporte a las Decisiones (DSS). Definir así los sistemas informacionales nos abre la puerta a entender como poder separar las tecnologías que se encargan de nuestra parte operativa de la que nos da soporte decisional. Parece trivial pero esta forma de entender los sistemas informacionales nos ayudará a proponer las tecnologías de otra forma dando la sensación de que entendemos el contexto en él nos movemos. Después de este análisis superficial de los sistemas informacionales pasamos a ver lo que nos pueden aportar los X Data Space. X Data Space no es más que un término de fabricación propia derivado del concepto de Industrial Data Space. Este concepto hace referencia a la forma de compartir los datos de forma segura entre diferentes organizaciones y de cómo se interrelacionan todos los elementos que participan en este proceso. Cogiendo esta idea, podemos subir un nivel más el concepto para que englobe todo el tratamiento de los datos en las organizaciones y lo denominamos “X Data Space”. La X
  • 7. pág. 7 la podemos sustituir por cualquier entorno en el que nos movamos, Organization Data Space, Open Data Space, Government Data Space; pueden ser algunos ejemplos. X Data Space es un concepto muy amplio por lo que trataré de acotarlo a lo representado en el siguiente esquema. Ilustración 6 Esquema mínimo X Data Space. Data Space está regido o guiado por la cultura de DataOps, un marco de colaboración empresarial que alinea los objetivos de gestión de datos con los ideales de consumo de datos para maximizar el valor de los datos derivados. DataOps explotará la cadena de suministro de información para crear un flujo de datos optimizados para la eficiencia, la velocidad y la consecución de productividad. Presenta tres principios fundamentales que condicionarán las arquitecturas: • Visión global de los datos. Visión global documentada mediante el catálogo de datos que nos permite definir los flujos de los datos desde las fuentes hasta la entrega, pasando por las diferentes transformaciones y análisis. • Pensamiento Colaborativo. Estructura de comportamiento organizacional en torno al modelo de datos de viaje ideal para maximizar el valor de los datos derivados y fomentar la colaboración entre los administradores de los datos y los consumidores de los mismos. • “Get in front of Data”. Descentralización de los datos, potenciar los servicios de autoservicio y análisis de los datos en toda la organización. En definitiva, la democratización del dato y del análisis del mismo. No me extiendo más con el concepto de DataOps porque lo explicaré con más detalle en el apartado correspondiente. Centrémonos ahora en los objetivos del Data Space. Los objetivos no serán otros que proporcionar el mejor marco posible para conseguir que la organización pueda funcionar en base a las corrientes data driven y data informed6 . A la 6 Entiendo que pueden existir otros objetivos importantes, como el simple almacenamiento centralizado de los datos, pero pienso que hay que darle la dimensión de inteligencia a los datos. hora de escoger alguna de ellas tengo muchas dudas de cómo afectan al funcionamiento de las organizaciones y de cuanto de verdad tenemos desarrollados los modelos para dejar que controlen por completo las decisiones de las organizaciones. Según la variante data driven, el progreso en cualquier actividad o proceso debe estar dirigido y obligado por los datos, más que por la intuición o la experiencia personal. Y según data informed, los datos servirán para realizar controles sobre la intuición o la experiencia. Las organizaciones no basan en datos todas sus decisiones. Usan una forma más ágil y receptiva de usar los datos de forma que los datos se ven en su contexto específico. Los datos se usan para crear una hipótesis que aún no se ha demostrado. Conociendo esto, yo considero que data driven está orientado a la optimización de procesos dentro de la organización y nos permitirá acercar el foco en detalle para optimizarlos. Se podría decir que está más focalizado a la optimización de la operatoria pero nunca te dirá como cambiarla. La estrategia y la visión de conjunto necesita de una intuición y una experiencia que debe ser acompañada de una visión de los datos. Aquí es donde entra el Data Informed. Por lo tanto, una organización que implementa un Data Space debe ser data driven para optimizar los procesos y data informed para determinar las estrategias. La arquitectura de implementación del Data Space puede ser muy variada. Durante los últimos años nos han bombardeado con arquitecturas de Big Data hasta llegar a simplificarlo en dos modelos básicos: arquitectura Lambda y arquitectura Kappa. La arquitectura Lambda apareció en 2012 y define una arquitectura cuyo objetivo era tener un sistema robusto tolerante a fallos, tanto humanos como de hardware, que fuera linealmente escalable y que permitiese realizar escrituras y lecturas con baja latencia. Se caracteriza principalmente por tener varias capas de procesamiento, una en modo batch para procesado de grandes volúmenes de datos y otra streaming que es capaz de presentar los datos en tiempo cuasi-real. Ilustración 7 Ejemplo de arquitectura Lambda. La arquitectura Kappa fue introducida en 2014 y su propuesta consiste en eliminar la capa batch dejando solamente la capa de streaming. Esta única capa, a diferencia de la de tipo batch, no tiene comienzo ni un fin desde un punto de vista temporal
  • 8. pág. 8 y está continuamente procesando nuevos datos a medida que van llegando. En esta arquitectura un proceso batch se puede entender como un stream acotado, podríamos decir que el procesamiento batch es un subconjunto del procesamiento en streaming. Ahora bien, el termino big data se ha usado tanto y sin sentido que actualmente las organizaciones huyen de él y hemos tenido que evolucionar hacia otros nuevos conceptos que eviten ese rechazo. El que mejor nos encaja para definir la estructura base del Data Space es el “Data Lake”. Para definir el Data Lake voy a usar el documento, O-BDL7 de Open Group. Data Lake es una capacidad empresarial proporcionada por tecnologías provenientes del Big Data, cuyo objetivo es consolidar y preservar los datos empresariales a lo largo de su ciclo de vida. Permite que los datos puedan ser consumidos estratégicamente aplicando definiciones estructurales adecuadas y aplicando transformaciones según sea necesario. Nos ayudará a consolidar los datos de hoy, para que puedan ser transformados mañana. Contrasta con los Data Warehouse al diferir en las definiciones de esquema para el tiempo de uso (Schema on Read), en lugar de en el momento del almacenamiento (Schema on Write), dando la posibilidad de crear una idea usando todos los datos. Esta separación de preocupaciones de almacenamiento y uso permite a la empresa definir y ejecutar cualquier estrategia de conocimiento de datos (es decir descriptiva, diagnóstico, predictivo, prescriptivo), sabiendo que los datos pueden ser utilizados de manera efectiva cuando sea necesario. Las implementaciones de los Data Lake tienden a utilizar arquitecturas tipo Lambda. El principal beneficio de un Data Lake es la centralización de fuentes de contenido dispares. Una vez reunidas (de sus "silos 7 Arquitectura de referencia para un Data Lake empresarial. de información"), estas fuentes pueden ser combinadas y procesadas utilizando big data, búsquedas y análisis que de otro modo hubieran sido imposibles. Las fuentes de contenido dispares a menudo contienen información confidencial que requerirá la implementación de las medidas de seguridad apropiadas. Una vez construido el Data Lake, pasa a convertirse en el centro de la arquitectura del Data Space permitiendo a los diferentes equipos autoabastecer sus propios entornos analíticos y facilitar el intercambio de datos. En esquema de la ilustración 8 se describe una arquitectura básica de Data Lake. Podemos ver como la arquitectura se acopla perfectamente con la arquitectura labmda anteriormente presentada. En esta arquitectura encontramos diferentes capas que pueden variar en función de las necesidades de construcción del Data Lake: • Capa de ingestión: Esta capa se encarga de recoger los datos desde los orígenes. Los datos pueden llegar desde diferentes orígenes y formatos. Pueden recibirse en modo batch o en modo streaming. • Capa de Consultas (Insights). Esta capa es la encargada de proporcionar los métodos de consulta para acceder a los datos del Data Lake. • Capa de almacenamiento. Se suelen usar mecanismos como HDFS para almacenar tanto datos estructurados como no estructurados, aunque se pueden utilizar otras tecnologías de almacenamiento e incluso bases de datos. • Capa de preparación. Toma los datos en RAW y crea las estructuras necesarias para cada uno de los demandantes del sistema de forma que se facilita el análisis. Los resultados los puede colocar en otras bases Ilustración 8 Arquitectura genérica de un Data Lake.
  • 9. pág. 9 de datos más específicas que proporcionan más funcionalidades a las aplicaciones. • Capa de procesamiento ejecuta algoritmos analíticos y consultas de usuarios con diferentes tiempos: reales, interactivos, por lotes; para generar datos estructurados para facilitar el análisis. • Capa de operación unificada. Controla la capa de administración y supervisión del sistema. Incluye gestión de auditoría y competencia, gestión de datos, gestión del flujo de trabajo. Algunas de las características principales que podemos destacar de los Data Lakes son: • Almacenamiento de datos centralizado, singular y sin esquemas. Normalmente con los datos en RAW. • Mecanismos para la ingestión rápida de datos con las latencias adecuadas. • Capacidad para mapear datos entre las fuentes y proporcionar visibilidad y seguridad a los usuarios. • Catálogo para buscar y recuperar datos. • Capacidad de administrar seguridad, permisos y enmascaramiento de datos. • Admite el auto-aprovisionamiento de nodos, datos y herramientas analíticas sin intervención de los equipos de TI. Para montar un Data Lake debemos tener en cuenta numerosas consideraciones que recogemos en el siguiente esquema. • La seguridad debe implementarse en cada capa del Data Lake, desde el almacenamiento hasta el control de los flujos de la información. La prioridad básica debe ser detener el acceso para todos aquellos usuarios no autorizados. • La gobernanza de los datos es el proceso encargado de la disponibilidad, usabilidad, seguridad e integrad de los datos utilizados en la organización. • La calidad de los datos es un componente esencial para un Data Lake ya que de la calidad de estos dependen el resto de aplicaciones y usuarios que los utilizan. • Dentro de las auditorias de datos encontramos principalmente dos tareas: Seguimiento de cambios a elementos importantes del conjunto de datos y Captura cómo/cuando y quién cambia los elementos. Esta auditoria nos ayudará a evaluar los riesgos y a abordar los cumplimientos. • El almacenamiento de los datos debe ser escalable y rentable. Debe permitir un acceso rápido a la exploración de datos. • La ingestión de datos se encarga de recibir e insertar los datos en el Data Lake. • Framework. Definición de las APIs de acceso a nuestro entorno Data Lake. Ilustración 9 Conceptos clave del Data Lake. Una vez implementado el armazón que soportará el Data Space hace falta tener un elemento que gestione el auto- aprovisionamiento de los datos y que nos permita conseguir nuestro objetivo principal: “democratización del dato”. Este elemento será el “Data as A Service (DAAS)”. Este componente puede asumir parte de las funcionalidades liberando al Data Lake. Temas como la gobernanza o la creación de servicios de auto-aprovisionamiento serán asumidos por este componente. De esta forma el Data Lake puede dedicarse simplemente a almacenar los datos. Uniendo los dos conceptos tenemos una arquitectura híbrida bastante interesante: Ilustración 10 Arquitectura de referencia del Framework de DaaS + Data Lake.
  • 10. pág. 10 La implementación de un DaaS en nuestra organización no es simplemente implementar tecnología. DaaS será un marco arquitectónico para diseñar y desarrollar un conjunto de servicios de datos reutilizables que estarán implementados siguiendo los estándares empresariales establecidos. Esta estandarización nos permitirá la reutilización de estos datos en múltiples aplicaciones. Los servicios de datos empresariales se podrán crear de modo independiente ya que desacoplamos la lógica de los datos. Finalmente estaremos en disposición de crear un API de acceso global a los datos en la que podremos gestionar numerosos parámetros como seguridad, versiones y estadísticas. Remarcar que el marco arquitectónico debe recoger las ideas, las bases, las guías que queremos seguir para consecución de nuestros objetivos y la tecnología es un habilitador que puede ir cambiando y evolucionando siempre que se ajuste a nuestros objetivos. Ilustración 11Bloques de construcción del DaaS Para poder diseñar un DaaS que se ajuste a las necesidades de nuestra organización debemos desarrollar una estrategia empresarial de datos (EDS) que nos permita definir nuestra hoja de ruta en relación con la utilización de la información de la empresa. Existen guías como la “Enterprise Data Principles8 ” que nos proporcionan recomendaciones de implementación de los DaaS. “every enterprise should have a data strategy, driven by the enterprise business strategy and used to guide all data management activities.” DMBOK La implementación de una EDS en la organización puede causar una reingeniería y rediseño de algunos procesos de negocio por lo que se necesitará una IT flexible y ágil con una arquitectura con las mismas características. Resumiendo, un poco, lo que hemos visto hasta ahora, las organizaciones deben generar su propia estrategia de datos en función de sus objetivos y visión de negocio. Con esta visión deberán definir los sistemas informacionales y los proyectos 8 necesarios para abordar las nuevas aplicaciones que se implementarán en las tecnologías que en cada momento se consideren adecuadas. Ahora bien, ya tenemos nuestra arquitectura de Data Space, pero no nos debemos de olvidar de nuestro objetivo principal: hacer que cada persona tenga disponibles los datos que necesitan para tomar las mejores soluciones posibles. Para que puedan hacer esto, necesitamos que los usuarios sean capaces de entender y manejar esos datos para tomar las decisiones. Los sistemas decisionales pueden proponer conclusiones, pero los usuarios deben ser capaces de interpretarlas en su contexto. Necesitaremos crear una cultura del dato dentro de nuestras organizaciones. Todo lo que hemos visto hasta ahora iba enfocado a crear tu propio Data Space, pero falta darla un empujón más y ver cómo podemos ayudar a crear ese enjambre de learning Organization. Para ello usaremos la definición pura de Industrial Data Space que hace referencia a un espacio virtual donde se puede realizar intercambios, de forma segura y sencilla, de enlaces de datos dentro de los ecosistemas del negocio, siempre bajo las normas y haciendo uso de los modelos de colaboración de la empresa. De esta manera la empresa siempre tiene el control sobre sus propios datos y pueden hacer que se cumplan sus normas de privacidad. Los datos sólo se intercambian cuando los socios han firmado un certificado de confianza. El titular de los datos, es decir, la empresa, determina quién está autorizado a utilizarlos y de qué manera. ¿La ventaja? Facilita el acceso a conjuntos o grupos de datos a los socios de una cadena de suministro. Bien para que puedan empezar a trabajar en algo nuevo, para desarrollar nuevos modelos de negocio, diseñar sus propios procesos de manera más eficiente o iniciar procesos de valor añadido adicionales en otros lugares. Industrial Data Space es la arquitectura de referencia para organizar los datos aprovechando los estándares y tecnologías existentes además de utilizar los modelos de gobernanza diseñados para facilitar el intercambio seguro de datos generando el entorno de confianza necesario para el ecosistema empresarial. La búsqueda de un auto-aprovisionamiento del dato junto con la soberanía de los mismos y como se transmiten entre los diferentes puntos serán las máximas preocupaciones de esta arquitectura.
  • 11. pág. 11 V. SmartDapps. “A blockchain is a digital, distributed transaction ledger, with identical copies maintained on multiple computer systems controlled by different entities.” David Schatsky and Craig Muraskin, Beyond Bitcoin: Blockchain is Coming to Disrupt your Industry, Deloitte University Press, 2015, page 2 Comenzaré este apartado recordando el párrafo introductorio del documento “[Blockchain] Una visión teórica” que escribí el año pasado: En la literatura actual, suele tenderse a utilizar Blockchain y distibuted Ledger como sinónimos, pero realmente son conceptos diferentes. Por un lado, definiremos el registro distribuido (Distributed Ledger) como a un registro secuen- cial cifrado de transacciones replicadas simultáneamente a través de una red de nodos. Y por otro, definiremos Blockchain como una tecnología de registro distribuido protegidos criptográficamente y agrupados secuencialmente en bloques inmutables. En esta red cada miembro mantiene su propia copia de la información, y todos los miembros tienen que validar colectivamente cualquier actualización mediante el consenso previamente establecido. La información almacenada podría representar transacciones, contratos, activos, identidades, o prácticamente cualquier cosa que pueda ser descrita en forma digital. Las transacciones tratadas se vuelven permanentes, transparentes, inmutables, y se pueden buscar, lo cual hace posible que los miembros de la comunidad vean las historias de la transacción. Cada actualización es un nuevo “bloque” adicionado al final de la “cadena.” Un protocolo de consenso administra cómo las nuevas transacciones son iniciados, validados, registrados, y distribuidos. De manera crucial, la privacidad también puede ser selectivamente forzada, permitiendo grados diversos de anonimato o protección de información sensible más allá de a quienes explícitamente se les haya dado acceso. Con blockchain, la criptografía reemplaza las entidades intermediarias como el guardián de la confianza, con todos los participantes en la blockchain operando algoritmos complejos para certificar la integridad del conjunto. No me extenderé más en la definición de blockchain ya que en ese documento queda bastante bien explicado el funcionamiento de esta tecnología. Con la idea central que nos tenemos que quedar es que esta tecnología nos permite descentralizar las entidades autoritativas traspasando el empoderamiento a los usuarios. No sólo eso, sino que nos abre la posibilidad a crear un tipo de aplicaciones descentralizadas denominadas Dapps que encierran un poderoso potencial. Muchas veces confundimos Dapp con Smart Contract y realmente son muy diferentes. Una Dapp es una aplicación web donde el Contrato Inteligente es lo que permite conectarse a la cadena de bloques. La forma más sencilla de entender esto es comprendiendo cómo funcionan los sitios web tradicionales. Normalmente son programas que usan lenguajes como HTML, CSS y javascript para representar una página. Suelen necesitar obtener datos de alguna base de datos a la que se conectan mediante un API. Front End  API  Base de datos La Dapp es muy similar a la aplicación tradicional. El front End usará las mismas tecnologías y lenguajes que la aplicación tradicional, pero en lugar de tener un API para conectarse a la base de datos tendrá un contrato inteligente que se conectará a una cadena de bloques. Front End  Smart Contract  Base de datos Se que esta es una aproximación muy burda pero este símil muestra que los contratos inteligentes están desempeñando el papel del conector API de la cadena de bloques. Los DAPP básicamente permiten descentralizar todo el código de back-end y los datos, y por lo tanto son inmutables y no se pueden falsificar. Teniendo en cuenta la naturaleza descentralizada de estas aplicaciones junto con los mecanismos que aseguran los datos de blockchain, los DAPP tienen el potencial de desbloquear una amplia gama de casos de uso. Si al potencial de las Dapps le añadimos la tecnología de IPFS podemos conseguir aplicativos totalmente descentralizados que a priori no necesitan servidores centrales. El Sistema de Archivos InterPlanetario (IPFS) es un proyecto de código abierto basado en blockchain diseñado para permitir el almacenamiento y transmisión peer-to-peer de información a través de internet. Su propósito es proporcionar a los usuarios la habilidad de publicar en línea sin necesidad de depender de un servidor de una tercera parte que albergue su contenido. La mejora principal del IPFS respecto del HTTP es que proporciona una manera de recuperar contenido de una red distribuida de proveedores de almacenamiento, usando una función hash del archivo para apuntar hacia donde está almacenado el contenido en internet. A día de hoy esta tecnología tiene sus limitaciones en cuanto a tamaño de los ficheros, pero poco a poco se va resolviendo. En el siguiente esquema podemos ver un esquema general de una aplicación completamente descentralizada que utiliza blockchain e IPFS. Ilustración 12 Ejemplo de aplicación genérica descentralizada.
  • 12. pág. 12 Todos estos avances están impulsando lo que será la próxima gran revolución, Web 3.09 . Una web más centrada en el usuario en la que conservaremos la propiedad completa de nuestros datos, identidad y activos digitales. Hay una serie de ventajas que ofrece Web 3.0: • No punto central de control: Los intermediarios se eliminan de la ecuación, blockchains como Etereum proporcionar una plataforma de confianza menos donde las reglas son irrompibles y de datos es totalmente encriptada. • Propiedad de los datos: los usuarios finales recuperarán el control total de los datos y tendrán la seguridad del cifrado. La información puede luego compartirse caso por caso y con permiso. • Reducción drástica de piratería y violaciones de datos: debido a que los datos se descentralizarán y distribuirán, los hackers necesitarán desactivar toda la red, mientras que las herramientas patrocinadas por el estado como Vault7 , utilizadas por las agencias de tres letras, se volverán obsoletas. • Interoperabilidad: las aplicaciones serán fáciles de personalizar y no dependerán del dispositivo, y pueden ejecutarse en teléfonos inteligentes, televisores, automóviles, microondas y sensores inteligentes. En la actualidad, las aplicaciones son específicas del sistema operativo y, a menudo, están limitadas a un solo sistema operativo. • Blockchains sin permiso: cualquiera puede crear una dirección e interactuar con la red. El poder de acceder a cadenas sin permiso no puede ser exagerado. Los usuarios no serán excluidos debido a su ubicación geográfica, ingresos, género, orientación u otros factores sociológicos y demográficos. La riqueza y otros activos digitales se pueden transferir de manera transfronteriza, rápida y eficientemente, a cualquier parte del mundo. • Servicio ininterrumpido: la suspensión de la cuenta y la denegación de servicio distribuida se reducen drásticamente. Debido a que no existe un solo punto de falla, la interrupción del servicio será mínima. Los datos se almacenarán en nodos distribuidos para garantizar la redundancia y las copias de seguridad múltiples evitarán la falla o incautación del servidor. La evolución y crecimiento de este tipo de tecnologías está creciendo de forma exponencial, existiendo ya en el mercado numerosos proyectos de descentralización. En la siguiente imagen podemos ver algunos de ellos. 9 Usare el nombre Web 3.0 aunque lo considero totalmente incorrecto, por eso he denominado a la GPT Smart Dapp. La web 3.0 siempre ha hecho Ilustración 13 Miembros de Essentia.one, un marco para la creación de aplicaciones descentralizadas. En lugar de Google Drive o Dropbox, tenemos servicios como Storj, Siacoin, Filecoin o la tecnología IPFS para distribuir y almacenar archivos. En lugar de Skype, tenemos plataformas como Experty.io. En lugar de WhatsApp y Wechat tenemos el estado En lugar de sistemas operativos como iOS y Android, los marcos como Essentia.one y EOS proporcionan una puerta de enlace a la nueva web. Akasha o Steemit desempeñarán el papel de Facebook, el navegador Brave servirá como Chrome y Ethlance podrá reemplazarlo. referencia a la web semántica que en este caso no aplica. Concretamente se englobaría más dentro de la denominada web 4.0.
  • 13. pág. 13 VI. Ambient Intelligent. Durante los últimos años estamos asistiendo a un proceso muy interesante denominado “democratización de la IA”, en el cual se están creando numerosos frameworks que nos ofrecen la posibilidad de utilizar las capacidades de la inteligencia artificial de una forma sencilla y accesible. Esta nueva capacidad trae consigo el poder acercarnos a la interesante visión del “ambient intelligence”. En un mundo ambient intelligent los dispositivos funcionan en conjunto para ayudar a las personas a llevar a cabo sus actividades cotidianas y tareas de una manera fácil y natural usando información e inteligencia que está oculta en la red que conecta estos dispositivos. A medida que estos dispositivos se vuelven más pequeños, más conectados, más inteligentes y más integrados en nuestro entorno, la tecnología se mimetiza con nuestro entorno hasta que sólo la interfaz de usuario permanece perceptible por los usuarios. Para que esta tecnología pueda ayudarnos de esta forma tiene que ser capaz de identificar el contexto y ante eso construir los procesos más óptimos para poder responder a las necesidades del usuario. Hasta ahora se diseñaban sistemas expertos simples que funcionaban como una secuencia encadenada de “if” o “case” que se implementaban con reglas. Estos sistemas tenían que funcionar en entornos acotados, ya que los entornos reales tienden a ser tan complejos y cambiantes que no pueden ser totalmente especificados. Ahora con la cantidad de información que recibimos del entorno y las capacidades que nos aporta la IA, esos procesos no tienen por qué estar escritos. Podemos describir el problema tipo que queremos optimizar y dejar que el sistema construya los procesos en tiempo real para llegar a esa mejor opción. Estos procesos se convertirán en procesos adaptativos y son implementados por Sistemas Inteligentes Adaptativos que se estudian en la rama de Inteligencia Artificial en Tiempo Real. Los sistemas de tiempo real se definen como aquellos sistemas en los que su corrección depende, no sólo de los resultados lógicos, sino también del momento en que se producen dichos resultados. Esta característica se debe a que estos sistemas interactúan con un entorno físico: sus entradas reflejan eventos ocurridos en su entorno, y sus salidas se traducen en efectos sobre dicho entorno. Estos resultados se deben producir, por tanto, en momentos en los que aún tengan validez dentro de ese entorno sobre el que el sistema está actuando. Bien, esto ha sido un poco de teoría, pero siendo un proveedor de servicios informáticos, ¿para qué nos puede servir? La respuesta es sencilla, para llevar los entornos de operación a otro nivel, al nivel de AIOps. Cuando diseñamos la operación de sistemas asumimos que disponemos a priori de la mayor parte de la información sobre las características de las tareas a ejecutar y del entorno con el que el sistema va a interactuar, y por tanto se basan en diseños estáticos, lo que acaba contribuyendo en un alto coste y poca flexibilidad. A medida que vamos implementando más sistemas para problemas y entornos más complejos se vuelve cada vez más difícil de disponer de esta información en el momento del diseño del sistema. Por tanto, los entornos de operación que manejan los sistemas de tiempo real críticos deben evolucionar para ser dinámicos y flexibles en su funcionamiento, deben convertirse en sistemas inteligentes adaptativos que implementen procesos adaptativos. O, dicho de otra forma, los sistemas deben estar preparados para adaptarse de forma automática las necesidades de los procesos de negocio. Además, la auto-remediación debe ser una de sus características principales. Tenemos que ser capaces de transformas nuestros sistemas en una máquina inteligente, un agente relacional flexible que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea. Soy consciente de que esto no es una tarea fácil, pero existe una nueva corriente de operación denomina AIOps que trata de realizar algo parecido para tratar de optimizar los procesos de operación. AIOps (Artificial intelligence for IT operations), es un término general para el uso de análisis de big data, machine learning, Deep learning y otras tecnologías de inteligencia artificial para automatizar la identificación y resolución de problemas surgidos en los entornos de operación. La mayoría de los sistemas que administramos generan números eventos y datos de rendimiento que analizamos con técnicas tradicionales de análisis y detección. AIOps utiliza técnicas de inteligencia artificial para monitorizar y visualizar los activos. Los datos que maneja la plataforma de AIOps englobarán los eventos de los sistemas y procesos que se ejecutan en ellos, los registros de los rendimientos, los registros de incidencias en las herramientas de operación y otras fuentes. Las plataformas de AIOps tienen la característica de soportar varias capacidades: • Automatización de las tareas rutinarias. Engloba la capacidad de automatizar todas aquellas tareas, no críticas y carentes de aportación de valor, susceptibles de ser automatizadas por herramientas. Con la introducción de la IA el entorno dispondría de una base de hechos prestablecida que utilizaría para seleccionar los procedimientos adecuados, siempre con el objetivo de maximizar la eficiencia de la ejecución. • Reconocimiento proactivo de patrones que generan incidencias en el ecosistema. Una vez definidas las líneas bases de comportamiento de los sistemas, las herramientas de IAOps pueden determinar los comportamientos anómalos del entorno pudiendo incluso a realizar acciones de prevención tempranas. Los sistemas actuales tienden a basarse en simples cálculos matemáticos o en su defecto en rangos, produciendo numerosos falsos positivos que no hacen más que introducir ruido en nuestros sistemas. Esto es debido a que no todas las anomalías son un error y que no todos los errores se presentan en anomalías. La correcta identificación de patrones mediante el uso de técnicas de IA nos ayudará a mejorar estos aspectos. • Optimización de las comunicaciones e interacciones entre los diferentes equipos de operación. Las herramientas de AIOps deben ser capaces de ir
  • 14. pág. 14 mejorando la presentación de los datos a los diferentes equipos en base a los históricos recogidos. Los cuadros de mando son dinámicos y se construirán en función de los eventos detectados y los métodos de resolución utilizados anteriormente. Algunos productos ya están desarrollando lo que denominan “Cognitive insights”, nuevas plataformas de inteligencia artificial que combina el aprendizaje automático y la interacción humana10 . Transforma las tareas manuales de análisis de registro de operaciones de TI y DevOps en procesos científicos automatizados que descubren eventos que de otro modo serían pasados por alto y los enriquece con datos accionables sobre el contexto, la gravedad, la relevancia y los próximos pasos11 . El objetivo del esfuerzo realizado para llevar a cabo el análisis es descubrir patrones que describan o en su defecto sean capaces de describir el contexto que están modelando. Los patrones serán elementos novedosos que se podrán utilizar para mirar hacia adelante en el tiempo para predecir posibles incidencias y perfiles de uso emergentes, y mirar hacia atrás en el tiempo para determinar las causas raíz del comportamiento del sistema. En la siguiente figura de Gartner se describe la idea de la generación de patrones para mejorar la operación de sistemas (ITOM). Ilustración 14 Plataforma IAOps que permite obtener estadísticas continuas en IT Operation Management (ITOM). Según Gartner, AIOps tiene dos componentes principales: Big Data y Machine Learning que requieren de un agregamiento de los datos observacionales (monitorización y registros de trabajo) junto con datos de participación (incidencias y eventos) dentro de una plataforma de Big Data. Luego, AIOps implementa una estrategia integral de análisis y aprendizaje automático (Machine Learning, ML) contra los datos combinados de TI. El resultado que persigue es un conocimiento continuo que arroje mejoras y soluciones 10 …donde la tecnología y la cognición humana convergen para facilitar y mejorar los procesos de negocio…. 11 Logz.io está desarrollando una interfaz denominada UMI (Unified Machine Intelligence) como núcleo de su Cognitive Insights. UMI ™ continuas, utilizando la auto-remediación vía la automatización. AIOps es el siguiente paso de Gartner en la evolución de IT Operational Analytics (ITOA). Está creciendo a partir de varias tendencias y necesidades que afectan las operaciones de TI, que incluyen: • La dificultad que TI Operations tiene para administrar manualmente su infraestructura. Se está convirtiendo en un nombre inapropiado usar el término "infraestructura" aquí, ya que los entornos de TI modernos incluyen la nube administrada, la nube no administrada, los servicios de terceros, las integraciones de SaaS, los dispositivos móviles y más. Los enfoques tradicionales para gestionar la complejidad no funcionan en entornos dinámicos y elásticos. Seguir y administrar esta complejidad a través de la supervisión manual y humana ya no es posible. La tecnología actual de IT Ops ya está más allá del alcance de la administración manual y solo empeorará en los próximos años. • La cantidad de datos que IT Ops necesita retener aumenta exponencialmente. La supervisión del rendimiento está generando un número exponencialmente mayor de eventos y alertas. La función de paso de experiencia en volúmenes de tickets de servicio aumenta con la introducción de dispositivos IOT, API, aplicaciones móviles y usuarios digitales o de máquina. De nuevo, simplemente se está volviendo demasiado complejo para informes y análisis manuales. • Los problemas de infraestructura deben responderse a velocidades cada vez mayores. A medida que las organizaciones digitalizan sus negocios, las TI se convierten en el negocio. El consumo de la tecnología ha cambiado las expectativas de los usuarios para todas las industrias. Las reacciones a los eventos de TI ya sean reales o percibidas, deben ocurrir inmediatamente, especialmente cuando un problema afecta la experiencia del usuario. • Más poder de computación se está moviendo a los bordes de la red. La facilidad con la que se puede adoptar la infraestructura de la nube y los servicios de terceros ha potenciado las funciones de la línea de negocio (LOB) para crear sus propias soluciones y aplicaciones de TI. El control y el presupuesto han cambiado desde el núcleo de TI hasta el borde. Se está agregando más poder de cómputo (que se puede aprovechar) fuera de la TI central. • Los desarrolladores tienen más poder e influencia, pero la rendición de cuentas aún se basa en TI central. DevOps y Agile están obligando a los programadores a asumir más responsabilidad de monitoreo a nivel de aplicación, pero la responsabilidad por la salud general del ecosistema de TI y la interacción entre aplicaciones, identifica las interacciones humanas con los datos de registro, incluidas las discusiones sobre StackOverFlow o Serverfault, las búsquedas de Google de información relevante y los problemas que se publican en GitHub; correlaciona estas interacciones con nuestros datos de registro; y luego los muestra como eventos o estadísticas en la interfaz de usuario de Logz.io.
  • 15. pág. 15 servicios e infraestructura aún permanece la provincia de TI central. IT Ops comienza a asumir más responsabilidades justo cuando sus redes se vuelven más complejas. Podríamos pensar que los IAOps presentan arquitecturas complejas, pero realmente no distan mucho de las plataformas de análisis de datos. La mayoría de ellos tienen los siguientes componentes: Ilustración 15 Componentes básicos sistema IAOps. Los datos de TI deben ser identificados, catalogados y agregados en una especie de Data Lake o catalogo inteligente para que mediante procesamiento se puedan aplicar analíticas y algoritmos de reconocimiento de patrones. Una vez realizado necesitaremos de una herramienta que nos proporcione una visualización clara y eficiente. Yo además añadiría que necesitamos establecer una ontología propia o adquirida que nos permita dotar de contexto a los a los datos mediante los metadatos que necesitemos. Y aún más interesante, necesito algo que mantenga actualizadas las relaciones de los datos, una base de datos de grafos. Esto es muy interesante, por un lado, tengo los datos puros y por otro las relaciones entre ellos de forma que en base al aprendizaje automático puedo crear nuevas relaciones entre los datos y guardarlos en esa base de datos12 . Un esquema más técnico de la solución lo podemos encontrar en la siguiente figura: 12 Hace unos meses vi una conferencia donde de pasada hablaban de usar una base de datos de grafos en el circuito de integración continua para almacenar las relaciones entre las aplicaciones. Esta idea es la forma perfecta de El esquema es muy parecido al anterior, pero añadiendo los flujos de información y los elementos que propiciarán las interconexiones entre los diferentes elementos. El API de operación IT será el encargado de poner todas las funcionalidades al ITOM. Los diseños arquitectónicos existen, pero las herramientas de IAOps están todavía en un desarrollo inicial. Aun así, Gartner vaticina lo siguiente: Para 2022, el 40% de todas las grandes empresas combinarán las funciones de big data y machine learning para respaldar y reemplazar parcialmente los procesos de monitorización, service desk y automatización y tareas, en comparación con el 5% actual. Guía de mercado para plataformas AIOps Gartner Sabiendo esto, para implementar AIOps de forma correcta deberemos seguir algunas pautas: • Para garantizar la implementación de IAOps debemos optar por un enfoque gradual que se centre en los datos históricos para poder crear los contextos. • Tenemos que asegurar una visión de los sistemas de TI pasados, presentes y futuros seleccionado plataformas que sean capaces de ingerir y proporcionar acceso a datos de los eventos, métricas y demás parámetros de entorno. • Deberemos fomentar las habilidades analíticas de los equipos de operación selec- cionando herramientas que soporten la capacidad de implementar incremental- mente las cuatro fases del aprendizaje automático orientado a operaciones de TI: visualización y análisis estadístico, descubrimiento automático de patrones, predicción basada en patrones y análisis de causa raíz. construir un mapa de relaciones de las aplicaciones desde el ciclo de entrega continua. Ilustración 16 Arquitectura IAOps según Gartner. Ilustración 17 Fases del aprendizaje automático orientado a operaciones IT.
  • 16. pág. 16 Gartner considera AIOps como la evolución natural de los entornos de operación IT e incluso ha propuesto una hoja de ruta para reconvertir nuestros entornos13 . Está compuesta de 12 pasos que se agrupa en cuatro etapas: • Fase de establecimiento. • La fase reactiva. • La fase proactiva. • La fase de expansión. No quiero extenderme más, pero me gustaría terminar con un diagrama de elaboración propia que recoge un poco la transición desde un modelo DevOps de sistemas a un IAOps con DevOps. El concepto principal es la “Visión única de Operación” y como la conseguimos mediante una implementación de IAOps basada en la monitorización, automatización, orquestación y gestión de configuraciones. La centralización de todos los datos recogidos más los entornos de ticketing junto con el uso de técnicas avanzadas de análisis nos permitirán acercarnos a la idea de patrones. Estos patrones son los que nos permitirán predecir y anticiparnos a los problemas de operación y aplicar auto-remediaciones cuando sea necesario. También introduzco dos elementos que a mi modo de ver pueden ser interesantes. Por un lado, ChatOps como elemento interesante de conexión a los sistemas. Una forma de interactuar con ellos desde un lenguaje natural prestablecido. Por otro lado, los perfiles de SER y DataOps. Uno velará por que la plataforma de IAOps funcione en su conjunto y el otro por optimizar los flujos de datos y los análisis. 13 12 Steps to Artificial Intelligence for IT Operations Excellence . Ilustración 18 Fases de implementación de AIOps por Gartner. Ilustración 19 Ecosistema IAOps. Diseño propio.
  • 17. pág. 17 VII. Cultura. La cultura empresarial se puede definir como “el conjunto de normas, de valores y de formas de pensar que caracterizan el comportamiento, posicionamiento del personal en todos los niveles de la empresa, el estilo de dirección, la forma de asignar los recursos, la forma de organizar la esa corporación, así como la imagen de la empresa”, La cultura de la empresa viene a ser la expresión física del ADN de la misma. Cambiarla no es un proceso sencillo ya que aparecen numerosos problemas de fricción entre los diferentes estamentos establecidos. Además, una cultura no se puede imponer a base de reglas o herramientas que obliguen a los trabajadores a ejecutar los procesos de forma semi- automática. Crear un cambio cultural conlleva crear una gestión del cambio que nos permita controlar la transición hacia la nueva forma de hacer las cosas. Para poder hacerlo necesitamos que los integrantes de la organización entiendan que necesitamos ese cambio y como va afectar tanto a la organización como a los trabajadores. Para llevar a cabo esta transición hay que crear un equipo del cambio que elabore una visión clara que se pueda comunicar de forma adecuada al resto de integrantes de la organización. Llegado este punto es importante encontrar los puntos de resistencia y ver si son débiles, medios o fuertes y actuar en función de cada una de las circunstancias. A partir de ahí sólo queda implementar y evaluar los cambios para poder mejorar en progresivas iteraciones. Realizar una gestión del cambio requiere tiempo, dedicación y compromiso por parte de todos los miembros de una organización. Una gestión del cambio va a tener éxito siempre y cuando esta se centre en las necesidades de los clientes tanto internos como externos. Todo esto es mucho más fácil escribirlo que ejecutarlo, pero debe ser clave para cualquier organización que quiera alcanzar el estatus de learning organization. Dicho esto, a mí me gustan dos modelos culturales, BizDevOps que sería el principal y DataOps que podemos considerar como derivado del anterior. Para hablar de ellos necesitaría varios documentos como este así que los resumiré a la mínima expresión. a. BizDevOps. DevOps un término acuñado por primera vez por un joven belga en una conferencia sobre Agile en Toronto(Canadá). Patrick Debois dio una conferencia, “¿Cómo de infra-ágil eres?”, que no tuvo mucho éxito, pero el término fue poco a poco extendiéndose hasta que se formalizo en la primera conferencia denominada “DevOps Days” en Bélgica. A partir de ahí, esta nueva cultura se extendería por todo el mundo, llegando a España por primera vez en el 2013 a Barcelona y a 14 Soy consciente de que la definición oficial es la siguiente: “DevOps es un acrónimo inglés de development (desarrollo) y operations (operaciones), que se refiere a una metodología de desarrollo de software que se centra en la comunicación, colaboración e integración entre desarrolladores de software y los profesionales de sistemas en las tecnologías de la información (IT)”. DevOps es una respuesta a la interdependencia del desarrollo de software y mí en 2014. Lo que más preocupo al principio fue entender el significado del término y encontré la siguiente definición14 : “DevOps es un modelo cultural y organizacional que promueve la colaboración y comunicación para habilitar equipos TIC de alto rendimiento, que consigan apoyar a los objetivos de negocio”. Los principios básicos en los que se sustenta DevOps son: Kaizen y Lean. Y su objetivo inicial fue romper las brechas existentes entre desarrollo y sistemas implantando nuevas formas de trabajar basadas en la automatización y la comunicación. En poco tiempo DevOps pasa a convertirse en una metodología con la que se cambia el modo el que se gestiona el ciclo de desarrollo del software. Comienzan a derribarse los silos existentes entre desarrollo y operación y comienzan a trabajar de forma conjunta y bidireccional. Pasan a ser un equipo que cubre el ciclo completo del desarrollo software, garantizando procesos de entrega muchos más rápidos, seguros y con entregas más fiables. Para conseguirlo, se introducen nuevas herramientas que contribuyen a la automatización de tareas repetitivas y al trabajo en equipo, ayudando a agilizar los procesos y evitar trabajo duplicado. Ilustración 20 DevOps las operaciones IT. Su objetivo es ayudar a una organización a producir productos y servicios software más rápidamente, de mejor calidad y a un coste menor.” Pero creo que la que he propuesto describe mejor el propósito de DevOps. “Hoy mejor que ayer pero peor que mañana.” “Entrega de máximo valor usando los mínimos recursos.”
  • 18. pág. 18 El objetivo final de DevOps es minimizar el riesgo de los cambios que se producen en las entregas y dar así un mayor valor tanto a los clientes como al propio negocio. Si queremos implementar y evaluar DevOps en una organización podemos usar el modelo CALMS que hace referencia a: Ilustración 21 CALM Crear una cultura de colaboración en la que la responsabilidad es compartida por todo el equipo, donde existe la transparencia y el feedback es inmediato será el mayor factor de éxito de DevOps y se convertirá en la base de la eficiencia de los equipos que la practiquen. En este tipo de cultura todos trabajan de forma conjunta utilizando una visión holística15 guiada por el pensamiento sistémico. Los miembros son conscientes de que sus acciones no sólo afectan a su entorno inmediato, sino a todos los miembros. La introducción de la automatización como una capacidad básica y diaria ayuda a evitar numerosos errores debido a la ejecución de tareas repetitivas. La falta de automatización en las tareas de testing y despliegue frenen la agilad de los equipos disminuyendo drásticamente la eficiencia de los mismos. El equipo con el ciclo de feedback más rápido es el equipo que prospera. Con una transparencia total y una comunicación fluida, los equipos de DevOps reducen al mínimo el tiempo de inactividad y resuelven las incidencias más rápido. Como hemos visto DevOps nace para unir a los entornos de Desarrollo y Operaciones, pero en los últimos años se han dado cuenta que necesitan meter la pata de negocio para poder cerrar el ciclo por completo. Esta nueva variante se ha denominado DevOps 2.0 o BizDevOps y trata de conseguir la alineación entre negocios y TI. Su meta es conseguir la alineación entre negocio y TI. Para ello se fundamenta en los siguientes pilares: acción centrada en el cliente, mentalidad basada en el objetivo y equipos multidisciplinares (desarrollo, operaciones, QA, seguridad, comunicaciones…). Los objetivos que se persiguen garantizar la responsabilidad extrema a extremo, la mejora continua y, finalmente, automatizar todo lo que sea posible. En el siguiente esquema se ve de forma clara esta relación: 15 La falta de visibilidad y objetivos compartidos se traduce en falta de planificación de dependencias, prioridades mal organizadas, acusaciones Y queda perfectamente retratado en la imagen que pongo a continuación: Ilustración 22 Esquema general BizDevOps. Haciendo un poco más de foco en el esquema encontramos: • BIZ: Necesidades de negocio. Una adecuada gestión de las mismas permitirá su adecuación y adaptación a los requisitos de “explotabilidad” de la aplicación en producción. • DEV: Entrada de los cambios. Controlando los correctivos y evolutivos, estandarizando y normalizando las entregas, y anticipando posibles problemas derivados de los mismos. • OPS: Entrada de incidencias y problemas. Realizando una correcta gestión de incidencias y problemas, coordinando a los grupos implicados, llevando a cabo un análisis causal y una predicción/previsión de incidencias, enfocándose al servicio y planteando además medidas a futuro para minimizar esta entrada. Este modelo se está desarrollando rápidamente y se está llegando a tal nivel de automatización que la propia gente de negocio puede planificar los despliegues de las campañas que quieren sin necesidad de intervención ni de DEV ni de OPS. Me gustaría terminar este apartado hablando del Kernel DevOps. Cuando empecé a investigar sobre DevOps se hablaba todo el rato de automatizar los despliegues y los test del software y nada sobre los sistemas. Existían herramientas de gestión de configuración y demás, pero no existía un marco general de referencia que me permitiese pensar en los sistemas personales y una actitud de 'no es problema mío', provocando una disminución de la velocidad y la calidad.
  • 19. pág. 19 desde el punto de vista de DevOps. Ante esto, con mayor o menor fortuna se me ocurrió describirlo de la siguiente forma: Ilustración 23 Kernel DevOps. La idea del kernel DevOps era que sirviese de marco metodológico que describiese todos aquellos procesos que los equipos de sistemas debemos implementar cada vez que introducimos un artefacto nuevo en nuestras infraestructuras. Y que los tratásemos desde el punto de vista de DevOps. Ya no se trataba de instalar un Apache o un sistema operativo sino de ir un poco más allá y describir la configuración necesaria para crear una línea base que luego pudiese ser automatiza y controlada por procesos semi-automáticos. Curiosamente la última parte de abajo hace referencia a las reglas, aprendizaje automático y a los procesos adaptativos que encaja al 95% con la idea de IAOps. b. DataOps. Durante los últimos años el énfasis por el análisis y el control del dato a llevado a la aparición de numerosas especializaciones dentro de las empresas. Analistas de datos, científicos de datos, ingenieros del dato, administradores de bases de datos, calidad del dato son algunos de ellos. Toda esta compartimentación está llevando a la aparición de los mismos problemas que teníamos con DEV y OPS. Cada equipo crea su silo y dificulta la velocidad de la puesta en servicio de los datos. Ante esta corriente nace DataOps una variante de DevOps que trata de implementar esta cultura para mejorar la puesta en producción del dato. Ilustración 24 DataOps DataOps promociona el desarrollo de equipos donde el individualismo queda a un lado en busca de una mejor autoorganización en torno a objetivos comunes. Equipos de metodología ágil, adaptados al cambio que, en la búsqueda de la satisfacción del cliente, tendrán como valor máximo la entrega ininterrumpida de conocimientos analíticos. El mundo está en constante movimiento y, por ello, saber qué necesita el cliente en cada momento será clave para que los resultados den sus frutos. Conocer el entorno, organizar los datos y saber qué herramientas usar serán los desafíos a los que se enfrenten estos equipos. La adhesión exitosa a DataOps requiere de tres principios fundamentales: • Visión global de datos de empresa. Definición de un catálogo global de datos en los que se defina el tipo, calidad y formas de integración. Al plantear una visión holística de los mismos permite generar valor en otros procesos que en principio no parecen conectados. • Pensamiento colaborativo. Estructura de comportamiento organizacional en torno al modelo de datos para maximizar el valor de los datos derivados y fomentar la colaboración entre los administradores de datos y consumidores de datos. • Get in front of Data. Potenciar los servicios y análisis de datos en formato de autoservicio en toda la organización. VIII. Conclusiones. Durante todo el documento he tratado de plasmar algunas de las ideas que me han preocupado durante estos últimos años. No todas, pero si un conjunto de algunas que pueden venir bien para el objetivo y contexto del documento. Me ha parecido interesante visualizar los tipos de empresas que queremos que existan y relacionarlo con lo que podemos aportar para que lo consigan. Desde nuestra posición no podemos cubrir todos los aspectos necesarios para esa transformación, pero sí que podemos aportar una nueva TI basada en nuevas tecnologías que haga de agente habilitador para esa transformación. Las GPTs seleccionadas tienen el potencial de habilitar ese potencial y por eso debemos alinearnos con ellas para, llegado el momento, poder ser referentes en esos campos. Yo por mi parte seguiré desarrollando diferentes temas y tecnologías como el Chaos engineering, IPFS, Bases de datos de grafos, TOGAF y muchas otras cosas que ahora mismo no conozco… Suelen decir, que sobreviven las empresas que mejor se adaptan, pero a mí me gusta pensar que sobrevive y triunfan aquellas que son capaces de anticipar el cambio provocando que las demás tengan que adaptarse. Víctor MArtinez Bahillo Arquitecto de sistemas
  • 20. pág. 20 IX. BIBLIOGRAFÍA. VUCA [1] Paula Canal, “Educación en entornos VUCA”. Source: https://www.iebschool.com/blog/educacion-en-entornos-vuca- innovacion/ [2] Sintelia, “Quieras o no, vives en un entorno VUCA, descubre cómo moverte en él”, Source: https://www.sintetia.com/quieras-o-no-vives- en-un-entorno-vuca-descubre-como-moverte-en-el/ [3] Juan Martin, “¿cómo triunfar en un entorno VUCA?”. Source: https://www.cerem.es/blog/como-triunfar-en-un-entorno-vuca [4] Adp, “¿Qué es el entorno VUCA y cómo afecta a la supervivencia de las empresas?”. Source: https://www.apd.es/que-es-el-entorno-vuca-y- como-afecta-a-la-supervivencia-de-las-empresas/ [5] Andres Macario, “Cómo gestionar el nuevo entorno VUCA”. Source: https://andresmacario.com/como-gestionar-el-nuevo-entorno-vuca/ [6] Antoni Gutierrez-Rubi, “Momento VUCA”. Source: https://www.gutierrez-rubi.es/2017/01/12/momento-vuca/ [7] Fernando Velazquez jimenez, “VUCA y la innovación”. Source: https://fernandovelazquezjimenez.wordpress.com/2015/09/28/vuca-y- la-innovacion/ [8] Jesús rodriguez, “Guerra 3.0”. Source: https://elpais.com/internacional/2017/02/10/actualidad/1486742896_3 96520.html [9] Alvaro Merino, “Navegar en un munco V.U.C.A”. Source: http://www.alvaromerino.com/navegar-en-un-mundo-v-u-c-a/ [10] Jesús A. Lacoste, “ENTORNO VUCA ¿SABES QUÉ ES Y CÓMO TE AFECTA?. Source: https://jalacoste.com/entorno-vuca [11] Margaret Rouse, “VUCA (volatilidad, incertidumbre, complejidad y ambigüedad)”. Source: https://searchdatacenter.techtarget.com/es/definicion/VUCA- volatilidad-incertidumbre-complejidad-y-ambiguedad [12] BBVA, “Reinventar la empresa”. Source: https://www.bbvaopenmind.com/wp-content/uploads/2015/02/BBVA- OpenMind-libro-Reinventar-la-Empresa-en-la-Era-Digital-empresa- innovacion1.pdf GPTs [13] BOYAN JOVANOVIC, “GENERAL PURPOSE TECHNOLOGIES”. Source: http://www.nyu.edu/econ/user/jovanovi/JovRousseauGPT.pdf [14] Cantner, Uwe; Vannuccini, Simone, “A new view of general purpose technologies”. Source: https://pdfs.semanticscholar.org/24d7/4686006c37edcf95df457c20a98 0cc040e44.pdf [15] Diego Hurtado, Manuel Lugones y Sofya Surtayeva, “Tecnologías de propósito general y políticas tecnológicas en la semiperiferia: el caso de la nanotecnología en la Argentina”. Source: http://www.revistacts.net/files/Volumen_12_Numero_34/HurtadoEDI TADO.pdf DATA SPACE [16] Fraunhofer, “Reference architecture model for the industrial data space”. [17] Openfuture, “Industrial Data Space, una nueva dimensión para la industria”, Source: https://www.openfuture.org/es/new/industrial- data-space-una-nueva-dimension-par [18] Andrew Chen, “Know the difference between data-informed and versus data-driven”. Source: http://andrewchen.co/know-the-difference- between-data-informed-and-versus-data-driven/ [19] PowerData, “Data lake: definición, conceptos clave y mejores prácticas”. Source: https://www.powerdata.es/data-lake [20] Bill Schmarzo, “Why Do I Need A Data Lake? .Source: https://infocus.dellemc.com/william_schmarzo/why-do-i-need-a-data- lake-for-big-data/ [21] Daniel Newman, “Data As A Service: The Big Opportunity For Business”. Source: https://www.forbes.com/sites/danielnewman/2017/02/07/data-as-a- service-the-big-opportunity-for-business/#6b4b8a4a24d9 [22] Pushpak Sarkar, “Data as a Service. A framework for providing Reusable Enterprise Data Services”. [23] Ben Sharman, “Architecting Data Lakes”. O’REILLY AIOps [24] Margaret Rouse, “AIOps (artificial intelligence for IT operations)”. Source: https://searchitoperations.techtarget.com/definition/AIOps?track=NL- 1823&ad=920913&src=920913&asrc=EM_NLN_94900603&utm_me dium=EM&utm_source=NLN&utm_campaign=20180515_Word%20 of%20the%20Day:%20AIOps [25] Beth Pariseau, “AI's role in future of DevOps provokes IT industry agita”. Source: https://searchitoperations.techtarget.com/news/450429776/AIs-role-in- future-of-DevOps-provokes-IT-industry-agita [26] Vijay Rayapati, “The 2017 Cloud Trends — From DevOps to NoOps”. Source: https://articles.microservices.com/the-2017-cloud-trends- from-devops-to-noops-1d12fa85d433 [27] Will Cappelli, Colin Fletcher, Pankaj Prasad, “12 Steps to Artificial Intelligence for IT Operations Excellence”. Source: http://planinonline.com.br/gartner-news/wp- content/uploads/2018/02/12_steps_to_artificial_intel_333595.pdf [28] Manuel Ramos Cabrer, “Una arquitectura para sistemas inteligentes adaptativos basada en el modelo de pizarra”. Source: http://nortia.det.uvigo.es/grupo/images/pdf/tesis/tesis-manuel.pdf [29] Bishnu Nayak, “Artificial intelligence is rewriting the book on IT operations”. Source: https://jaxenter.com/artificial-intelligence-in-it- 144495.html [30] Logz.io, “How to Power Your IT Operations With Artificial Intelligence”. Source: https://logz.io/blog/how-to-power-your-it- operations-with-artificial-intelligence/ [31] JOE HERTVIK, “What Is AIOps? AIOps Explained”. Source: https://www.bmc.com/blogs/what-is-aiops/ [32] Patrick Campbell, “Reduce MTTR: Machine Learning to the Rescue”. Source: https://www.bmc.com/blogs/reduce-mttr-machine-learning- rescue/ Otros [33] Silvia Chauvin, “El cisne Negro: EL impacto de lo Altamente Improbable.” Source: http://www.mujeresdeempresa.com/el-cisne- negro-el-impacto-de-lo-altamente-improbable/ DataOps [34] Marta Nieto, “DataOps, la disciplina de datos emergente que toda empresa deseará”. Source: https://blogthinkbig.com/dataops- tecnologia-datos-emergente [35] Ashish Thusoo & Joydeep Sen Sarma, “Creating a Data-Driven Enterprise with DataOps”