7. AWS
(SDLF
)
Merge
Branch Production
Continuos Deployment
Continuos Integration
Developer
Push code
Branch Test
Merge
Aprobador merge(QA)
Checker(LT)
Push code
Automated
build, test
Deploy
Release
Verify
Enviroment
test
Checker(QA)
QA
Branch Dev
Push code
Verify
Aprobador merge
Automated
build, test
Deploy AWS
(SDLF
)
Enviroment
Production
Continuos Deployment
Continuos Integration
Esquema DevOps
3. Flujo CI & CD:
8. Esquema DevOps(CI & CD)
3. Estrategia de Integración y entrega continua :
CodeSource
Pylin
t
Sonar
Qube
Q
A
cfnlint
Cfn_
nag
Git-
secret
s
Securi
ty
Build
Deploy
Buil
d
Deplo
y
Sourc
e
Validation
10. AWS CloudWatch : recopilar información del uso de los servicios para
medir sus recursos y aplicaciones (logs,alarms,paneles)
CodePipeline
Amazon
CloudWatch
Amazon
CloudWatch Alarm
Teams
1
2
3 4
Cuando se infringe una métrica de alarma
de Cloudwatch, se envía una notificación
a un tema de sns
SNS activa una función
lambda, pasando el
estado de la alarma de
cloudwatch
Una función lambda crea
un mensaje útil, con
detalles de la alarma de
cloudwatch, y lo envía a
un
Los servicios
envían detalle de
las metricas a
Cloudwatch
Esquema DevOps
5. Esquema de monitoreo & alertas
Pendiente
11. Esquema DevOps
5. Estrategia de Rollback
Escenario#1 :
Escenario#2:
Escenario#3
Si el despliegue del stack de Cloudformation falla , aws
realiza el rollback automáticamente
Si existe un error en el código fuente de la aplicación
git reset --hard fa4e93c
git reset --soft HEAD@{1}
git commit -m "Volviendo al estado del proyecto en
fa4e93c"
Si la especificación de la IAC es incorrecta
Actualmente CodePipeline no admite re ejecutar un
pipeline historio por ahora(limitante AWS).
- Modificar el stack actual en prod y corregir el issus en
caliente.
- Realizar otro despliegue con el fix
13. SDLF – Objetos
Este caso de uso tiene como alcance la creación de objetos
(esquemas tablas en athena(DML)) necesarios para el correcto
funcionamiento de los modulo StageA del SDLF
1. Alcance
14. Lograremos nuestra visión trabajando en 6 frentes
Escalabilidad, flexibilidad e
independencia de servicios a través de
la nueva capa de integración
Mainframe como
complemento de la
estrategia digital
Cores digitales para acompañar a
los productos del activo en su
estrategia de crecimiento
Eliminar la obsolescencia
tecnológica en todas las
aplicaciones críticas
Todos los servicios Front
Cliente deberán
apalancarse sobre la nueva
Plataforma digital
Disponibilizar los datos
en la nube para ser un
banco que acciona en
tiempo real
1 2
5 6
4
3
15. Arquitectura híbrida de datos 1
2
3
4
5
6
Habilitar las capacidades para anticiparnos a las necesidades de los peruanos e interactuar con
ellos en tiempo real a partir de la información que nos deja en cada experiencia con Interbank o con
nuestros socios.
1. Disponibilizar Datos en la nube
2. Habilitar arquitecturas para interactuar
en tiempo real+ AI
3. SolucionesAnalíticas Omnicanal
4. Analytics Open Banking
1. 5% datos nube/on premise
Objetivo
Alcance Indicadores
Linda Collazos
Líder
16. Iniciativas D&A MESAS CROSS – E2E
Hadoop Teradata
Squad
Funcionalidades
Big Data
Pipeline &
Streaming
Advanced Analytics
+
RTD-AI
MLOPS &
CI/CD
Data
Store
Micro
Services
Serverless Data
Lake Framework
Advanced
Analytics
Subida Sdlf
End analytic user
17. AWS
(SDLF
)
Merge
Branch prod
Continuos Integration
Developer
Files
Push code
Branch Test
Merge
Aprobador merge
(QA)
Checker
Release
Enviroment
test
Checker (QA)
QA
Branch Dev
Aprobador merge
(Excelencia operativa)
AWS
(SDLF
)
Enviroment
Production
Continuos Deployment
Continuos Integration
Continuos Deployment
2. Flujo git - CI & CD
SDLF – Objetos
18. 3. Respository – Bitbucket :
Nombre del repositorio :
ibk-bigdata-sdlf-advance-analytics-object IBK_BIGDATA_SDLF_ADVANCE_ANALYTICS_ADM
IBK_BIGDATA_SDLF_ADVANCE_ANALYTICS_QA
IBK_BIGDATA_SDLF_ADVANCE_ANALYTICS_EO
IBK_BIGDATA_SDLF_ADVANCE_ANALYTICS_RW
Branch :
dev, test, prod
Grupos
Merge via pull request (test):
IBK_BIGDATA_SDLF_ADVANCE_ANALYTICS_QA
Merge via pull request (prod):
IBK_BIGDATA_SDLF_ADVANCE_ANALYTICS_EO
SDLF – Objetos
Que almacena :
archivo zip :
- fct_rt_tc_historico_mdl_perm.sql
- fct_rt_tc_historico_mdl_stage.sql
20. Nivel de Impacto en SDLF :
En el caso de presentarse algún error en la ejecución de script de creación de objetos, no se activa el flujo de r
En el escenario de realizar DROP Table a una tabla incorrecta, la aplicación genera un archivo de backup antes de
y se realizar un nuevo pase
SDLF – Objetos
5. Rollback :
21. 6. Matriz de Responsabilidades RACI
# Tareas LT QA Exce. Operativa BD&A
01 Despliegue de
objetos
A I R
02 Rollback A I R
03 Errores git R I
04 Errores de CI &
CD
I R
05 Creación de
nuevos usuarios
C I R
ROLES
R: responsable
A: aprobador
C: consultado
I: informado
SDLF – Objetos
22. - Documento de Bitbucket - pases
- Documento de Creación de objetos (scripts)
- Documento de verificación Servicios cloud
SDLF – Objetos
7. Entregables