Este documento describe la necesidad de realizar análisis de datos para tomar mejores decisiones de negocios. Explica que la inteligencia de negocios permite recopilar, analizar y presentar datos para generar información útil que sustente las decisiones estratégicas. Proporciona beneficios como mejor acceso a la información y apoyo en la planificación.
This document summarizes two innovative approaches to enterprise security architecture: Google's BeyondCorp architecture and the Cloud Security Alliance's Software Defined Perimeters (SDP). BeyondCorp aims to remove network-based attacks by implementing zero-trust network access based on continuous device/user authentication and authorization. SDP uses cryptographic protocols and dynamic firewalls to create on-demand, air-gapped networks between initiating and accepting hosts. The document then discusses how organizations can implement these approaches using existing security tools and outlines steps to develop an enterprise security architecture.
Data Profiling, Data Catalogs and Metadata HarmonisationAlan McSweeney
These notes discuss the related topics of Data Profiling, Data Catalogs and Metadata Harmonisation. It describes a detailed structure for data profiling activities. It identifies various open source and commercial tools and data profiling algorithms. Data profiling is a necessary pre-requisite activity in order to construct a data catalog. A data catalog makes an organisation’s data more discoverable. The data collected during data profiling forms the metadata contained in the data catalog. This assists with ensuring data quality. It is also a necessary activity for Master Data Management initiatives. These notes describe a metadata structure and provide details on metadata standards and sources.
This webinar we will focus on products of Tableau, it’s data preparation and analytics capabilities and evaluate its features with that of other leading BI tools.
Data Integration is a key part of many of today’s data management challenges: from data warehousing, to MDM, to mergers & acquisitions. Issues can arise not only in trying to align technical formats from various databases and legacy systems, but in trying to achieve common business definitions and rules.
Join this webinar to see how a data model can help with both of these challenges – from ‘bottom-up’ technical integration, to the ‘top-down’ business alignment.
Big MDM Part 2: Using a Graph Database for MDM and Relationship ManagementCaserta
This document provides an agenda and overview for the "Big MDM Part 2" meetup event. The agenda includes presentations on using graph databases for master data management (MDM) and relationship management. Speakers from Caserta Concepts, Neo Technology, and Pitney Bowes will discuss graph databases, MDM use cases, and modeling and managing data with graph databases. The meetup is sponsored by Caserta Concepts and hosted by Neo Technology. It will include networking, five presentations on graph databases and MDM topics, and a Q&A session.
Herramientas para la gestion del conocimientomanuel galindez
Este documento describe varias herramientas tecnológicas para la gestión del conocimiento en organizaciones, incluyendo buscadores de información, herramientas de búsqueda y clasificación, gestores de contenido, bases de datos, portales de conocimiento, mapas de conocimiento y repositorios digitales. Explica que estas herramientas pueden apoyar los procesos de descubrimiento, transferencia y producción de conocimiento al facilitar el almacenamiento, conversión y transferencia de información.
Este documento describe la necesidad de realizar análisis de datos para tomar mejores decisiones de negocios. Explica que la inteligencia de negocios permite recopilar, analizar y presentar datos para generar información útil que sustente las decisiones estratégicas. Proporciona beneficios como mejor acceso a la información y apoyo en la planificación.
This document summarizes two innovative approaches to enterprise security architecture: Google's BeyondCorp architecture and the Cloud Security Alliance's Software Defined Perimeters (SDP). BeyondCorp aims to remove network-based attacks by implementing zero-trust network access based on continuous device/user authentication and authorization. SDP uses cryptographic protocols and dynamic firewalls to create on-demand, air-gapped networks between initiating and accepting hosts. The document then discusses how organizations can implement these approaches using existing security tools and outlines steps to develop an enterprise security architecture.
Data Profiling, Data Catalogs and Metadata HarmonisationAlan McSweeney
These notes discuss the related topics of Data Profiling, Data Catalogs and Metadata Harmonisation. It describes a detailed structure for data profiling activities. It identifies various open source and commercial tools and data profiling algorithms. Data profiling is a necessary pre-requisite activity in order to construct a data catalog. A data catalog makes an organisation’s data more discoverable. The data collected during data profiling forms the metadata contained in the data catalog. This assists with ensuring data quality. It is also a necessary activity for Master Data Management initiatives. These notes describe a metadata structure and provide details on metadata standards and sources.
This webinar we will focus on products of Tableau, it’s data preparation and analytics capabilities and evaluate its features with that of other leading BI tools.
Data Integration is a key part of many of today’s data management challenges: from data warehousing, to MDM, to mergers & acquisitions. Issues can arise not only in trying to align technical formats from various databases and legacy systems, but in trying to achieve common business definitions and rules.
Join this webinar to see how a data model can help with both of these challenges – from ‘bottom-up’ technical integration, to the ‘top-down’ business alignment.
Big MDM Part 2: Using a Graph Database for MDM and Relationship ManagementCaserta
This document provides an agenda and overview for the "Big MDM Part 2" meetup event. The agenda includes presentations on using graph databases for master data management (MDM) and relationship management. Speakers from Caserta Concepts, Neo Technology, and Pitney Bowes will discuss graph databases, MDM use cases, and modeling and managing data with graph databases. The meetup is sponsored by Caserta Concepts and hosted by Neo Technology. It will include networking, five presentations on graph databases and MDM topics, and a Q&A session.
Herramientas para la gestion del conocimientomanuel galindez
Este documento describe varias herramientas tecnológicas para la gestión del conocimiento en organizaciones, incluyendo buscadores de información, herramientas de búsqueda y clasificación, gestores de contenido, bases de datos, portales de conocimiento, mapas de conocimiento y repositorios digitales. Explica que estas herramientas pueden apoyar los procesos de descubrimiento, transferencia y producción de conocimiento al facilitar el almacenamiento, conversión y transferencia de información.
The document outlines a proposed smart data strategy for the UAE government. It begins by establishing a vision of "data driven Smart Government" and a mission of "Utilising Smart Data for Smart Services". Three strategic priorities are identified: Efficiency, Effectiveness, and Engagement. For each priority, objectives and key performance indicators are defined. Projects are then prioritized based on their impact on the strategic priorities. The strategy is designed to strengthen the government's data value chain and foster outcomes like improved rankings, productivity, and citizen happiness.
El documento define los conceptos básicos de análisis de sistemas, incluyendo que un sistema está compuesto de componentes interrelacionados que funcionan como una unidad. Explica que el análisis de sistemas implica dividir modelos de forma jerárquica para representar información, funciones y comportamientos. Los objetivos del análisis incluyen identificar las necesidades del cliente y asignar funciones a elementos del sistema. Finalmente, señala que el diseño de sistemas aplica técnicas para definir un sistema con suficientes detalles para
The intent of the paper is to propose a simple yet comprehensive technique to model enterprise security architecture and design aligned to SABSA that enables –
Standardisation of SABSA Enterprise Security Architecture framework by formalizing common language used in the form of ESA modelling notation
Reusability of model artefacts (not documents) to enable enterprise and department level collaboration and knowledge management
Generic or organisation specific Library of assets for various ESA artefacts such as – Business attribute profile(s), security services, mechanisms and components and associated views
Tool-assisted development using a separate toolbox for ESA that augments Enterprise Architecture (ToGAF) modelling using Archimate.
This document provides an overview of a data catalog called Amundsen that was created to improve the productivity of data users. Amundsen indexes data resources and powers search based on usage patterns to help users discover, understand, and analyze data. It aims to reduce the time data scientists spend on data discovery activities from one-third to increase their productivity. The tool provides search of metadata from various data sources and displays table details, column metadata stats, and people profiles to help users find and understand corporate data.
Obtenga una visión unificada de los datos de su organización (MDM)PowerData
El documento habla sobre la gobernabilidad de datos y la necesidad de una solución de administración maestra de datos (MDM). Propone una plataforma MDM que permite acceder, descubrir, limpiar, mapear y entregar datos maestros de cualquier origen para satisfacer los requisitos de negocio como optimizar canales, aumentar ingresos y mejorar adaptabilidad. También discute cómo Informatica puede satisfacer los requisitos fundamentales de MDM como integración y calidad de datos para entregar datos maestros relevantes de manera o
This document provides an overview of a course on business intelligence and data visualization. The course objectives are to introduce data visualization theories, techniques, and tools for analyzing and presenting business data. Students will learn to design, develop, and evaluate effective visualizations and dashboards using tools like Tableau. The course focuses on how business intelligence uses analytics tools to combine data from multiple sources and help users make more informed decisions. Key topics covered include the fundamentals of business intelligence, Tableau functionality, data modeling, and creating dashboards and stories.
This document provides an overview of the SABSA (Sherwood Applied Business Security Architecture) methodology. SABSA is a free and open-source security architecture framework used for developing business-driven security architectures. It includes frameworks for business requirements engineering, risk management, security architecture, governance, and through-life security service management. SABSA has been widely adopted internationally and is recognized for its business focus, comprehensive and modular nature, and ability to integrate with other frameworks. It also offers competency-based certification for practitioners.
Trying to manage all the critical controls, testing and procedures to prepare for your SOC Audit? We created a Runbook and Framework to help manage the project execution process before your SOC Audit.
Este documento presenta la investigación de un grupo de estudiantes sobre la optimización de bases de datos en Microsoft Access. El documento incluye la justificación, objetivos, preguntas de investigación y marco teórico sobre sistemas de información y tipos de bases de datos. El grupo busca determinar los beneficios de contar con una base de datos optimizada y los riesgos de una base de datos no optimizada.
Etl And Data Test Guidelines For Large ApplicationsWayne Yaddow
This document provides guidelines for testing the quality of data, ETL processes, and SQL queries during the development of a data warehouse. It outlines steps to verify data extracted from source systems, transformed and loaded into staging tables, cleansed and consolidated in staging, and finally transformed and loaded into the data warehouse operational tables and data marts. The guidelines describe analyzing source data quality, verifying ETL processes, matching consolidated data, and transforming data according to business rules.
Metadata is hotter than ever, according a number of recent DATAVERSITY surveys. More and more organizations are realizing that in order to drive business value from data, robust metadata is needed to gain the necessary context and lineage around key data assets. At the same time, industry regulations are driving the need for better transparency and understanding of information.
While metadata has been managed for decades, new strategies & approaches have been developed to support the ever-evolving data landscape, and provide more innovative ways to drive business value from metadata. This webinar will provide an overview of metadata strategies & technologies available to today’s organization, and provide insights into building successful business strategies for metadata adoption & use.
This presentation discusses security analytics, including defining the concept, choosing a path to success, tooling options, and best practices. Security analytics involves analyzing data using advanced methods to achieve useful security outcomes, such as detecting threats better or prioritizing alerts. Success requires an analytic mindset and willingness to explore data. Options for tooling include buying pre-built solutions, building custom capabilities, or partnering with outside experts. The presenter provides examples of user behavior analytics and network traffic analysis tools.
Enterprise Data Management Framework OverviewJohn Bao Vuu
A solid data management foundation to support big data analytics and more importantly a data-driven culture is necessary for today’s organizations.
A mature Data Management Program can reduce operational costs and enable rapid business growth and development. Data Management program must evolve to monetize data assets, deliver breakthrough innovation and help drive business strategies in new markets.
Next Generation Defense in Depth Model - Tari Schreider, CCISO, Chief Cybers...EC-Council
This session will focus on presenting a next generation defense in depth model and answer the question on many CISO’s minds - is it still relevant? A model of defense in depth will serve as a backdrop to introduce you to a wide range of solutions from across the cybersecurity-industrial complex that just may change how you view your defense in depth approach.
This document provides an overview of implementing a SABSA framework for information security architecture. It begins by discussing how the business context and requirements are analyzed, including attributes profiling to map business drivers to security-related attributes. A sample attribute profile is shown. It then discusses establishing a risk and opportunity framework, including how to assess risks and opportunities related to business attributes. Finally, it provides a sample implementation showing how risks would be addressed through controls and opportunities enabled through enablers as part of the SABSA approach.
The document discusses modern data architectures. It presents conceptual models for data ingestion, storage, processing, and insights/actions. It compares traditional vs modern architectures. The modern architecture uses a data lake for storage and allows for on-demand analysis. It provides an example of how this could be implemented on Microsoft Azure using services like Azure Data Lake Storage, Azure Data Bricks, and Azure Data Warehouse. It also outlines common data management functions such as data governance, architecture, development, operations, and security.
Data Management vs. Data Governance ProgramDATAVERSITY
This document contains a presentation by Peter Aiken on data programs, specifically distinguishing between data management and data governance. Some key points:
- Data management focuses on understanding current and future data needs and making data effective and efficient for business activities. Data governance establishes authority and control over data management.
- Both data management and governance are needed for success. Data management executes practices while data governance provides oversight and guidance.
- Messaging should emphasize the critical importance of data and having a singular focus on improving data's role in achieving organizational strategy.
- A data strategy should define each practice area's relationship and focus on continuous improvement over multiple iterations.
This is my presentation at SQLBits 8, Brighton, 9th April 2011. This session is about advanced dimensional modelling topics such as Fact Table Primary Key, Vertical Fact Tables, Aggregate Fact Tables, SCD Type 6, Snapshotting Transaction Fact Tables, 1 or 2 Dimensions, Dealing with Currency Rates, When to Snowflake, Dimensions with Multi Valued Attributes, Transaction-Level Dimensions, Very Large Dimensions, A Dimension With Only 1 Attribute, Rapidly Changing Dimensions, Banding Dimension Rows, Stamping Dimension Rows and Real Time Fact Table. Prerequisites: You need have a basic knowledge of dimensional modelling and relational database design.
My name is Vincent Rainardi. I am a data warehouse & BI architect. I wrote a book on SQL Server data warehousing & BI, as well as many articles on my blog, www.datawarehouse.org.uk. I welcome questions and discussions on data warehousing on vrainardi@gmail.com. Enjoy the presentation.
Creating an Effective MDM Strategy for SalesforcePerficient, Inc.
As Salesforce has grown from a simple, standalone tool to a platform that touches every customer interaction, the data has grown more complex. This problem happens for many reasons including user error, adding other cloud apps requiring data integration, and business mergers and acquisitions that create multiple instances of Salesforce within an organization.
A master data management (MDM) strategy is critical to helping companies solve challenges like providing enterprise analytics and creating a 360-degree view of the customer. With Informatica Cloud, companies are learning to address the challenges and explore alternatives including a cost-effective cloud MDM versus a full-blown MDM solution.
During this webinar, our experts demonstrated the Informatica cloud MDM solution in action and showed how with an effective strategy, you can:
-Support the business case for MDM consolidation of multiple instances
-Create a customer 360-degree view in the cloud
-Understand the use case, reference architecture, and why companies are choosing cloud-based MDM
Too often I hear the question “Can you help me with our data strategy?” Unfortunately, for most, this is the wrong request because it focuses on the least valuable component: the data strategy itself. A more useful request is: “Can you help me apply data strategically?” Yes, at early maturity phases the process of developing strategic thinking about data is more important than the actual product! Trying to write a good (must less perfect) data strategy on the first attempt is generally not productive –particularly given the widespread acceptance of Mike Tyson’s truism: “Everybody has a plan until they get punched in the face.” This program refocuses efforts on learning how to iteratively improve the way data is strategically applied. This will permit data-based strategy components to keep up with agile, evolving organizational strategies. It also contributes to three primary organizational data goals. Learn how to improve the following:
- Your organization’s data
- The way your people use data
- The way your people use data to achieve your organizational strategy
This will help in ways never imagined. Data are your sole non-depletable, non-degradable, durable strategic assets, and they are pervasively shared across every organizational area. Addressing existing challenges programmatically includes overcoming necessary but insufficient prerequisites and developing a disciplined, repeatable means of improving business objectives. This process (based on the theory of constraints) is where the strategic data work really occurs as organizations identify prioritized areas where better assets, literacy, and support (data strategy components) can help an organization better achieve specific strategic objectives. Then the process becomes lather, rinse, and repeat. Several complementary concepts are also covered, including:
- A cohesive argument for why data strategy is necessary for effective data governance
- An overview of prerequisites for effective strategic use of data strategy, as well as common pitfalls
- A repeatable process for identifying and removing data constraints
- The importance of balancing business operation and innovation
El documento presenta la biografía y experiencia de Juan Alvarado como experto en datos y plataformas. Explica conceptos clave de la transformación digital como la movilidad, centrarse en los clientes y los datos, ecosistemas, internet de las cosas y algoritmos. Finalmente, describe algunas aplicaciones de la inteligencia artificial como el reconocimiento de voz, imágenes y procesamiento de lenguaje natural.
Los trabajos que más peligro corren debido al avance de la Inteligencia Artificial son:
2. Cajero - Ya existen cajas automáticas y es previsible que en el futuro se automatice completamente este trabajo.
3. Cocinero en un restaurante - Algunas tareas como cortar verduras, freír alimentos o preparar ensaladas podrían automatizarse.
5. Traductor - La traducción automática ha avanzado mucho y es posible que en el futuro muchos traductores humanos sean reemplazados.
6. Radiologo - La
The document outlines a proposed smart data strategy for the UAE government. It begins by establishing a vision of "data driven Smart Government" and a mission of "Utilising Smart Data for Smart Services". Three strategic priorities are identified: Efficiency, Effectiveness, and Engagement. For each priority, objectives and key performance indicators are defined. Projects are then prioritized based on their impact on the strategic priorities. The strategy is designed to strengthen the government's data value chain and foster outcomes like improved rankings, productivity, and citizen happiness.
El documento define los conceptos básicos de análisis de sistemas, incluyendo que un sistema está compuesto de componentes interrelacionados que funcionan como una unidad. Explica que el análisis de sistemas implica dividir modelos de forma jerárquica para representar información, funciones y comportamientos. Los objetivos del análisis incluyen identificar las necesidades del cliente y asignar funciones a elementos del sistema. Finalmente, señala que el diseño de sistemas aplica técnicas para definir un sistema con suficientes detalles para
The intent of the paper is to propose a simple yet comprehensive technique to model enterprise security architecture and design aligned to SABSA that enables –
Standardisation of SABSA Enterprise Security Architecture framework by formalizing common language used in the form of ESA modelling notation
Reusability of model artefacts (not documents) to enable enterprise and department level collaboration and knowledge management
Generic or organisation specific Library of assets for various ESA artefacts such as – Business attribute profile(s), security services, mechanisms and components and associated views
Tool-assisted development using a separate toolbox for ESA that augments Enterprise Architecture (ToGAF) modelling using Archimate.
This document provides an overview of a data catalog called Amundsen that was created to improve the productivity of data users. Amundsen indexes data resources and powers search based on usage patterns to help users discover, understand, and analyze data. It aims to reduce the time data scientists spend on data discovery activities from one-third to increase their productivity. The tool provides search of metadata from various data sources and displays table details, column metadata stats, and people profiles to help users find and understand corporate data.
Obtenga una visión unificada de los datos de su organización (MDM)PowerData
El documento habla sobre la gobernabilidad de datos y la necesidad de una solución de administración maestra de datos (MDM). Propone una plataforma MDM que permite acceder, descubrir, limpiar, mapear y entregar datos maestros de cualquier origen para satisfacer los requisitos de negocio como optimizar canales, aumentar ingresos y mejorar adaptabilidad. También discute cómo Informatica puede satisfacer los requisitos fundamentales de MDM como integración y calidad de datos para entregar datos maestros relevantes de manera o
This document provides an overview of a course on business intelligence and data visualization. The course objectives are to introduce data visualization theories, techniques, and tools for analyzing and presenting business data. Students will learn to design, develop, and evaluate effective visualizations and dashboards using tools like Tableau. The course focuses on how business intelligence uses analytics tools to combine data from multiple sources and help users make more informed decisions. Key topics covered include the fundamentals of business intelligence, Tableau functionality, data modeling, and creating dashboards and stories.
This document provides an overview of the SABSA (Sherwood Applied Business Security Architecture) methodology. SABSA is a free and open-source security architecture framework used for developing business-driven security architectures. It includes frameworks for business requirements engineering, risk management, security architecture, governance, and through-life security service management. SABSA has been widely adopted internationally and is recognized for its business focus, comprehensive and modular nature, and ability to integrate with other frameworks. It also offers competency-based certification for practitioners.
Trying to manage all the critical controls, testing and procedures to prepare for your SOC Audit? We created a Runbook and Framework to help manage the project execution process before your SOC Audit.
Este documento presenta la investigación de un grupo de estudiantes sobre la optimización de bases de datos en Microsoft Access. El documento incluye la justificación, objetivos, preguntas de investigación y marco teórico sobre sistemas de información y tipos de bases de datos. El grupo busca determinar los beneficios de contar con una base de datos optimizada y los riesgos de una base de datos no optimizada.
Etl And Data Test Guidelines For Large ApplicationsWayne Yaddow
This document provides guidelines for testing the quality of data, ETL processes, and SQL queries during the development of a data warehouse. It outlines steps to verify data extracted from source systems, transformed and loaded into staging tables, cleansed and consolidated in staging, and finally transformed and loaded into the data warehouse operational tables and data marts. The guidelines describe analyzing source data quality, verifying ETL processes, matching consolidated data, and transforming data according to business rules.
Metadata is hotter than ever, according a number of recent DATAVERSITY surveys. More and more organizations are realizing that in order to drive business value from data, robust metadata is needed to gain the necessary context and lineage around key data assets. At the same time, industry regulations are driving the need for better transparency and understanding of information.
While metadata has been managed for decades, new strategies & approaches have been developed to support the ever-evolving data landscape, and provide more innovative ways to drive business value from metadata. This webinar will provide an overview of metadata strategies & technologies available to today’s organization, and provide insights into building successful business strategies for metadata adoption & use.
This presentation discusses security analytics, including defining the concept, choosing a path to success, tooling options, and best practices. Security analytics involves analyzing data using advanced methods to achieve useful security outcomes, such as detecting threats better or prioritizing alerts. Success requires an analytic mindset and willingness to explore data. Options for tooling include buying pre-built solutions, building custom capabilities, or partnering with outside experts. The presenter provides examples of user behavior analytics and network traffic analysis tools.
Enterprise Data Management Framework OverviewJohn Bao Vuu
A solid data management foundation to support big data analytics and more importantly a data-driven culture is necessary for today’s organizations.
A mature Data Management Program can reduce operational costs and enable rapid business growth and development. Data Management program must evolve to monetize data assets, deliver breakthrough innovation and help drive business strategies in new markets.
Next Generation Defense in Depth Model - Tari Schreider, CCISO, Chief Cybers...EC-Council
This session will focus on presenting a next generation defense in depth model and answer the question on many CISO’s minds - is it still relevant? A model of defense in depth will serve as a backdrop to introduce you to a wide range of solutions from across the cybersecurity-industrial complex that just may change how you view your defense in depth approach.
This document provides an overview of implementing a SABSA framework for information security architecture. It begins by discussing how the business context and requirements are analyzed, including attributes profiling to map business drivers to security-related attributes. A sample attribute profile is shown. It then discusses establishing a risk and opportunity framework, including how to assess risks and opportunities related to business attributes. Finally, it provides a sample implementation showing how risks would be addressed through controls and opportunities enabled through enablers as part of the SABSA approach.
The document discusses modern data architectures. It presents conceptual models for data ingestion, storage, processing, and insights/actions. It compares traditional vs modern architectures. The modern architecture uses a data lake for storage and allows for on-demand analysis. It provides an example of how this could be implemented on Microsoft Azure using services like Azure Data Lake Storage, Azure Data Bricks, and Azure Data Warehouse. It also outlines common data management functions such as data governance, architecture, development, operations, and security.
Data Management vs. Data Governance ProgramDATAVERSITY
This document contains a presentation by Peter Aiken on data programs, specifically distinguishing between data management and data governance. Some key points:
- Data management focuses on understanding current and future data needs and making data effective and efficient for business activities. Data governance establishes authority and control over data management.
- Both data management and governance are needed for success. Data management executes practices while data governance provides oversight and guidance.
- Messaging should emphasize the critical importance of data and having a singular focus on improving data's role in achieving organizational strategy.
- A data strategy should define each practice area's relationship and focus on continuous improvement over multiple iterations.
This is my presentation at SQLBits 8, Brighton, 9th April 2011. This session is about advanced dimensional modelling topics such as Fact Table Primary Key, Vertical Fact Tables, Aggregate Fact Tables, SCD Type 6, Snapshotting Transaction Fact Tables, 1 or 2 Dimensions, Dealing with Currency Rates, When to Snowflake, Dimensions with Multi Valued Attributes, Transaction-Level Dimensions, Very Large Dimensions, A Dimension With Only 1 Attribute, Rapidly Changing Dimensions, Banding Dimension Rows, Stamping Dimension Rows and Real Time Fact Table. Prerequisites: You need have a basic knowledge of dimensional modelling and relational database design.
My name is Vincent Rainardi. I am a data warehouse & BI architect. I wrote a book on SQL Server data warehousing & BI, as well as many articles on my blog, www.datawarehouse.org.uk. I welcome questions and discussions on data warehousing on vrainardi@gmail.com. Enjoy the presentation.
Creating an Effective MDM Strategy for SalesforcePerficient, Inc.
As Salesforce has grown from a simple, standalone tool to a platform that touches every customer interaction, the data has grown more complex. This problem happens for many reasons including user error, adding other cloud apps requiring data integration, and business mergers and acquisitions that create multiple instances of Salesforce within an organization.
A master data management (MDM) strategy is critical to helping companies solve challenges like providing enterprise analytics and creating a 360-degree view of the customer. With Informatica Cloud, companies are learning to address the challenges and explore alternatives including a cost-effective cloud MDM versus a full-blown MDM solution.
During this webinar, our experts demonstrated the Informatica cloud MDM solution in action and showed how with an effective strategy, you can:
-Support the business case for MDM consolidation of multiple instances
-Create a customer 360-degree view in the cloud
-Understand the use case, reference architecture, and why companies are choosing cloud-based MDM
Too often I hear the question “Can you help me with our data strategy?” Unfortunately, for most, this is the wrong request because it focuses on the least valuable component: the data strategy itself. A more useful request is: “Can you help me apply data strategically?” Yes, at early maturity phases the process of developing strategic thinking about data is more important than the actual product! Trying to write a good (must less perfect) data strategy on the first attempt is generally not productive –particularly given the widespread acceptance of Mike Tyson’s truism: “Everybody has a plan until they get punched in the face.” This program refocuses efforts on learning how to iteratively improve the way data is strategically applied. This will permit data-based strategy components to keep up with agile, evolving organizational strategies. It also contributes to three primary organizational data goals. Learn how to improve the following:
- Your organization’s data
- The way your people use data
- The way your people use data to achieve your organizational strategy
This will help in ways never imagined. Data are your sole non-depletable, non-degradable, durable strategic assets, and they are pervasively shared across every organizational area. Addressing existing challenges programmatically includes overcoming necessary but insufficient prerequisites and developing a disciplined, repeatable means of improving business objectives. This process (based on the theory of constraints) is where the strategic data work really occurs as organizations identify prioritized areas where better assets, literacy, and support (data strategy components) can help an organization better achieve specific strategic objectives. Then the process becomes lather, rinse, and repeat. Several complementary concepts are also covered, including:
- A cohesive argument for why data strategy is necessary for effective data governance
- An overview of prerequisites for effective strategic use of data strategy, as well as common pitfalls
- A repeatable process for identifying and removing data constraints
- The importance of balancing business operation and innovation
El documento presenta la biografía y experiencia de Juan Alvarado como experto en datos y plataformas. Explica conceptos clave de la transformación digital como la movilidad, centrarse en los clientes y los datos, ecosistemas, internet de las cosas y algoritmos. Finalmente, describe algunas aplicaciones de la inteligencia artificial como el reconocimiento de voz, imágenes y procesamiento de lenguaje natural.
Los trabajos que más peligro corren debido al avance de la Inteligencia Artificial son:
2. Cajero - Ya existen cajas automáticas y es previsible que en el futuro se automatice completamente este trabajo.
3. Cocinero en un restaurante - Algunas tareas como cortar verduras, freír alimentos o preparar ensaladas podrían automatizarse.
5. Traductor - La traducción automática ha avanzado mucho y es posible que en el futuro muchos traductores humanos sean reemplazados.
6. Radiologo - La
Empieza a utilizar Big Data en tus análisis
Vivimos en un mundo “Big Data”. Este término está relacionado con la tecnología para manejar inmensas cantidades de datos, recogidas en diferentes formatos y a partir de una gran variedad de orígenes cada segundo. Estos datos hablan de nosotros, de nuestra vida diaria y son recogidos tanto de fuentes nuevas como tradicionales, constituyendo una gran oportunidad de mejorar el conocimiento de los clientes.
Uno de los principales factores de éxito en las empresas de hoy es convertir esos grandes volúmenes de datos, siempre cambiantes y de orígenes diversos, en información válida para la toma de decisiones.
En este curso de big data aprenderás, desde un punto de vista práctico y realista, a abordar y resolver problemáticas analíticas desde entornos big data, dando respuestas a través de soluciones tecnológicas tanto en tiempo real como en diferido. Recorreremos contigo el camino desde el área de análisis de cliente, CRM o B.I. tradicionales hacia los nuevos retos en proyectos Big Data.
¿Quieres convertirte en un experto en Big Data?
Presentación "Aplicaciones de BI con Pentaho", dada por Datalytics en la segunda edición de las Jornadas de Minería de Datos organizadas por la cátedra de Sistemas de Gestión 2 de la UTN Regional Rosario
Presentacion A10 Big Data_Alteryx_Cloudera Analytics10
El documento presenta una introducción a Analytics10 y sus servicios de inteligencia de negocios y análisis avanzados. Cubre temas como el acceso y uso de múltiples fuentes de datos, herramientas de mezcla y análisis de datos como Alteryx, y casos de uso de clientes en diferentes industrias. El objetivo es ayudar a las empresas a simplificar el proceso de obtener información valiosa de sus datos.
El documento proporciona información sobre un programa de capacitación en inteligencia artificial. En primer lugar, describe el rápido crecimiento del mercado de IA y cómo está transformando diferentes industrias. Luego, explica que el programa enseñará los fundamentos de IA, incluido machine learning, redes neuronales y aplicaciones clave como visión artificial y procesamiento de lenguaje natural. El objetivo es que los participantes aprendan a implementar proyectos de IA en sus propias organizaciones.
El documento presenta una introducción a Lagash, una compañía de servicios de inteligencia artificial, y discute el uso de bots. Explica dos errores comunes con la IA, la necesidad de definir objetivos de negocio y la importancia de los datos. Luego describe varios servicios cognitivos de Azure y casos de éxito de clientes usando IA para mejorar la experiencia del cliente a través de un bot.
El documento habla sobre las decisiones de negocio relacionadas con la analítica de datos. Explica conceptos como el análisis de proyectos de inversión, hardware y software, herramientas de analítica, seguridad y privacidad de datos, y la selección de proveedores. También discute la importancia de desarrollar una estructura interna responsable de la analítica de datos para tomar decisiones informadas.
Este documento presenta una introducción a UiPath y la automatización de procesos con RPA (Robotic Process Automation). Explica que RPA permite simular tareas repetitivas que realizan las personas en aplicaciones digitales. Detalla algunas tareas que pueden automatizarse como iniciar sesión en aplicaciones, mover archivos, extraer datos y realizar cálculos. También resume los beneficios de la automatización para las empresas como acelerar la transformación digital, mejorar la experiencia del cliente y reducir costos. Finalmente, brinda una breve descripción de
En es presentación vemos las herramientas con las cuales cuenta un científico de datos con tecnología Microsoft y también con tecnología OpenSource es se puede integrar con Plataformas Microsoft en la nube con Azure o con Servidores OnPremises.
Saludos,
Ing. Eduardo Castro, PhD
Microsoft SQL Server MVP
Costa Rica
Predictive Analytics with Pentaho Data Mining - Análisis Predictivo con Penta...Pentaho
This webinar is in Spanish -
El uso de análisis predictivo o minería de datos está en auge. A nivel mundial, cada vez más, las empresas contratan servicios especializados de análisis de información que ayuden a marcar una diferencia con la competencia. Por otro lado, el volumen creciente de data así como su naturaleza cambiante y compleja, hacen inmanejable el proceso de análisis de forma tradicional y está siendo necesario incorporar tecnología y consultoría de punta, basada en el uso de modelos matemáticos avanzados. Pentaho Corporation y Matrix CPM Solutions los invita a participar en el seminario en línea “Análisis Predictivo con Pentaho Data Mining”, en donde se revisarán las grandes oportunidades que existen para su uso y aplicación.
Las 10 tendencias principales de BI para el 2018 - Carloz DíazBig-Data-Summit
El ritmo y la evolución de las soluciones de inteligencia de negocios implican que lo que hoy funciona podría requerir ciertas modificaciones el día de mañana.
Este documento habla sobre Business Intelligence (BI), definido como el uso de datos de una empresa para facilitar la toma de decisiones. Explica que BI ofrece acceso a información, herramientas de análisis y soporte para la toma de decisiones. También describe los elementos clave de BI como data warehouses, herramientas analíticas y de minería de datos. Las ventajas de BI incluyen mayor acceso a información en tiempo real, ahorro de costos y oportunidades de negocio.
Este documento describe la automatización de procesos robóticos (RPA). Explica que la RPA se espera que supere a otras tecnologías como la nube, IoT y blockchain en inversión, ya que ayuda a las empresas a lograr efectividad operativa. También describe cómo los robots emulan las acciones de los usuarios para extraer e intercambiar información de varias fuentes de datos, y cómo la inteligencia artificial complementa aún más las capacidades de los robots.
Propuesta en Gestión de Proyectos y Análisis de NegociosRedRITA
Este documento propone una maestría en gestión de proyectos y análisis de negocios. Presenta los aportes de la teoría de la complejidad a estos campos y define la complejidad. Explica la diferencia entre proyectos y trabajo operativo. Incluye el marco de gestión de proyectos y programas, así como los niveles de complejidad y comportamientos que la generan. Finalmente, detalla la estructura de la maestría con cursos sobre identificación de proyectos, minería de datos, analítica visual y semin
H. Gomis y E. Cañizares. Herramientas BI : Elección y Buenas Prácticas. Seman...COIICV
Ponencia: Herramientas BI : Elección y Buenas Prácticas. Claves para la implantación con éxito de un Cuadro de mando en la PYME. COIICV: Jornada Big Data, transformando procesos y negocios
Presentación sobre nuevas tendencias tecnológicas de gran impacto en el mundo y la innovación que éstas permiten. En particular la Nube, los móviles, las redes sociales y el Big Data.
Similar a Modelo Operativo para grandes proyectos de AI - Ignacio Marrero (20)
SafeHomeFace - Sistema de reconocimiento facial.Big-Data-Summit
Brindar a las Empresas de seguridad y administradoras de condominios, una plataforma para gestionar las cámaras de seguridad instaladas en sus clientes, utilizando algoritmos de machine learning
El big data analytics donde menos te lo esperas - Alex RayónBig-Data-Summit
This document discusses applications of big data analytics in unexpected areas. It focuses on applications in music and agriculture. In music, big data is used to explore data, perform clustering, association rules, prediction, and analyze social media. In agriculture, big data is used to analyze variables affecting beet performance and quality, optimize costs, characterize farmers, and understand what makes farmers change practices. The project aims to help stakeholders by providing tailored advice to farmers to improve productivity and quality.
La evolución de la analítica descriptiva - Diego AguirreBig-Data-Summit
Diego Aguirre, an IBM data science leader, discusses the evolution of descriptive analytics and self-service business intelligence. He outlines how analytics has progressed from static reports in the 1980s-1990s to modern self-service tools that empower business users. Aguirre also discusses challenges like data silos and analyst bias with self-service analytics, and how smarter systems can help through guided analysis, question answering, and leveraging cognitive capabilities. He argues analytics is evolving to foster more creativity in data discovery.
El dato tiene forma y la forma significado - Josep CurtoBig-Data-Summit
El documento habla sobre cómo el análisis de datos topológicos (TDA) puede revelar la forma y el significado en los datos. Explica brevemente los pasos del TDA, incluidos la medición de distancias, el recubrimiento y la visualización de gráficos. Finalmente, argumenta que las organizaciones que utilizan algoritmos y datos pueden competir mejor que aquellas que no lo hacen.
BDAS-2017 | Evolución de Open Data en el desarrollo de las ciudades inteligentesBig-Data-Summit
Desde que en 2004 la entonces Open Knowledge Foundation iniciara su andadura reclamando el derecho de los ciudadanos sobre los datos públicos, la panorámica universal ha cambiado enormemente. En parte gracias a las políticas de transparencia de los gobiernos más avanzados y en parte también por el necesario desarrollo de las smartcities. Una estrategia muy aceptada por las grandes ciudades para conseguir una moderna calidad de vida sin comprometer la seguridad de los ciudadanos es motivar la participación de empresas, instituciones e individuos en el desarrollo de los recursos y aplicaciones: "Te invitamos a descubrir y construir a través de los datos públicos” es el mensaje de algunos gobiernos. Pero, ¿cómo se consigue? Está claro que las nuevas tecnologías de la información están muy presentes en este objetivo. Los ciudadanos de cualquier índole son invitados a participar con su opinión, proporcionándoles toda la información necesaria de forma transparente. Las empresas son invitadas a generar negocios de interés para los ciudadanos que a la vez generen riqueza y contribuyan al desarrollo económico de las empresas e instituciones. Un ejemplo es la aplicación Moovit que nos permite saber a qué hora llegara el autobús, pero hoy en día hay ya infinidad de aplicaciones basadas en la reutilización de datos abiertos.
Motivados por las políticas de transparencia, los gobiernos están dispuestos a proporcionar la materia prima más valiosa: los datos. Estos datos son recogidos con dinero público, almacenados y actualizados en formatos fácilmente manejables. Una vez publicados se convierten en Open Data. Desde el 30 de septiembre de 2010, cuando el Archivo Nacional del Reino Unido liberó la primera licencia gubernamental de reutilización de los datos, las doctrinas de Gobierno Abierto han tenido como objetivo que la ciudadanía colabore en la creación y mejora de servicios públicos y en la transparencia.
Habitualmente los Open Data son accesibles en portales web que han ido evolucionando muy positivamente en los últimos años. En estos portales podemos descargar conjuntos de datos -datasets- y analizarlos directamente. También podemos solicitar la publicación de nuevos conjuntos de datos o automatizar descargas o consultas de interés para nuestros negocios. En la era del Big Data, las fuentes de información abiertas cobran un especial interés: son datos actualizados, limpios y fiables. No requieren complicados procesos de integración al no contener ruido y sólo tendremos que descargar los que necesitemos en cada momento, por lo que ahorramos tanto tiempo de transferencia como costes de almacenamiento.
BDAS-2017 | Deep Learning para Extracción de Valor en Contenidos DigitalesBig-Data-Summit
Es común referirse al "Dark Data" como aquellos conjuntos de datos que no son directamente aprovechables por medios automatizados y que requerirían la intervención de expertos humanos para interpretarlos correctamente. En esta sesión se presentan las nuevas técnicas y herramientas de Deep Learning, que hacen posible la extracción automática de metadatos y relaciones semánticas mediante el uso de redes de neuronas profundas. En particular, se analizarán los casos de uso más habituales en los ecosistemas Big Data: visión artificial y comprensión del lenguaje.
BDAS-2017 | Maximizing a churn campaign’s profitability with cost sensitive m...Big-Data-Summit
Los modelos predictivos de fuga de clientes churn tratan de predecir la probabilidad de que un cliente sea desertor de la empresa analizando su comportamiento histórico y su información socio económica. Esta herramienta permite maximizar los resultados de las campañas de retención. Los actuales algoritmos de clasificación de última generación no están bien alineados con los objetivos comerciales, en el sentido de que los modelos no incluyen los costos y beneficios financieros reales durante las etapas de entrenamiento y evaluación. En esta presentación, se muestra una nueva metodología sensible al costo para el modelo predictivo de churn de clientes. Primero proponemos una nueva medida financiera para evaluar la efectividad de una campaña de churn teniendo en cuenta la cartera de ofertas disponible, su costo financiero individual y la probabilidad de aceptación de la oferta en función del perfil del cliente. Luego, usando un conjunto de datos de churn del mundo real, comparamos diferentes algoritmos de clasificación y mediremos su efectividad basándonos en su poder predictivo y también en la optimización de costos. Los resultados muestran que el uso de un enfoque sensible al costo produce un aumento en los ahorros de costos de hasta el 26,4%.
Este documento promueve el evento Analytics Summit de Big Data que se llevará a cabo en Lima, Perú en agosto de 2017. También describe la plataforma JobRanker, la cual utiliza técnicas de web scraping, procesamiento de lenguaje natural y matching semántico para ayudar a los usuarios a encontrar empleos relevantes más rápidamente que mediante la búsqueda manual en páginas de empleos. JobRanker muestra el porcentaje de coincidencia entre los trabajos publicados y los CV de los usuarios.
El documento presenta información sobre visualización y cartografía en procesos analíticos. Explica conceptos clave como problemas espaciales, herramientas SIG y cartográficas, técnicas de análisis espacial y visualización que son necesarias para entender, descubrir, relacionar y analizar datos espaciales. Además, cubre temas como tipos de datos espaciales, dimensión espacial, variables visuales y representación gráfica en cartografía.
Este documento presenta la comunidad Datanautas-Data Science Lima, la cual organiza el Analytics Summit 2017 en Lima, Perú del 25 al 26 de agosto. La comunidad se describe a sí misma como un grupo abierto de profesionales y aprendices que colaboran y comparten conocimientos sobre temas relacionados con los datos. El documento también menciona algunos de los eventos previos organizados por la comunidad, como meetups y competencias predictivas.
Este documento resume el proceso de modelización de datos para predecir el grado en que los estudiantes de una universidad recomendarían su universidad. Se utilizaron múltiples técnicas como n-grams, TF-IDF y algoritmos como XGBoost, GLMnet y SVM. Los modelos se ensamblaron para mejorar la precisión de la predicción. El uso de n-grams y TF-IDF mejoró los resultados al no requerir eliminar palabras frecuentes. El ensamble de modelos superó las predicciones de los modelos individuales.
BDAS-2017 | Hanldling Target Bias in Predictive ModellingBig-Data-Summit
Todos cometemos errores cuando desarrollamos modelos predictivos y es así como nosotros aprendemos. Frank Vanden Berghen, CEO of Timi, y Daniel Soto Zeevaert (Director Lat Am of Timi) con más de 30 años de experiencia cometiendo errores en la construcción de modelos predictivos nos compartirán su experiencia y muchas formas creativas en que los analistas pueden equivocarse y construir malos modelos predictivos inclusive utilizando las mejores herramientas y algoritmos.
BDAS-2017 | Convergencia entre Open Data y Big Data, casos y tendenciasBig-Data-Summit
Breve Descripción: Esta presentación tratará sobre la convergencia entre las tendencias de Datos Abiertos y Big Data. Gobiernos alrededor del mundo están abriendo cada vez más conjuntos de datos de valor y estos están siendo parte de dataductos creando valor en el sector privado. Esta charla comentará ejemplos y casos y discutirá algunas tendencias. También se dará un ejemplo práctico de datos abiertos importados a r para generar análisis y valor.
BDAS-2017 | Big Bilbao: Big Data e Internet of Things para la promoción econó...Big-Data-Summit
Las ciudades inteligentes o Smart Cities ha comenzado a aparecer como un concepto que permite dotar a las ciudades de una mayor capacidad de entender lo que sucede dentro de las mismas. De esta manera, adquieren una inteligencia (Smart) que las permite ofrecer unos mejores servicios a sus ciudadanos. Para ello, resulta fundamental no solo entender cómo se comporta el ciudadano, sino también lo que demanda, qué le podría venir bien, etc. Y en ello, la sensórica y dispositivos que el paradigma del Internet of Things provee, abre un nuevo escenario de gobernanza para las ciudades. Con el caso de Big Bilbao (de la ciudad de Bilbao en España), entenderemos cómo los paradigmas del Big Data e Internet of Things abren nuevas oportunidades para las ciudades, su promoción económica y mejor gobernanza.
BDAS-2017 | Comprendiendo nuestras motivaciones a través de Big DataBig-Data-Summit
¿Y si pudiéramos medir nuestra pasión? Lo que nos motiva, lo que nos empuja, lo que nos hace levantarnos cada mañana. Y si la respuesta es sí, ¿cómo lo hacemos? ¿Qué se mide? ¿Qué es relevante? En esta sesión descubriremos cómo una nueva startup plantea resolver este reto mediante el uso de big data y analytics, para el segundo tema puedo explicar que estoy haciendo en Institute of Passion. Somos una startup y estamos en fase experimental pero hay cosas que puedo explicar. Sino tengo otros ejemplos de ayudar a una startup como CDO en la sombra.
BDAS-2017 | Conozca la plataforma ideal para un procesamiento analítico sin p...Big-Data-Summit
Los datos hoy en día cumplen un rol estratégico en las organizaciones. Las herramientas tradicionales de escritorio se han quedado cortas para generar reportes y los análisis descriptivos ya no son suficientes; debemos avanzar en temas prescriptivos y predictivos para una mejor toma de decisión. Conozca la plataforma ideal para un procesamiento analítico sin precedentes y sus diferentes usos.
Building Innovative Data Products in a Banking EnvironmentBig-Data-Summit
En esta sesión se explicarán algunos de los retos y amenazas a los que se enfrentan el entorno financiero derivados de la necesaria transformación digital. Durante la conferencia se expondrán casos de uso reales de proyectos desarrollados por los equipos de analítica de BBVA que demuestran el potencial de los datos para generar productos que agregan valor a la relación con los clientes y contribuyen a solventar sus necesidades.
BDAS-2017 | De los Bots a las Arquitecturas CognitivasBig-Data-Summit
Las tecnologías de Procesamiento del Lenguaje Natural (PLN) han hecho posible la creación de nuevos servicios, como por ejemplo los asistentes virtuales, que pretenden ofrecer una interacción más natural con los usuarios sin renunciar a las grandes capacidades de automatización del Big Data. Sin embargo, lograr una interacción natural requiere la integración de múltiples funciones cognitivas además del lenguaje. En esta sesión se analiza el papel que juegan la arquitecturas cognitivas a la hora de construir bots que integren capacidades avanzadas de memoria semántica, atención, razonamiento, emoción, empatía, etc.
BDAS-2017 | Deep Neural Networks Para la Detección de PhishingBig-Data-Summit
Los ataques de "phishing" dirigidos contra instituciones financieras constituyen una creciente y peligrosa amenaza. Cada año, las instituciones deben dedicar grandes sumas de dinero a la detección, prevención y mitigación de estos ataques. En esta presentación explicaremos cómo usando la URLs de una página web es posible estimar si el sitio está siendo usado para phishing. En particular, compararemos el modelo tradicional de ingeniería de variables y random forest, versus un método moderno de redes neuronales recurrentes (LSTM). Los resultados mostraran como el método de redes neuronales tiene un poder predictivo mayor al 98% sin la necesidad de crear manualmente variables, ganandole por 5% al random forest.
Bienvenido al mundo real de la teoría organizacional. La suerte cambiante de Xerox
muestra la teoría organizacional en acción. Los directivos de Xerox estaban muy involucrados en la teoría organizacional cada día de su vida laboral; pero muchos nunca se
dieron cuenta de ello. Los gerentes de la empresa no entendían muy bien la manera en que
la organización se relacionaba con el entorno o cómo debía funcionar internamente. Los
conceptos de la teoría organizacional han ayudado a que Anne Mulcahy y Úrsula analicen
y diagnostiquen lo que sucede, así como los cambios necesarios para que la empresa siga
siendo competitiva. La teoría organizacional proporciona las herramientas para explicar
el declive de Xerox, entender la transformación realizada por Mulcahy y reconocer algunos pasos que Burns pudo tomar para mantener a Xerox competitiva.
Numerosas organizaciones han enfrentado problemas similares. Los directivos de
American Airlines, por ejemplo, que una vez fue la aerolínea más grande de Estados
Unidos, han estado luchando durante los últimos diez años para encontrar la fórmula
adecuada para mantener a la empresa una vez más orgullosa y competitiva. La compañía
matriz de American, AMR Corporation, acumuló $11.6 mil millones en pérdidas de 2001
a 2011 y no ha tenido un año rentable desde 2007.2
O considere los errores organizacionales dramáticos ilustrados por la crisis de 2008 en el sector de la industria hipotecaria
y de las finanzas en los Estados Unidos. Bear Stearns desapareció y Lehman Brothers se
declaró en quiebra. American International Group (AIG) buscó un rescate del gobierno
estadounidense. Otro icono, Merrill Lynch, fue salvado por formar parte de Bank of
America, que ya le había arrebatado al prestamista hipotecario Countrywide Financial
Corporation.3
La crisis de 2008 en el sector financiero de Estados Unidos representó un
cambio y una incertidumbre en una escala sin precedentes, y hasta cierto grado, afectó a
los gerentes en todo tipo de organizaciones e industrias del mundo en los años venideros.
Mario Mendoza Marichal — Un Líder con Maestría en Políticas Públicas por ...Mario Mendoza Marichal
Mario Mendoza Marichal: Un Líder con Maestría en Políticas Públicas por la Universidad de Chicago
Mario Mendoza Marichal es un profesional destacado en el ámbito de las políticas públicas, con una sólida formación académica y una amplia trayectoria en los sectores público y privado.
El-Codigo-De-La-Abundancia para todos.pdfAshliMack
Si quieres alcanzar tus sueños y tener el estilo de vida que deseas, es primordial que te comprometas contigo mismo y realices todos los ejercicios que te propongo para recibieron lo que mereces, incluso algunos milagros que no tenías en mente
Modelo Operativo para grandes proyectos de AI - Ignacio Marrero
1. BIG DATA
Agosto 24 y 25 | Lima – Perú 2018
ANALYTICS SUMMIT
#BIGDATASUMMIT2018
2. Hola!
Soy Ignacio Julio Marrero Hervás
• Mis orígenes son la Física Experimental, concretamente la Astrofísica
• Ingeniería de software desde hace mas de 20 años
• En los últimos 8 años nuevas arquitecturas de datos basadas en tecnología Big Data.
• 5 años en los ecosistemas de innovación y emprendimiento donde cree una startup en
Big Data & Analytics
• Actualmente en Accenture como manager y arquitecto Big Data y de soluciones
analíticas
• En este último año estoy liderando el área de Inteligencia Artificial en Digital Delivery
Me puedes encontrar como
i.marrero.hervas@Accenture.com
3. Modelo Operativo para Grandes
Proyectos de AI
La implantación de técnicas de Inteligencia Artificial puede
tener un impacto diferencial en la transformación digital
de las compañías. El retorno a la inversión depende de la
capacidad de la organización para implantar y gestionar
de forma eficiente la iniciativa.
El gobierno de los proyectos y arquitecturas relacionados
con la inteligencia artificial es clave para implantar
procesos de mejora continua que permitan gestionar la
expectativas de los actores implicados, detectar las
desviaciones y facilitar las correcciones
En esta ponencia se presenta un modelo operativo y de
gobierno para proyectos de Inteligencia Artificial que
permite implantar procesos de mejora continua. Este
modelo operativo está basado en metodologías ágiles y
soportado por una arquitectura de desarrollo y operación
en el ámbito de la entrega continua e integración continua
4. Índice
Visión IA, RPA & Big Data
Arquitectura de Referencia para IA
Importancia de la Organización
Metodología para la Definición del Modelo Operativo
Modelo Operativo
Centro de Excelencia