En esta sesión veremos mejores prácticas para cargas de datos a ser utilizados en ETLs de alto volumen, veremos técnicas de carga y configuración de la base de datos, uso de particiones, compresión, indexes columnstore y más. Esta receta estará cargada de buenas demos, todas aprobadas por la abuela desde épocas que datan antes del windows 3.1!
Principios de diseño para procesos de ETLSpanishPASSVC
Aun cuando SSIS es una tecnología robusta para ETL, los procesos de integración de datos son las causa más frecuente por los que los proyectos fracasan. En muchos casos esto se debe a la falta de planeamiento y el uso de cuestionables técnicas de diseño. En esta charla vamos a evaluar los procesos de ETL de una manera general para luego identificar áreas claves que muchas veces son dejadas al azar, y que en un momento determinado pudiesen comprometer la estabilidad del sistema e incrementar su costo de operación.
Principios de diseño para procesos de ETLSpanishPASSVC
Aun cuando SSIS es una tecnología robusta para ETL, los procesos de integración de datos son las causa más frecuente por los que los proyectos fracasan. En muchos casos esto se debe a la falta de planeamiento y el uso de cuestionables técnicas de diseño. En esta charla vamos a evaluar los procesos de ETL de una manera general para luego identificar áreas claves que muchas veces son dejadas al azar, y que en un momento determinado pudiesen comprometer la estabilidad del sistema e incrementar su costo de operación.
Cuadros de mando el todo es más que la suma de las partesSpanishPASSVC
No es suficiente con hacer tablas, gráficos y/o indicadores de forma individual. Debemos pensar en agregar valor a la visualización y el análisis con un conjunto de estos elementos que se complementen entre sí para enriquecer las respuestas. En esta sesión veremos diversas técnicas de visualización para mejorar los cuadros de mando, incluso algunas de ellas también se pueden aplicar sobre informes. Veremos también diversos ejemplos, en algunos de ellos partiremos de una mala solución que iremos comentando y mejorando.
Descubriendo el corazón de la optimización “Estadísticas más que un concepto”SpanishPASSVC
Las estadísticas son la base para calcular los registros en un query y permite a Sql Server calcular y solicitar recursos necesarios para el mejor procesamiento. En eta sesión vamos a explicar que son, como funcionan y cómo influyen en la ejecución de consultas.
Power BI es un servicio en la nube para el manejo de datos y una moderna solución de reportes accesible en todas las plataformas, pero ¿realmente cómo funciona? No importa cuán simple sea su gestión de datos, para tomar ventaja de este servicio deberá diseñar y administrar algunos de sus componentes. En esta sesión aprenderemos de las diferencias entre versiones, seguridad, colaboración y estrategias para refrescar la data tanto en escenarios de uso personal como empresariales.
Vista 360 grados de DataZen - Juan AlvaradoSpanishPASSVC
En esta charla se vera un vistazo general a DataZen, sus componentes a nivel servidor y cliente, tambien se vera la forma en que se desarrolla en proyectos de inteligencia de negocios con datazen.
En esta sesión analizaremos experiencias de la vida real como consultor en trabajos de mejora de rendimiento. Veremos mejores prácticas para la configuración de SQL Server, tips para un mejor T-SQL y un ejercicio de como monitorear mi servidor de base de datos con Performance Counters, un SQL Server Express y un Excel con Power Pivot.
SQL Server 2016 Strech Database desde cada ángulo - Kenneth UreñaSpanishPASSVC
En esta sesión vamos a ver como configurar la nueva funcionalidad de SQL Server 2016 Strech Databases, y los beneficios que podemos obtener de ella en nuestra estrategia de alta disponibilidad
Visualización. mejorando las respuestas a las preguntas de negocioSpanishPASSVC
En esta sesión veremos múltiples ejemplos concretos de respuestas de negocio. En cada una de ellas se estudiarán diversas formas de mostrar la información (tablas, diversos tipos de gráficos, colores), pros y contras de cada una de ellas; partiendo de una mala solución que se irá comentando y mejorando, mediante técnicas y herramientas de visualización, hasta convertirla en una buena respuesta.
La guerra de los proveedores de servicios de computo en la nube continua y esto incluye servicios de bases de datos. Estos servicios proveen una plataforma donde las tareas de administracion son menores a cambio de menos control sobre la plataforma. En esta sesion haremos una comparacion entre las dos plataformas mas populares para SQL Server: Amazon RDS y Azure SQL DB y veremos cuales son las fortalezas y debilidades de cada una.
En esta sesión aprenderemos sobre la nueva característica Query Store, que consiste en almacenar información de rendimiento para su posterior análisis de comportamiento y mejorar el performace de una base de datos.
Automatizando la generación de Datawarehouses a través de metadatosSpanishPASSVC
Nos enfrentamos cada vez a retos mas difíciles y complejos en la creación de Datawarehouses con SQL Server. Esto nos hace pensar en como quitarnos el trabajo superfluo, el que no aporta valor de negocio para centrar nuestras energías en resolver las cuestiones propias del negocio. La charla explorará alguna de las posibilidades de automatización de creación de procesos ETL. Para ello hablaremos de BIML, SSIS, JSON y metadatos.
Sincronizando Azure Search con SQL ServerSpanishPASSVC
En esta sesión vamos a tener la oportunidad de conocer cómo integrar las características de Azure Search con un SQL Server On-Premise con el fin de aprovechar las capacidades de este nuevo servicio.
Procesando XML de estruturas complejas con SSISSpanishPASSVC
En esta sesión vamos aprender como procesar y manejar la carga de XML con estructuras complejas, los cuales dentro del mismo XML contienen información que va a diferentes tablas en la misma base de datos o a diferentes bases de datos.
Prácticas recomendadas para SQL Server en Microsoft AzureSpanishPASSVC
La configuración de máquinas virtuales con SQL Server en Microsoft Azure requiere tener presentes ciertos aspectos para que su desempeño sea adecuado con el escenario y además, una serie de configuraciones y prácticas recomendadas para su gestión y su operación. En esta sesión veremos algunas de éstas y cómo tener en cuenta características de este IaaS para que SQL Server se comporte de manera óptima.
El término “Data Science” se ha vuelto muy popular recientemente con el aumento de popularidad de las redes sociales, análisis predictivos y el análisis de datos no estructurados como parte del crecimiento del “Big Data”. En esta sesión estaremos viendo que es “Data Science”, que necesitamos saber o aprender para poder convertirnos en un científico de datos y estaremos viendo algunos ejemplos de usos muy comunes usando lenguajes como Python, R y el cómo podemos integrar estos en SQL Server y Azure . Al final de esta charla tendrás un entendimiento más amplio de las técnicas de manejos de datos, modelamiento, visualización y los lenguajes y productos para poner tus proyectos en marcha.
En esta sesión revisamos las nuevas mejoras y funcionalidades que estarán implementadas en la siguiente versión de SQL Server principalmente en Seguridad, Rendimiento y Alta Disponibilidad
Visualizando la actividad de la instancia Deadlocks y errores de SQL utilizando Extended Events SQL Performance Dashboard Missing Indexes desde el query plan Performance Point – Sistema de Captura , Análisis y Alertas
El Aprendizaje Automático (AA), conocido en inglés como Machine Learning, es una rama de la Inteligencia Artificial en la cual su principal objetivo es desarrollar técnicas que permitan a las computadoras aprender, es decir, se considera como un proceso de inducción del conocimiento. Dentro de las aplicaciones de aprendizaje automático están diversas aplicaciones de negocio como motores de búsqueda, diagnósticos médicos, detección de fraude en el uso de tarjetas de crédito, análisis del mercado de valores, clasificación de secuencias de ADN, reconocimiento del habla entre otros. En esta sesión presentaremos alguno de los conceptos fundamentales del AA y mostraremos cómo crear este tipo de soluciones usando Azure Machine Learning, el nuevo servicio de Azure completamente administrado en la nube y que puede ser integrado en nuestras aplicaciones tradicionales de negocio.
FUNDAMENTALS: Copias de seguridad y registro de transacciones SolidQ
En esta sesión analizaremos las copias de seguridad (backups) y el funcionamiento del log de transacciones. Veremos que para definir correctamente nuestra política de backups y dimensionar correctamente nuestro log de transacciones necesitaremos conocer los modelos de recuperación disponibles en SQL Server debido a la estrecha relación existente entre estos, el log de transacciones y la política de backups apropiada.
Cuadros de mando el todo es más que la suma de las partesSpanishPASSVC
No es suficiente con hacer tablas, gráficos y/o indicadores de forma individual. Debemos pensar en agregar valor a la visualización y el análisis con un conjunto de estos elementos que se complementen entre sí para enriquecer las respuestas. En esta sesión veremos diversas técnicas de visualización para mejorar los cuadros de mando, incluso algunas de ellas también se pueden aplicar sobre informes. Veremos también diversos ejemplos, en algunos de ellos partiremos de una mala solución que iremos comentando y mejorando.
Descubriendo el corazón de la optimización “Estadísticas más que un concepto”SpanishPASSVC
Las estadísticas son la base para calcular los registros en un query y permite a Sql Server calcular y solicitar recursos necesarios para el mejor procesamiento. En eta sesión vamos a explicar que son, como funcionan y cómo influyen en la ejecución de consultas.
Power BI es un servicio en la nube para el manejo de datos y una moderna solución de reportes accesible en todas las plataformas, pero ¿realmente cómo funciona? No importa cuán simple sea su gestión de datos, para tomar ventaja de este servicio deberá diseñar y administrar algunos de sus componentes. En esta sesión aprenderemos de las diferencias entre versiones, seguridad, colaboración y estrategias para refrescar la data tanto en escenarios de uso personal como empresariales.
Vista 360 grados de DataZen - Juan AlvaradoSpanishPASSVC
En esta charla se vera un vistazo general a DataZen, sus componentes a nivel servidor y cliente, tambien se vera la forma en que se desarrolla en proyectos de inteligencia de negocios con datazen.
En esta sesión analizaremos experiencias de la vida real como consultor en trabajos de mejora de rendimiento. Veremos mejores prácticas para la configuración de SQL Server, tips para un mejor T-SQL y un ejercicio de como monitorear mi servidor de base de datos con Performance Counters, un SQL Server Express y un Excel con Power Pivot.
SQL Server 2016 Strech Database desde cada ángulo - Kenneth UreñaSpanishPASSVC
En esta sesión vamos a ver como configurar la nueva funcionalidad de SQL Server 2016 Strech Databases, y los beneficios que podemos obtener de ella en nuestra estrategia de alta disponibilidad
Visualización. mejorando las respuestas a las preguntas de negocioSpanishPASSVC
En esta sesión veremos múltiples ejemplos concretos de respuestas de negocio. En cada una de ellas se estudiarán diversas formas de mostrar la información (tablas, diversos tipos de gráficos, colores), pros y contras de cada una de ellas; partiendo de una mala solución que se irá comentando y mejorando, mediante técnicas y herramientas de visualización, hasta convertirla en una buena respuesta.
La guerra de los proveedores de servicios de computo en la nube continua y esto incluye servicios de bases de datos. Estos servicios proveen una plataforma donde las tareas de administracion son menores a cambio de menos control sobre la plataforma. En esta sesion haremos una comparacion entre las dos plataformas mas populares para SQL Server: Amazon RDS y Azure SQL DB y veremos cuales son las fortalezas y debilidades de cada una.
En esta sesión aprenderemos sobre la nueva característica Query Store, que consiste en almacenar información de rendimiento para su posterior análisis de comportamiento y mejorar el performace de una base de datos.
Automatizando la generación de Datawarehouses a través de metadatosSpanishPASSVC
Nos enfrentamos cada vez a retos mas difíciles y complejos en la creación de Datawarehouses con SQL Server. Esto nos hace pensar en como quitarnos el trabajo superfluo, el que no aporta valor de negocio para centrar nuestras energías en resolver las cuestiones propias del negocio. La charla explorará alguna de las posibilidades de automatización de creación de procesos ETL. Para ello hablaremos de BIML, SSIS, JSON y metadatos.
Sincronizando Azure Search con SQL ServerSpanishPASSVC
En esta sesión vamos a tener la oportunidad de conocer cómo integrar las características de Azure Search con un SQL Server On-Premise con el fin de aprovechar las capacidades de este nuevo servicio.
Procesando XML de estruturas complejas con SSISSpanishPASSVC
En esta sesión vamos aprender como procesar y manejar la carga de XML con estructuras complejas, los cuales dentro del mismo XML contienen información que va a diferentes tablas en la misma base de datos o a diferentes bases de datos.
Prácticas recomendadas para SQL Server en Microsoft AzureSpanishPASSVC
La configuración de máquinas virtuales con SQL Server en Microsoft Azure requiere tener presentes ciertos aspectos para que su desempeño sea adecuado con el escenario y además, una serie de configuraciones y prácticas recomendadas para su gestión y su operación. En esta sesión veremos algunas de éstas y cómo tener en cuenta características de este IaaS para que SQL Server se comporte de manera óptima.
El término “Data Science” se ha vuelto muy popular recientemente con el aumento de popularidad de las redes sociales, análisis predictivos y el análisis de datos no estructurados como parte del crecimiento del “Big Data”. En esta sesión estaremos viendo que es “Data Science”, que necesitamos saber o aprender para poder convertirnos en un científico de datos y estaremos viendo algunos ejemplos de usos muy comunes usando lenguajes como Python, R y el cómo podemos integrar estos en SQL Server y Azure . Al final de esta charla tendrás un entendimiento más amplio de las técnicas de manejos de datos, modelamiento, visualización y los lenguajes y productos para poner tus proyectos en marcha.
En esta sesión revisamos las nuevas mejoras y funcionalidades que estarán implementadas en la siguiente versión de SQL Server principalmente en Seguridad, Rendimiento y Alta Disponibilidad
Visualizando la actividad de la instancia Deadlocks y errores de SQL utilizando Extended Events SQL Performance Dashboard Missing Indexes desde el query plan Performance Point – Sistema de Captura , Análisis y Alertas
El Aprendizaje Automático (AA), conocido en inglés como Machine Learning, es una rama de la Inteligencia Artificial en la cual su principal objetivo es desarrollar técnicas que permitan a las computadoras aprender, es decir, se considera como un proceso de inducción del conocimiento. Dentro de las aplicaciones de aprendizaje automático están diversas aplicaciones de negocio como motores de búsqueda, diagnósticos médicos, detección de fraude en el uso de tarjetas de crédito, análisis del mercado de valores, clasificación de secuencias de ADN, reconocimiento del habla entre otros. En esta sesión presentaremos alguno de los conceptos fundamentales del AA y mostraremos cómo crear este tipo de soluciones usando Azure Machine Learning, el nuevo servicio de Azure completamente administrado en la nube y que puede ser integrado en nuestras aplicaciones tradicionales de negocio.
FUNDAMENTALS: Copias de seguridad y registro de transacciones SolidQ
En esta sesión analizaremos las copias de seguridad (backups) y el funcionamiento del log de transacciones. Veremos que para definir correctamente nuestra política de backups y dimensionar correctamente nuestro log de transacciones necesitaremos conocer los modelos de recuperación disponibles en SQL Server debido a la estrecha relación existente entre estos, el log de transacciones y la política de backups apropiada.
24 HOP Español - Utilizando cdc para cargar dw on line - Miguel EgeaSpanishPASSVC
Acercarnos al tiempo real en la carga completa de datos cuando ha de existir un DW o incluso un área de staging es un proceso que todos tenemos que implementar en ciertas ocasiones. En la charla veremos los trucos y patrones que pueden usarse para conseguir este objetivo
En esta presentación vemos un resumen delas nuevas caracterisitcas que tiene SQL Server 2016.
Saludos,
Ing. Eduardo Castro, PhD
Microsoft SQL Server MVP
Costa Rica
Técnicas para optimizar tus aplicaciones de SQL Server con herramientas disponibles desde SQL Server 2005. Charla de la maratón de 24 horas del capítulo virtual de SQL Pass en español.
MySQL Cluster: El ‘qué’ y el ‘cómo’.
Una introducción en Español a MySQL Cluster, tanto Community como Carrier Grade Edition.
Con ejemplos técnicos de como instalar y sacar el mayor provecho de tu MySQL Cluster.
Se trata de una introducción, donde no se entra en cuestiones de asignación de cores a cada componente, réplica geográfica, resolución de conflictos 'built-in', réplicas de NDB (Cluster) a InnoDB, etc.
Piezas básicas de la arquitectura Oracle, y cómo interaccionan entre ellas cuando se ejecutan las sentencias SQL, de modo que se entiendan las cuestiones básicas que afectan al rendimiento de una Base de Datos Oracle
En SolidQ tenemos mucha experiencia en alta disponibilidad, y eso incluye database mirroring y AlwaysOn. Tanto si tienes implementada cualquiera de estas tecnologías como si estás pensando en hacerlo, te interesa esta sesión en la que hablaremos no tanto de cómo implementarlo, sino de qué problemas podemos encontrarnos con ellos funcionando así como cómo resolverlos. La idea es que salgas de aquí con la seguridad de como de robusta es esta tecnología y si realmente cubre tus necesidades.
Similar a La receta de la abuela para mejores cargas de datos (20)
Creación de un modelo de análisis predictivo en la nubeSpanishPASSVC
Microsoft Azure ofrece una solución de análisis predictivo 100% Cloud, donde es posible realizar el proceso analítico de búsqueda de patrones en los datos, y a la vez la explotación de estos modelos en un ambiente de producción altamente disponible y escalable como lo es Microsoft Azure.
Analizando la performance del subsistema de IOSpanishPASSVC
Analizaremos el subsistema de I/O para detectar los posibles cuellos de botella. Para llevar a cabo esto utilizaremos distintas técnicas y herramientas
Mejoras de Rendimiento para Replicación TransaccionalSpanishPASSVC
A pesar de ser una tecnología sin mayores cambios en las últimas versiones del producto de SQL Server, muchos clientes siguen utilizando esta herramienta en sus ambientes productivos, en esta sesión veremos los problemas más comunes relacionados con rendimiento , como identificarlos y sus posibles soluciones.
Todo el mundo que trabaja con base de datos siempre se ha preguntado alguna vez qué son los planes de ejecución y como se leen. Saber leer un plan de ejecución nos va a dar información valiosísima de cara a mejorar el rendimiento de una consulta. En esta sesión vamos a centrarnos en aprender a leer T-SQL para interpretar lo que está haciendo SQL Server para devolvernos la información.
VMs de alto rendimiento para SQL Server en AWS y AzureSpanishPASSVC
Primero todo era puro metal, luego la virtualizacion inicio la revolucion. Ahora la nube va a cambiar el data center de nuevo con su rapidez de provicionamiento y ofrecimiento de recursos bajo demanda. Pero como eligimos las mejores opciones para maquinas virtuales de SQL en estos proveedores de nube? Venga y aprenda sobre las mejores configuraciones, tips y lecciones aprendidas de clientes que han movido sus SQL Servers de alto rendimiento a la nube.
En esta charla estaremos demostrando Tecnicas avanzadas de Monitoreo tales como
- Analizando la actividad de SQL Server
- Utilizando Extended events para realizar monitoreo en SQL Server
- monitoreo proactivo
- Auditoria Utilizando Service Broker
Planeando e implementando servicios de datos con Microsoft AzureSpanishPASSVC
Analizaremos las diferencias entre bases de datos SQL Server on premise y Azure SQL Database. Como implementar SQL Azure Database, como migrar, monitorear y mantener la continuidad operativa con Self Service Restore y Geo Replicación.
Mejores prácticas para SQL Server en ambientes virtualizadosSpanishPASSVC
Recomendaciones sobre configuraciones en Máquinas Virtuales, Almacenamiento, Redes y otros components al ejecutar SQL-Server en ambientes Virtualizados como Hyper-V y Windows Azure con ejemplos prácticos.
Al empezar a hablar de ciencia de datos se vuelven comunes las palabras minería de datos y machine learning. En esta sesión se presentarán las capacidades de minería de datos en SQL Server y las posibilidades que nos ofrece Azure Machine Learning.
Conociendo los servicios adicionales en big dataSpanishPASSVC
Todos han empezado a usar y a conocer Hadoop y HDInsight, en parte los lenguajes usados para su consumo, pero poco se hablado de los servicios complementarios que pueden enriquecer la experiencia BigData, conozca estos servicios y su aplicación.
(PROYECTO) Límites entre el Arte, los Medios de Comunicación y la Informáticavazquezgarciajesusma
En este proyecto de investigación nos adentraremos en el fascinante mundo de la intersección entre el arte y los medios de comunicación en el campo de la informática.
La rápida evolución de la tecnología ha llevado a una fusión cada vez más estrecha entre el arte y los medios digitales, generando nuevas formas de expresión y comunicación.
Continuando con el desarrollo de nuestro proyecto haremos uso del método inductivo porque organizamos nuestra investigación a la particular a lo general. El diseño metodológico del trabajo es no experimental y transversal ya que no existe manipulación deliberada de las variables ni de la situación, si no que se observa los fundamental y como se dan en su contestó natural para después analizarlos.
El diseño es transversal porque los datos se recolectan en un solo momento y su propósito es describir variables y analizar su interrelación, solo se desea saber la incidencia y el valor de uno o más variables, el diseño será descriptivo porque se requiere establecer relación entre dos o más de estás.
Mediante una encuesta recopilamos la información de este proyecto los alumnos tengan conocimiento de la evolución del arte y los medios de comunicación en la información y su importancia para la institución.
(PROYECTO) Límites entre el Arte, los Medios de Comunicación y la Informáticavazquezgarciajesusma
En este proyecto de investigación nos adentraremos en el fascinante mundo de la intersección entre el arte y los medios de comunicación en el campo de la informática.
La rápida evolución de la tecnología ha llevado a una fusión cada vez más estrecha entre el arte y los medios digitales, generando nuevas formas de expresión y comunicación.
Continuando con el desarrollo de nuestro proyecto haremos uso del método inductivo porque organizamos nuestra investigación a la particular a lo general. El diseño metodológico del trabajo es no experimental y transversal ya que no existe manipulación deliberada de las variables ni de la situación, si no que se observa los fundamental y como se dan en su contestó natural para después analizarlos.
El diseño es transversal porque los datos se recolectan en un solo momento y su propósito es describir variables y analizar su interrelación, solo se desea saber la incidencia y el valor de uno o más variables, el diseño será descriptivo porque se requiere establecer relación entre dos o más de estás.
Mediante una encuesta recopilamos la información de este proyecto los alumnos tengan conocimiento de la evolución del arte y los medios de comunicación en la información y su importancia para la institución.
Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital, siendo este un componente electrónico, por tanto se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos.
Las lámparas de alta intensidad de descarga o lámparas de descarga de alta in...espinozaernesto427
Las lámparas de alta intensidad de descarga o lámparas de descarga de alta intensidad son un tipo de lámpara eléctrica de descarga de gas que produce luz por medio de un arco eléctrico entre electrodos de tungsteno alojados dentro de un tubo de alúmina o cuarzo moldeado translúcido o transparente.
lámparas más eficientes del mercado, debido a su menor consumo y por la cantidad de luz que emiten. Adquieren una vida útil de hasta 50.000 horas y no generan calor alguna. Si quieres cambiar la iluminación de tu hogar para hacerla mucho más eficiente, ¡esta es tu mejor opción!
Las nuevas lámparas de descarga de alta intensidad producen más luz visible por unidad de energía eléctrica consumida que las lámparas fluorescentes e incandescentes, ya que una mayor proporción de su radiación es luz visible, en contraste con la infrarroja. Sin embargo, la salida de lúmenes de la iluminación HID puede deteriorarse hasta en un 70% durante 10,000 horas de funcionamiento.
Muchos vehículos modernos usan bombillas HID para los principales sistemas de iluminación, aunque algunas aplicaciones ahora están pasando de bombillas HID a tecnología LED y láser.1 Modelos de lámparas van desde las típicas lámparas de 35 a 100 W de los autos, a las de más de 15 kW que se utilizan en los proyectores de cines IMAX.
Esta tecnología HID no es nueva y fue demostrada por primera vez por Francis Hauksbee en 1705. Lámpara de Nernst.
Lámpara incandescente.
Lámpara de descarga. Lámpara fluorescente. Lámpara fluorescente compacta. Lámpara de haluro metálico. Lámpara de vapor de sodio. Lámpara de vapor de mercurio. Lámpara de neón. Lámpara de deuterio. Lámpara xenón.
Lámpara LED.
Lámpara de plasma.
Flash (fotografía) Las lámparas de descarga de alta intensidad (HID) son un tipo de lámparas de descarga de gas muy utilizadas en la industria de la iluminación. Estas lámparas producen luz creando un arco eléctrico entre dos electrodos a través de un gas ionizado. Las lámparas HID son conocidas por su gran eficacia a la hora de convertir la electricidad en luz y por su larga vida útil.
A diferencia de las luces fluorescentes, que necesitan un recubrimiento de fósforo para emitir luz visible, las lámparas HID no necesitan ningún recubrimiento en el interior de sus tubos. El propio arco eléctrico emite luz visible. Sin embargo, algunas lámparas de halogenuros metálicos y muchas lámparas de vapor de mercurio tienen un recubrimiento de fósforo en el interior de la bombilla para mejorar el espectro luminoso y reproducción cromática. Las lámparas HID están disponibles en varias potencias, que van desde los 25 vatios de las lámparas de halogenuros metálicos autobalastradas y los 35 vatios de las lámparas de vapor de sodio de alta intensidad hasta los 1.000 vatios de las lámparas de vapor de mercurio y vapor de sodio de alta intensidad, e incluso hasta los 1.500 vatios de las lámparas de halogenuros metálicos.
Las lámparas HID requieren un equipo de control especial llamado balasto para funcionar
3Redu: Responsabilidad, Resiliencia y Respetocdraco
¡Hola! Somos 3Redu, conformados por Juan Camilo y Cristian. Entendemos las dificultades que enfrentan muchos estudiantes al tratar de comprender conceptos matemáticos. Nuestro objetivo es brindar una solución inclusiva y accesible para todos.
Inteligencia Artificial y Ciberseguridad.pdfEmilio Casbas
Recopilación de los puntos más interesantes de diversas presentaciones, desde los visionarios conceptos de Alan Turing, pasando por la paradoja de Hans Moravec y la descripcion de Singularidad de Max Tegmark, hasta los innovadores avances de ChatGPT, y de cómo la IA está transformando la seguridad digital y protegiendo nuestras vidas.
TRABAJO DESARROLLO DE HABILIDADES DE PENSAMIENTO.pdf
La receta de la abuela para mejores cargas de datos
1. La receta de la abuela para
mejores cargas de datos
Alejandro Cordero
Database Consultant – Pythian Group
Correo electrónico: alejandro@sqlturbo.com
Twitter: @ale_corderocr
LinkedIn: https://cr.linkedin.com/in/alejandrocorderocr
BLOG: Sqlturbo.com
MCTS, CSM
3. 3
Agenda
El papel de los modelos de recuperación
Operaciones “Minimally logged”
TraceFlag 610
Importando con SSIS
Importando con BCP
Importando con Bulk Insert
Importando con Select Into / Insert .. Select
Conclusiones de la abuela
3
4. 4
Transacción Completa
4
1
3
write-ahead logging (WAL)
sincrónico
2
Transacción
Bitacora de transacciones
O transaction log
Archivo de datos
O Data file
Modelos de Recuperación
• Full – Se guardan todas las operaciones.
• Bulk-logged – Se guardan operaciones
excepto ciertas operaciones de carga de
alto rendimiento.
• Simple – Solo guarda información
temporalmente y son truncadas luego
de un checkpoint.
6. 6
Páginas y Extents de datos
Página de datos - 8 KB
Extent – unidad básica -8
páginas o 64kb
Las páginas pueden ser fully logged
O Minimally logged y en un Mixed extent
Esto puede pasar para una página que sea
De datos o de índices, significa que en un
Extent mixto puedo tener también un
Comportamiento Mixto, donde mis
Páginas de datos son Minimally logged
Pero las páginas de los índices son
Fully logged.
El mejor escenario es cuando
Logro que mis páginas de
Datos e índices sean
Minimally logged.
7. 7
Ingredientes para una carga de datos
-Pre requisitos para operaciones ML-
Base de datos en Simple/Bulk Load
La tabla no esta siendo replicada
La tabla es bloqueada por medio de un TABLOCK
Si la tabla no tiene índices, las paginas de datos son “Minimally logged”
Si la tabla no tiene índice Clustered y tiene índices Non Clustered las páginas
de datos son “Minimally logged”, sin embargo las páginas de los índices serán
ML solo si la tabla esta vacía
8. 8
Ingredientes para una carga de datos
-Pre requisitos para operaciones ML-
Si la tabla tiene un índice clustered y está vacía ambas paginas de índice y de
datos son Minimally logged. En contraste si la tabla no está vacía la operación
será Fully Logged
Mejores Prácticas Para conservar tamaño: Trate de
hacer varios bulk loads
en diferentes batches. Cada vez que termina un batch
El log puede ser limpiado por un transaction log backup
cuando se está en bulk-logged mode.
Péro
El primer batch será Minimally logged…..los demás serán
Mixtos o Full.
9. 9
Traceflag 610 – el Ingrediente secreto
Cuando se usa este traceflag se habilita la posibilidad
De hacer operaciones minimally logged
Sobre índices B-tree, los árboles B, son el algoritmo usado por SQL Server en sus índices.
De esta forma podrémos tener operaciones ML sobre Índices clustered llenos . Con ciertas
excepciones. Solo cuando el dato se guarda sobre una página nueva y no dentro de una
existente, este va a ser ML.
non-FULL recovery model
AND NOT replicated
AND (
(Heap AND TABLOCK)
OR (B-tree AND empty AND TABLOCK)
OR (B-tree AND empty AND TF-610)
OR (B-tree AND nonempty AND TF-610 AND NEW key-range)
Mejores Prácticas : cuando se usa el t610
Usar el batchsize más grande posible
DBCC TRACEON (610, -1);
11. 11
Cuando se hace una operación Minimally Logged
Table Indexes Rows in table Hints Without TF 610 With TF 610
Concurrent
possible
Heap Any TABLOCK Minimal Minimal Yes
Heap Any None Full Full Yes
Heap + Index Any TABLOCK Full Depends (3) No
Cluster Empty TABLOCK, ORDER
(1)
Minimal Minimal No
Cluster Empty None Full Minimal Yes (2)
Cluster Any None Full Minimal Yes (2)
Cluster Any TABLOCK Full Minimal No
Cluster + Index Any None Full Depends (3) Yes (2)
Cluster + Index Any TABLOCK Full Depends (3) No
12. 12
El plato Principal – la carga de datos
SSIS
BCP
BULK INSERT
SELECT INTO
INSERT SELECT
14. 14
Resumen
Functionality Integration Services BULK INSERT BCP INSERT … SELECT
SQL Dest. OLE DB Dest
Protocol Shared Memory TCP/IP
Named Pipes
In Memory TCP/IP
Shared Memory
Named Pipes
In Memory
Speed Faster / Fastest(4) Fast / Fastest (1) Fastest Fast Slow / Fastest (2)
Data Source Any Any Data File Only Data File Only Any OLE DB
Bulk API Support Not Native Not ORDER
Not Native
All All No Hints Allowed
Lock taken with
TABLOCK hint on
heap
BU BU BU BU X
Can transform in
transit
Yes Yes No No Yes
I/O Read block
Size
Depends(3) Depends(3) 64 kilobytes (KB) 64 KB Up to 512 KB
SQL Server
Version
2005 and 2008 2005 and 2008 7.0, 2000, 2005,
and 2008
6.0, 7.0, 2000,
2005, and 2008
2008
Invoked from DTEXEC / BIDS DTEXEC / BIDS Transact-SQL Command Line Transact-SQL
16. 16
Conclusiones
Usar Traceflag 610 – Pero, probar primero!
Usar SSIS o bulk Insert de preferencia
Tomar en cuenta espacio necesario para el crecimiento
Tomar en cuenta el modelo de recuperación
Tomar en cuenta CPU disponibles
Tomar en cuenta si tengo trasaction logs corriendo.