El resumen analiza los principios básicos del diseño experimental y el proceso de análisis de datos de microarrays. Explica que un buen diseño experimental sigue principios como la aleatorización, la replicación y el bloqueo para minimizar errores sistemáticos y maximizar la precisión. También describe los diferentes tipos de estudios de microarrays, como la comparación de clases y el descubrimiento de clases, así como las herramientas disponibles para el análisis.
Este documento describe los principios básicos del diseño de experimentos y análisis de varianza. Explica conceptos como variables dependientes e independientes, factores cualitativos y cuantitativos, y errores experimentales. También cubre temas como diseños completamente aleatorizados, supuestos del análisis de varianza, tablas y cuadros de análisis de varianza, y pruebas de hipótesis para determinar si hay diferencias significativas entre tratamientos.
Este documento describe el diseño experimental para un factor. Explica que el diseño experimental estudia el efecto de diferentes situaciones experimentales sobre ciertas respuestas cuantitativas sometidas a un único factor. Además, destaca que el diseño experimental fue creado por matemáticos y estadísticos y posee su propio lenguaje técnico.
Este documento presenta la información del autor y resume la primera unidad del curso sobre fundamentos e introducción al diseño de experimentos. También incluye las respuestas del estudiante a 12 preguntas orientadoras sobre conceptos clave como control local de errores, número de réplicas, diseños totalmente aleatorios y factoriales, tratamientos experimentales, unidades experimentales, tipos de diseños y criterios de agrupación.
Este documento describe un curso sobre tecnologías de alto rendimiento en genómica que se llevará a cabo del 28 de noviembre al 5 de diciembre. El curso cubrirá técnicas como microarrays, RT-qPCR, secuenciación masiva y análisis de resultados de estas técnicas. Los temas incluyen tipos de microarrays, cómo se fabrican, calidad y cantidad de RNA de partida, y procedimientos de microarrays.
El documento describe diferentes aplicaciones de las tecnologías de secuenciación masiva (NGS) como el estudio de cuasiespecies virales, estudios de metagenómica, secuenciación de genomas completos y RNAseq. Específicamente, se detalla cómo la NGS puede utilizarse para detectar variantes minoritarias en poblaciones virales y estudiar la diversidad microbiana en muestras ambientales sin necesidad de cultivo.
This document discusses real-time quantitative PCR (RT-qPCR) data analysis. It outlines topics including normalization, absolute and relative quantification methods, and data analysis pipelines. For normalization, it describes correcting for systematic variation between samples through methods like using housekeeping genes or internal calibrators. It also explains that absolute quantification uses a standard curve of known copy numbers, while relative quantification compares target and reference gene expression ratios, such as through the delta-delta Ct method. The document provides examples of calculating fold changes between samples or tissues.
Este documento presenta un resumen del seminario sobre la técnica de RTqPCR realizado en 2012. Describe las diferentes etapas de un experimento de RTqPCR, incluyendo la definición de la técnica, la terminología asociada, el flujo de trabajo con etapas como el diseño experimental, la preparación y extracción de muestras, la transcripción reversa, la reacción en cadena de la polimerasa cuantitativa y la validación y análisis de los resultados. El documento proporciona información fundamental sobre esta importante técnica de biolog
Este documento describe la tecnología de arrays de proteínas y su aplicación en el estudio de interacciones proteína-proteína. Se explica el flujo de trabajo de un ensayo con arrays de proteínas reversas utilizando la tecnología Zeptosens. También se detalla la optimización del servicio de arrays de proteínas en la Unidad de Análisis Traslacional mediante el uso de lisados celulares y anticuerpos validados.
Este documento describe los principios básicos del diseño de experimentos y análisis de varianza. Explica conceptos como variables dependientes e independientes, factores cualitativos y cuantitativos, y errores experimentales. También cubre temas como diseños completamente aleatorizados, supuestos del análisis de varianza, tablas y cuadros de análisis de varianza, y pruebas de hipótesis para determinar si hay diferencias significativas entre tratamientos.
Este documento describe el diseño experimental para un factor. Explica que el diseño experimental estudia el efecto de diferentes situaciones experimentales sobre ciertas respuestas cuantitativas sometidas a un único factor. Además, destaca que el diseño experimental fue creado por matemáticos y estadísticos y posee su propio lenguaje técnico.
Este documento presenta la información del autor y resume la primera unidad del curso sobre fundamentos e introducción al diseño de experimentos. También incluye las respuestas del estudiante a 12 preguntas orientadoras sobre conceptos clave como control local de errores, número de réplicas, diseños totalmente aleatorios y factoriales, tratamientos experimentales, unidades experimentales, tipos de diseños y criterios de agrupación.
Este documento describe un curso sobre tecnologías de alto rendimiento en genómica que se llevará a cabo del 28 de noviembre al 5 de diciembre. El curso cubrirá técnicas como microarrays, RT-qPCR, secuenciación masiva y análisis de resultados de estas técnicas. Los temas incluyen tipos de microarrays, cómo se fabrican, calidad y cantidad de RNA de partida, y procedimientos de microarrays.
El documento describe diferentes aplicaciones de las tecnologías de secuenciación masiva (NGS) como el estudio de cuasiespecies virales, estudios de metagenómica, secuenciación de genomas completos y RNAseq. Específicamente, se detalla cómo la NGS puede utilizarse para detectar variantes minoritarias en poblaciones virales y estudiar la diversidad microbiana en muestras ambientales sin necesidad de cultivo.
This document discusses real-time quantitative PCR (RT-qPCR) data analysis. It outlines topics including normalization, absolute and relative quantification methods, and data analysis pipelines. For normalization, it describes correcting for systematic variation between samples through methods like using housekeeping genes or internal calibrators. It also explains that absolute quantification uses a standard curve of known copy numbers, while relative quantification compares target and reference gene expression ratios, such as through the delta-delta Ct method. The document provides examples of calculating fold changes between samples or tissues.
Este documento presenta un resumen del seminario sobre la técnica de RTqPCR realizado en 2012. Describe las diferentes etapas de un experimento de RTqPCR, incluyendo la definición de la técnica, la terminología asociada, el flujo de trabajo con etapas como el diseño experimental, la preparación y extracción de muestras, la transcripción reversa, la reacción en cadena de la polimerasa cuantitativa y la validación y análisis de los resultados. El documento proporciona información fundamental sobre esta importante técnica de biolog
Este documento describe la tecnología de arrays de proteínas y su aplicación en el estudio de interacciones proteína-proteína. Se explica el flujo de trabajo de un ensayo con arrays de proteínas reversas utilizando la tecnología Zeptosens. También se detalla la optimización del servicio de arrays de proteínas en la Unidad de Análisis Traslacional mediante el uso de lisados celulares y anticuerpos validados.
Este documento describe un curso sobre tecnologías de secuenciación de nueva generación. El curso cubre las tecnologías 454 de Roche, comparaciones con otros sistemas de secuenciación masiva paralela, y aplicaciones como el estudio de quasiespecies virales, secuenciación de genomas de novo, metagenómica, RNA-seq, y análisis de exomas y mutaciones en leucemia mediante arrays de captura de secuencia. El curso también cubre el análisis de datos de secuenciación masiva paralela.
This document provides an introduction and overview of next-generation sequencing (NGS) data analysis. It discusses the bioinformatics challenges posed by large NGS datasets, including the need for powerful computing infrastructure and data storage. The document outlines common NGS data analysis workflows and applications, such as quality control, metagenomics, de novo assembly, amplicon analysis and variant detection. It also compares different NGS platforms and provides examples of software tools used in NGS data analysis.
How to cluster and sequence an ngs library (james hadfield160416)James Hadfield
A presentation for people intersted in understanding how Illumina adapter ligation, clustering ands SBS sequencing work. Follow core-genomics http://core-genomics.blogspot.co.uk/
This document discusses next generation sequencing technologies. It provides details on several massively parallel sequencing platforms and describes their advantages over traditional Sanger sequencing such as higher throughput, lower costs, and ability to process millions of reads in parallel. It then outlines several applications of next generation sequencing like mutation discovery, transcriptome analysis, metagenomics, epigenetics research and discovery of non-coding RNAs.
NGS technologies - platforms and applicationsAGRF_Ltd
This document summarizes several next-generation sequencing platforms and applications. It describes the workflows and chemistries of 454, Illumina, SOLiD, and Ion Torrent platforms. These platforms have significantly reduced the cost of sequencing compared to Sanger sequencing. Common applications include whole genome sequencing, RNA sequencing, sequence capture, and amplicon sequencing. Library preparation requires fragmentation of DNA or RNA, addition of adapters, and amplification prior to sequencing.
This document provides an overview of next generation sequencing (NGS) technologies. It discusses the history and evolution of DNA sequencing, from early manual methods developed by Sanger to modern high-throughput NGS approaches. Key NGS methods described include Illumina sequencing by synthesis, Ion Torrent semiconductor sequencing, 454 pyrosequencing, and SOLiD ligation sequencing. Compared to Sanger, NGS allows massively parallel sequencing of many samples at lower cost and higher throughput. While NGS has advanced biological research, each method still has advantages and limitations related to read length, accuracy, and cost.
This document provides an introduction to next generation sequencing (NGS) technologies. It begins with an outline of topics to be covered, including the evolution of NGS technologies, their descriptions and comparisons, bioinformatics challenges of NGS data analysis, and some aspects of NGS data analysis workflows and tools. The document then delves into explanations of specific NGS platforms, their performance characteristics, and the sequencing processes. It discusses the large computational infrastructure and data management needs of NGS, as well as quality control, preprocessing of NGS data, and popular analysis tools and workflows.
High throughput technologies in Genomics - Tecnologías de alto rendimiento en genómica.
Session 3: Statistical Analysis
Course held at Vall d'Hebron Research Institute (VHIR), in Barcelona, Catalonia, Spain, on October 5th, 2011.
Sesion 04 diseño de estudios experimentalesjhonrch
Este documento describe los diferentes tipos de estudios experimentales, incluyendo estudios aleatorizados controlados y estudios de intervención no aleatorizados. Explica por qué la aleatorización es importante para igualar los grupos y minimizar los sesgos. También cubre métodos como bloques permutados aleatorios y estratificación para mejorar la comparabilidad entre grupos. Finalmente, resalta la importancia de reportar los estudios de forma transparente usando listas de verificación como CONSORT y TREND.
Este documento describe revisiones sistemáticas y meta análisis. Una revisión sistemática revisa de manera organizada la literatura existente sobre un tema. Un meta análisis es un tipo de revisión sistemática que utiliza técnicas estadísticas para combinar los resultados de múltiples estudios. El documento discute los pasos, métodos y aplicaciones de revisiones sistemáticas y meta análisis, así como críticas y desafíos comunes como la heterogeneidad entre estudios.
Revisiones Sistematicas y Meta Analisissofia869865
Este documento describe revisiones sistemáticas y meta-análisis. Explica que las revisiones sistemáticas revisan de manera lógica y sistemática la literatura existente sobre un tema, mientras que los meta-análisis integran los resultados cuantitativos de estudios individuales. También discute conceptos estadísticos clave como heterogeneidad y medidas de efecto, así como pasos para realizar revisiones sistemáticas de manera rigurosa.
El documento describe los fundamentos y características de varios diseños experimentales comúnmente utilizados en investigación científica, incluyendo el diseño completamente aleatorio, el diseño de bloques al azar, el diseño de cuadro latino, el diseño factorial y el diseño de parcelas divididas. Cada diseño se ilustra con un ejemplo real de datos de campo. Finalmente, se discute la aplicación de estos diseños experimentales en la investigación científica.
El documento describe los fundamentos y características de varios diseños experimentales comúnmente utilizados en investigación científica, incluyendo el diseño completamente aleatorio, el diseño de bloques al azar, el diseño de cuadro latino, el diseño factorial y el diseño de parcelas divididas. Cada diseño se ilustra con un ejemplo real de datos de campo. Además, se discute la aplicación de los diseños experimentales para verificar hipótesis y establecer tendencias en la investigación científica.
El documento describe los fundamentos y características de varios diseños experimentales comúnmente utilizados en investigación científica, incluyendo el diseño completamente aleatorio, diseño de bloques al azar, diseño de cuadro latino, diseño factorial y diseños de parcelas divididas. Cada diseño experimental se ilustra con un ejemplo real de datos de campo. Finalmente, se discute la aplicación de los diseños experimentales en la investigación científica.
Este documento presenta los pasos de una revisión sistemática Cochrane y explora el concepto de heterogeneidad. Explica que la heterogeneidad puede ser clínica, metodológica o estadística y surge de la diversidad entre estudios. También describe los modelos de efectos fijos y aleatorios, y cómo identificar y explorar la heterogeneidad mediante gráficos, estadísticas como I2 y análisis de subgrupos. El objetivo es ayudar a los revisores a comprender y abordar adecuadamente la
Este documento describe los conceptos fundamentales de los metaanálisis y revisiones sistemáticas. Explica que un metaanálisis combina cuantitativamente los resultados de estudios independientes para sintetizar conclusiones sobre la eficacia de tratamientos. También describe los tipos de estudios que se analizan, los aspectos del diseño de un metaanálisis como la evaluación de heterogeneidad y la calidad de los estudios, y cómo se presentan y analizan los resultados.
Planificación y Análisis de Experimentos de Forma CorrectaXavi Barber
Este documento discute la planificación y análisis óptimos de experimentos. Explica la importancia de planificar cuidadosamente la pregunta de investigación, los métodos, la localización y el tamaño de muestra para garantizar la validez de los resultados. Además, destaca que más allá del análisis de varianza tradicional existen técnicas estadísticas más avanzadas como los modelos aditivos generalizados y el diseño bayesiano de experimentos.
Este documento presenta los conceptos básicos del análisis y diseño de experimentos. Explica que un experimento implica probar o medir el efecto de factores sobre una variable de respuesta. Luego describe los cuatro periodos históricos del diseño de experimentos, comenzando con su origen en la agricultura y evolucionando hacia aplicaciones industriales y de calidad. Finalmente, introduce los principios básicos como la aleatorización, replicación y bloqueo, y los tipos de diseños experimentales como los diseños completamente al azar y factoriales.
El documento describe la historia y principios fundamentales del diseño de experimentos. Explica que Sir Ronald Fisher desarrolló los principios básicos del diseño y análisis de experimentos en Rothamsted durante la década de 1920. También define el diseño de experimentos como una metodología estadística que ayuda a seleccionar la estrategia experimental óptima y evaluar los resultados de manera fiable.
Introducción al muestreo y al diseño de experimentos Jair H. Blanquet
El propósito de este tema es proporcionar una visión general sobre los aspectos involucrados en el diseño de experimentos y sobre los diseños más usuales
Los cuasiexperimentos son diseños de investigación experimentales en los que los sujetos no son asignados aleatoriamente a los grupos. Siguen la misma lógica que los experimentos aleatorios al comparar grupos de tratamiento y control, pero no requieren asignación aleatoria. Son más vulnerables a sesgos pero más factibles que los experimentos aleatorios cuando la aleatoriedad no es posible.
Este documento describe un curso sobre tecnologías de secuenciación de nueva generación. El curso cubre las tecnologías 454 de Roche, comparaciones con otros sistemas de secuenciación masiva paralela, y aplicaciones como el estudio de quasiespecies virales, secuenciación de genomas de novo, metagenómica, RNA-seq, y análisis de exomas y mutaciones en leucemia mediante arrays de captura de secuencia. El curso también cubre el análisis de datos de secuenciación masiva paralela.
This document provides an introduction and overview of next-generation sequencing (NGS) data analysis. It discusses the bioinformatics challenges posed by large NGS datasets, including the need for powerful computing infrastructure and data storage. The document outlines common NGS data analysis workflows and applications, such as quality control, metagenomics, de novo assembly, amplicon analysis and variant detection. It also compares different NGS platforms and provides examples of software tools used in NGS data analysis.
How to cluster and sequence an ngs library (james hadfield160416)James Hadfield
A presentation for people intersted in understanding how Illumina adapter ligation, clustering ands SBS sequencing work. Follow core-genomics http://core-genomics.blogspot.co.uk/
This document discusses next generation sequencing technologies. It provides details on several massively parallel sequencing platforms and describes their advantages over traditional Sanger sequencing such as higher throughput, lower costs, and ability to process millions of reads in parallel. It then outlines several applications of next generation sequencing like mutation discovery, transcriptome analysis, metagenomics, epigenetics research and discovery of non-coding RNAs.
NGS technologies - platforms and applicationsAGRF_Ltd
This document summarizes several next-generation sequencing platforms and applications. It describes the workflows and chemistries of 454, Illumina, SOLiD, and Ion Torrent platforms. These platforms have significantly reduced the cost of sequencing compared to Sanger sequencing. Common applications include whole genome sequencing, RNA sequencing, sequence capture, and amplicon sequencing. Library preparation requires fragmentation of DNA or RNA, addition of adapters, and amplification prior to sequencing.
This document provides an overview of next generation sequencing (NGS) technologies. It discusses the history and evolution of DNA sequencing, from early manual methods developed by Sanger to modern high-throughput NGS approaches. Key NGS methods described include Illumina sequencing by synthesis, Ion Torrent semiconductor sequencing, 454 pyrosequencing, and SOLiD ligation sequencing. Compared to Sanger, NGS allows massively parallel sequencing of many samples at lower cost and higher throughput. While NGS has advanced biological research, each method still has advantages and limitations related to read length, accuracy, and cost.
This document provides an introduction to next generation sequencing (NGS) technologies. It begins with an outline of topics to be covered, including the evolution of NGS technologies, their descriptions and comparisons, bioinformatics challenges of NGS data analysis, and some aspects of NGS data analysis workflows and tools. The document then delves into explanations of specific NGS platforms, their performance characteristics, and the sequencing processes. It discusses the large computational infrastructure and data management needs of NGS, as well as quality control, preprocessing of NGS data, and popular analysis tools and workflows.
High throughput technologies in Genomics - Tecnologías de alto rendimiento en genómica.
Session 3: Statistical Analysis
Course held at Vall d'Hebron Research Institute (VHIR), in Barcelona, Catalonia, Spain, on October 5th, 2011.
Sesion 04 diseño de estudios experimentalesjhonrch
Este documento describe los diferentes tipos de estudios experimentales, incluyendo estudios aleatorizados controlados y estudios de intervención no aleatorizados. Explica por qué la aleatorización es importante para igualar los grupos y minimizar los sesgos. También cubre métodos como bloques permutados aleatorios y estratificación para mejorar la comparabilidad entre grupos. Finalmente, resalta la importancia de reportar los estudios de forma transparente usando listas de verificación como CONSORT y TREND.
Este documento describe revisiones sistemáticas y meta análisis. Una revisión sistemática revisa de manera organizada la literatura existente sobre un tema. Un meta análisis es un tipo de revisión sistemática que utiliza técnicas estadísticas para combinar los resultados de múltiples estudios. El documento discute los pasos, métodos y aplicaciones de revisiones sistemáticas y meta análisis, así como críticas y desafíos comunes como la heterogeneidad entre estudios.
Revisiones Sistematicas y Meta Analisissofia869865
Este documento describe revisiones sistemáticas y meta-análisis. Explica que las revisiones sistemáticas revisan de manera lógica y sistemática la literatura existente sobre un tema, mientras que los meta-análisis integran los resultados cuantitativos de estudios individuales. También discute conceptos estadísticos clave como heterogeneidad y medidas de efecto, así como pasos para realizar revisiones sistemáticas de manera rigurosa.
El documento describe los fundamentos y características de varios diseños experimentales comúnmente utilizados en investigación científica, incluyendo el diseño completamente aleatorio, el diseño de bloques al azar, el diseño de cuadro latino, el diseño factorial y el diseño de parcelas divididas. Cada diseño se ilustra con un ejemplo real de datos de campo. Finalmente, se discute la aplicación de estos diseños experimentales en la investigación científica.
El documento describe los fundamentos y características de varios diseños experimentales comúnmente utilizados en investigación científica, incluyendo el diseño completamente aleatorio, el diseño de bloques al azar, el diseño de cuadro latino, el diseño factorial y el diseño de parcelas divididas. Cada diseño se ilustra con un ejemplo real de datos de campo. Además, se discute la aplicación de los diseños experimentales para verificar hipótesis y establecer tendencias en la investigación científica.
El documento describe los fundamentos y características de varios diseños experimentales comúnmente utilizados en investigación científica, incluyendo el diseño completamente aleatorio, diseño de bloques al azar, diseño de cuadro latino, diseño factorial y diseños de parcelas divididas. Cada diseño experimental se ilustra con un ejemplo real de datos de campo. Finalmente, se discute la aplicación de los diseños experimentales en la investigación científica.
Este documento presenta los pasos de una revisión sistemática Cochrane y explora el concepto de heterogeneidad. Explica que la heterogeneidad puede ser clínica, metodológica o estadística y surge de la diversidad entre estudios. También describe los modelos de efectos fijos y aleatorios, y cómo identificar y explorar la heterogeneidad mediante gráficos, estadísticas como I2 y análisis de subgrupos. El objetivo es ayudar a los revisores a comprender y abordar adecuadamente la
Este documento describe los conceptos fundamentales de los metaanálisis y revisiones sistemáticas. Explica que un metaanálisis combina cuantitativamente los resultados de estudios independientes para sintetizar conclusiones sobre la eficacia de tratamientos. También describe los tipos de estudios que se analizan, los aspectos del diseño de un metaanálisis como la evaluación de heterogeneidad y la calidad de los estudios, y cómo se presentan y analizan los resultados.
Planificación y Análisis de Experimentos de Forma CorrectaXavi Barber
Este documento discute la planificación y análisis óptimos de experimentos. Explica la importancia de planificar cuidadosamente la pregunta de investigación, los métodos, la localización y el tamaño de muestra para garantizar la validez de los resultados. Además, destaca que más allá del análisis de varianza tradicional existen técnicas estadísticas más avanzadas como los modelos aditivos generalizados y el diseño bayesiano de experimentos.
Este documento presenta los conceptos básicos del análisis y diseño de experimentos. Explica que un experimento implica probar o medir el efecto de factores sobre una variable de respuesta. Luego describe los cuatro periodos históricos del diseño de experimentos, comenzando con su origen en la agricultura y evolucionando hacia aplicaciones industriales y de calidad. Finalmente, introduce los principios básicos como la aleatorización, replicación y bloqueo, y los tipos de diseños experimentales como los diseños completamente al azar y factoriales.
El documento describe la historia y principios fundamentales del diseño de experimentos. Explica que Sir Ronald Fisher desarrolló los principios básicos del diseño y análisis de experimentos en Rothamsted durante la década de 1920. También define el diseño de experimentos como una metodología estadística que ayuda a seleccionar la estrategia experimental óptima y evaluar los resultados de manera fiable.
Introducción al muestreo y al diseño de experimentos Jair H. Blanquet
El propósito de este tema es proporcionar una visión general sobre los aspectos involucrados en el diseño de experimentos y sobre los diseños más usuales
Los cuasiexperimentos son diseños de investigación experimentales en los que los sujetos no son asignados aleatoriamente a los grupos. Siguen la misma lógica que los experimentos aleatorios al comparar grupos de tratamiento y control, pero no requieren asignación aleatoria. Son más vulnerables a sesgos pero más factibles que los experimentos aleatorios cuando la aleatoriedad no es posible.
Taller de iniciación a la investigación clínica. parte iiXavi Barber
Este documento presenta una introducción al diseño de experimentos. Explica que el diseño de experimentos ayuda a investigadores a descubrir y entender relaciones entre variables y alcanzar objetivos a pesar de errores experimentales. Detalla que existen diseños sistemáticos y aleatorizados, y que dentro de los aleatorizados hay diseños irrestrictos, de bloques, balanceados y parcialmente balanceados. También recomienda consideraciones clave para el diseño de experimentos como la selección de factores, niveles, variables de respuesta y el diseño experimental
Presentación de los principios y lógica d e la investigación cuantitativa y los principios que rigen al análisis estadísticos. Exposición básica orientada a docentes dedicados a la orientación de trabajos académicos.
1_principios básicos del diseño de experimentos (2).pptxHaroldOyarvide
1) El documento presenta los principios básicos del diseño de experimentos. 2) Explica el proceso general de investigación cuantitativa y cualitativa, así como la metodología general de la investigación cuantitativa. 3) Detalla diversos tipos de diseños experimentales y sus características.
Similar a Curso de Genómica - UAT (VHIR) 2012 - Análisis de datos de expression génica (20)
This document provides an introduction to metagenomics. It defines metagenomics as the study of microbial communities directly in their natural environments using modern genomics techniques. The document outlines the historical context and basic purpose of metagenomics. It describes some of the applications of metagenomics, such as understanding the human microbiome, bioremediation, bioenergy production, and smart farming. Finally, it introduces some basic concepts in metagenomics analysis including binning, OTUs, alpha and beta diversity measurements, and challenges around estimating diversity from samples.
Course: Bioinformatics for Biomedical Research (2014).
Session: 4.2- Introduction to Functional Analysis with IPA.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
Course: Bioinformatics for Biomedical Research (2014).
Session: 4.1- Introduction to RNA-seq and RNA-seq Data Analysis.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
Course: Bioinformatics for Biomedical Research (2014).
Session: 3.2- Basic Aspects of Microarray Technology and Data Analysis.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
Course: Bioinformatics for Biomedical Research (2014).
Session: 3.1- Brief Overview to Amplicon Variant Analysis.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
Course: Bioinformatics for Biomedical Research (2014).
Session: 2.3- Introduction to NGS Variant Calling Analysis.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
Course: Bioinformatics for Biomedical Research (2014).
Session: 2.2- Introduction to Galaxy. A web-based genome analysis platform.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
Course: Bioinformatics for Biomedical Research (2014).
Session: 2.1.3- Next Generation Sequencing. Technologies and Applications. Part III: NGS Applications II.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
Course: Bioinformatics for Biomedical Research (2014).
Session: 2.1.2- Next Generation Sequencing. Technologies and Applications. Part II: NGS Applications I.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
Course: Bioinformatics for Biomedical Research (2014).
Session: 2.1.1- Next Generation Sequencing. Technologies and Applications. Part I: NGS Introduction and Technology Overview.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
Course: Bioinformatics for Biomedical Research (2014).
Session: 1.2- Storing and Accessing Information. Databases and Queries.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
This document provides an introduction to bioinformatics. It defines bioinformatics as the interdisciplinary field that develops methods for storing, organizing, and analyzing vast amounts of biological data generated by new technologies. It discusses the explosive growth of genomic and protein data. It also describes the roles and skills of bioinformaticians, including knowledge of biology, computer science, and quantitative disciplines. Finally, it outlines where bioinformatics is typically conducted, such as specialized centers and universities, and how it is usually done through online and open source solutions.
Course: Bioinformatics for Biomedical Research (2014).
Session: 1.3- Genome Browsing, Genomic Data Mining and Genome Data Visualization with Ensembl, Biomart and IGV.
Statistics and Bioinformatisc Unit (UEB) & High Technology Unit (UAT) from Vall d'Hebron Research Institute (www.vhir.org), Barcelona.
1) The document discusses using the Tiki Wiki CMS system to manage information flows at the Statistics and Bioinformatics Unit at Vall d'Hebron Institut de Recerca.
2) Key features of Tiki that are highlighted include wiki pages, structures and permissions to manage documentation, trackers for databases, and calendars for planning. It also allows connecting R to the web through plugins.
3) Examples provided include using Tiki to create task trackers, study databases, and an interactive heatmap tool powered by R. The system allows automating workflows and sharing results in a customizable centralized system.
El documento describe las tecnologías de RT-qPCR. La RT-qPCR permite la cuantificación cualitativa y cuantitativa de ácidos nucleicos en tiempo real. La técnica implica la extracción de RNA, transcripción reversa a cDNA, y amplificación por PCR cuantitativa en tiempo real para medir los niveles de expresión génica. La RT-qPCR ofrece mayor sensibilidad y rango dinámico que otras técnicas como la PCR convencional.
High throughput technologies in Genomics - Tecnologías de alto rendimiento en genómica.
Session 1: Microarrays
Course held at Vall d'Hebron Research Institute (VHIR), in Barcelona, Catalonia, Spain, on October 5th, 2011.
Este documento resume una sesión de formación sobre el uso de herramientas bioinformáticas para la investigación biomédica. La sesión cubre BLAST y navegadores genómicos, explicando cómo BLAST busca homologías comparando secuencias contra bases de datos usando alineamientos y matrices de sustitución, y proporcionando criterios como E-values para evaluar los resultados. También presenta ejemplos de uso de BLAST en NCBI y navegadores genómicos como Ensembl, NCBI y UCSC.
4. Research
• Researcher’s first goal: understand a process,
(to understand, control, modify, reproduce … it)
• To reach this goal researchers perform studies.
• Experiments are a central part of many studies.
5. What characterizes an experiment?
1. The treatments to be used
2. The experimental units to be used
3. The way that treatments levels are assigned
to experimental units (or visa-versa):
The Experimental Design
4. The responses that are measured
6. How can we obtain a
good experimental design?
• Try to apply some good, general, relatively
overlapping rules
1. Rely on an Experimental Design checklist
2. Follow a good Experimental Design Process
3. Rely on basic principles of Experimental Design
Randomization, replication, local control
• But also
• Plan design and analysis at the same time
• Involve your favourite statistician from the beginning
(or before)
7. What characterizes a
good experimental design?
• It avoids systematic error – systematic error leads to
bias when estimating differences in responses
between (i.e., comparing) treatments
• It allows for precise estimation – achieves a
relatively small random error,
• It has broad validity
• the experimental units are a sample of the
population study
• The conclusions obtained on the sample can be
extrapolated to the population.
8. To obtain a good experimental design (1)
Plan the experiments (Checklist)
1. Define the objectives of the experiment
2. Identify all potential sources of variation
3. Select an appropriate Experimental Design.
4. Specify the experimental process
5. Conduct a pilot study
6. Specify the hypothesized model
7. Outline the analyses to be conducted
8. Estimate the required sample size using results
from the pilot study
9. Review your decisions in Steps 1 – 8 and make
necessary revisions
9. To obtain a good experimental design (2):
Follow the experimental design process
10. To obtain a good experimental design (3)
Follow Experimental Design Principles
11. The basic principles of
Experimental Design
• Good experimental designs share common
traits.
• Apart of wishful thinking there is general
agreement that relying on experimental
design principles yields good (if not best)
experimental designs.
• These are
• Randomization
• Replication
• Blocking or Local control
12. 1. Randomization
• Randomly assigning samples to groups to
eliminate unspecific disturbances
– Randomly assign individuals to treatments.
– Randomize order in which experiments are performed.
• Randomization required to
– Ensure validity of statistical procedures.
– Ensure that no preferential allocation of treatment to
experimental units is made
• E.g: Assign strongest treatment to patients in worse health state
– Ensure that the efects of confounding variables are
minimized
• Eg: Assign tretament to patients older than controls
13. Randomization software
• Saying “randomly assign…” is
sometimes easier to say than to do,
especially in complex designs.
• Some tools may help
– R, of course
– Research Randomizer
http://www.randomizer.org/
– Interactive Statistical Calculation pages
http://statpages.org/
(look por “Experimental design”)
14. 2. Replication
• There is general agreement about the need to apply each
treatment independently to several experimental units.
• Helps to establish reproducibility of results.
• Protects against eventual abnormal/unusual results.
• Provides a way to estimate the error variance in the absence of
systematic differences among experimental units. (This is important
because treatment differences are judged against this variance estimate.)
• Provides the capacity to increase the precision for estimates of
treatment means.
• By itself, does not guarantee valid estimates of experimental
error or treatment differences.
15. Replication precision and power
• The number of replications r is directly related
to the precision of the experiment
(*)
1/var(mean) = r/ σ2
• An efficient design has greater power to detect
differences between treatment effects.
• From (*) it follows that
– the greater r
– the smaller σ2
the greater the power attained by a design.
16. How many replications?
• Formulae for computing sample size given:
– effect size,
– significance level (P Error type I)
– power (1-P error type II)
can be derived for most common analyses.
• While the derivation is rough, the application
– is straightforward, especially if using calculators
– attention must be paid to application conditions.
17. Sample size calculators
• R: package power
– http://www.statmethods.net/stats/power.html
• Statistical calculators
– http://hedwig.mgh.harvard.edu/sample_size/size.html
– http://www.stat.uiowa.edu/~rlenth/Power/
• Interactive Statistical Calculation pages
http://statpages.org
(look for “Power and Sample Size”)
19. 3. Blocking
• Assume we wish to perform an experiment to
compare two treatments.
• The samples or their processing may not be
homogeneous: There are blocks
• Subjects: Male/Female
• Arrays produced in two lots (February, March)
• If there are systematic differences between blocks
the effects of interest (e.g. tretament) may be
confounded
• Observed differences are attributable to treatment effect or
to confounding factors?
• Local control or blocking is the way to minimize the
effect of existing (unavoidable?) blocks.
20. Local Control
• Group EUs so that the variability of units
within the groups is less than that among all
units prior to grouping
– Differences among treatments are not confused with
differences among experimental units.
– EE is reduced by the variability associated with
environmental differences among groups of units.
– Effects of nuisance factors which contribute
systematic variation to the differences among EUs
can be eliminated.
– Analysis is more sensitive.
21. Confounding block with treatment effects
Awful design Balanced design
Sample Treatment Sex Batch Sample Treatment Sex Batch
1 A Male 1 1 A Male 1
2 A Male 1 2 A Female 2
3 A Male 1 3 A Male 2
4 A Male 1 4 A Female 1
5 B Female 2 5 B Male 1
6 B Female 2 6 B Female 2
7 B Female 2 7 B Male 2
8 B Female 2 8 B Female 1
• Two alternative designs to investigate treatment effects
– Left: Treatment effects confounded with Sex and Batch effect
– Right: Treatments are balanced between blocks
• Influence of blocks is automatically compensated
• Statistical analysis may separate block from treatment efefect
22. Allocating samples to treatments
• A key point in any experiment is the way that
experimental units are allocated to treatments
– It must be chosen so that random variability is as
small as possible
– It must be chosen so that the best local control is
achieved.
– It implicitly defines the analysis model, so it must be
chosen so that the analysis can be performed and
validity conditions hold.
23. In summary
• Good experimental design is essential to
perform good experiments.
• Experimental design means planning
ahead
– Should be done before the experiment starts
– Should consider all the steps: from sampling
to data analysis.
24. And Fisher said…
To consult the statistician after an
experiment is finished is often merely
to ask him to conduct a post mortem
examination.
He can perhaps say what the experiment
died of.
Sir Ronald A. Fisher
Father of modern Mathematical Statistics
and Developer of Experimental Design
and ANOVA
26. Esquema de la presentación
Introducción y objetivos
Análisis de datos de microarrays
Tipos de datos y Tipos de estudios. Herramientas.
El proceso de análisis. Ejemplos
Críticas, consensos, consejos y “estado del
arte”
Críticas a los microarrays
Consensos y consejos (“dos and don’ts”)
MAQC-I, MAQC-II
De los microarrays al diagnóstico
¿Porque está siempre por llegar?
27. Para aprender más …
http://www.ub.es/stat/docencia/bioinformatica/microarrays/ADM/
32. Y muchos más …
Time Course
Perfiles de expresión a lo largo del tiempo
Pathway Analysis-(Systems Biology)
Reconstrucción de redes metabólicas a
partir de datos de expressión
Whole Genome, CGH, Alternative
Splicing
Estudios con datos de distintos tipos
Fusión o Integración de datos
36. Análisis de un experimento con microarrays
(1) Imágenes
(Datos crudos)
(2) C. de calidad
(bajo nivel)
(3) Preprocesado
(4) Exploración
de la Matriz
de Expresión
(5) Análisis
(6) Significación
Biológica
37. (0) Diseño experimental
• Variabilidad
– Sistemática
• Calibrar/Normalizar
– Aleatoria
• Diseño Experimental
• Inferencia
• Decidir acerca de
Awful design :-( Balanced design :-)
– Réplicas,
Sample
1
Treatment Sex
A Male
Batch
1
Sample
1
Treatment Sex
A Male
– Lotes (“Batch effect”)
2
3
A
A
Male
Male
1
1
2
3
A
A
Female
Male
– Pools …
4 A Male 1 4 A Female
5 B Female 2 5 B Male
6 B Female 2 6 B Female
7 B Female 2 7 B Male
8 B Female 2 8 B Female
38. (1) Obtención de la imagen
… • Entra: Microarrays
• Salen:
– Imágenes (1/chip)
– Ficheros de imagen
• Información para
cada sonda individual
• Datos para el análisis
de bajo nivel
… – Control de calidad
– Preprocesado
1.cel, 1.chp 2.cel, 2.chp
– Sumarización
39. (2) Control de calidad de bajo nivel
• Entra:
… – Imágenes (.CEL, ...)
1.cel, 1.chp 2.cel, 2.chp
• Proceso
– Diagnósticos y
Control de calidad
– Análisis basado en
modelos (PLM)
• Salen:
– Gráficos
– Estadísticos de
control de calidad
45. Ejemplo de análisis de datos
Comparación de perfiles de expresión
entre tumores BRCA1/BRCA2 y
Construcción de un predictor que
permita distinguir entre ambos.
46. Fuente del ejemplo
Gene Expression Profiles in Hereditary
Breast Cancer
• Hedenfalk, I, et. al., NEJM, Vol. 344,
No. 8, pp 539-548.
Objetivo: Encontrar un predictor basado
en perfiles de expresión para diferenciar
tumores asociados a BRCA1 y BRCA2
47. Esquema del análisis
• Diseño experimental y datos para el
análisis
• Preprocesado
• Exploración
• Selección de genes
• Construcción de varios predictores y
selección del más apropiado
48. Diseño experimental
BRCA1 v
Patient BRCA2 v • RNA extraido de
Array PID Sporadic
s1321 20 Sporadic
– 7 pacientess. BRCA1
s1996 1 BRCA1 – 8 pacients BRCA2
s1822 5 BRCA1 – 7 con cancer “esporádico”
s1714 3 BRCA1
• 6512 sondas
s1224 7 BRCA1
s1252 2 BRCA1 – 5361 genes
s1510 4 BRCA1 • 3226 retenidos para el
s1900 10 BRCA2 análisis
s1787 9 BRCA2
• Diseño de referencia
s1721 8 BRCA2
s1486 22 BRCA2
– Cada muestra comparada
s1572 16 Sporadic
contra linea celular no
s1324 17 Sporadic
tumorgénica (MCF-104)
s1649 15 Sporadic
s1320 18 Sporadic
s1542 19 Sporadic
s1281 21 Sporadic
s1905 6 BRCA1
s1816 13 BRCA2
53. Análisis (1). Selección de genes
(class comparison)
• BRCA1 vs noBRCA1
• Usamos un t-test y
un cutoff de 0.0001
– es decir declaramos
diferencialmenete
expresados los genes
cuyo p-valor sea
inferior a 0.0001
• No hacemos ajustes
– Mínimo FC
– Multiple testing
55. Análisis (2):
Construcción de un predictor
• Construímos
predictores por 6
métodos distintos.
• Genes candidatos por
class-comparison.
• Elegimos el que
presente menor tasa
de error de predicción
(estimada por leave
one out)
56. Resultados (2i)
Compound Diagonal Linear 1-Nearest 3-Nearest Nearest Support Bayesian
Covariate Discriminant Neighbor Neighbors Centroid Vector Compound
Array id Class label Predictor Analysis Machines Covariate
Predictor
Correct? Correct? Correct? Correct? Correct? Correct? Correct?
s1224 BRCA1 YES YES YES YES YES YES YES
s1252 BRCA1 YES YES NO NO YES YES YES
s1510 BRCA1 NO YES NO NO NO NO NO
s1714 BRCA1 NO YES NO NO NO NO NO
s1822 BRCA1 YES YES YES YES YES YES YES
s1905 BRCA1 YES YES YES YES YES YES YES
s1996 BRCA1 YES YES NO YES YES YES NA
s1063 notBRCA1 YES YES YES YES YES YES YES
s1281 notBRCA1 YES YES YES YES YES YES NA
s1320 notBRCA1 NO YES YES YES YES YES YES
s1321 notBRCA1 NO NO NO NO NO NO NO
s1324 notBRCA1 YES YES YES YES YES YES YES
s1486 notBRCA1 YES YES YES YES YES YES YES
s1542 notBRCA1 YES YES YES YES YES YES YES
s1572 notBRCA1 YES YES YES YES YES YES YES
s1616 notBRCA1 YES YES YES YES YES YES YES
s1649 notBRCA1 YES YES YES YES YES YES YES
s1721 notBRCA1 YES YES YES YES YES YES YES
s1787 notBRCA1 YES YES YES YES YES YES YES
s1816 notBRCA1 YES YES YES YES YES YES YES
s1900 notBRCA1 YES YES YES YES YES YES YES
s1936 notBRCA1 YES YES YES YES YES YES YES
82% 95% 77% 82% 86% 86% 85%
57. Resultados (2ii)
Performance of the Diagonal Linear Discriminant Analysis Classifier:
Class Sensitivity Specificity PPV NPV
BRCA1 1 0.933 0.875 1
notBRCA1 0.933 1 1 0.875
Final classifier: coeficients and criteria
A sample is classified to the class BRCA1 if the sum is greater than the threshold
That is, ∑iwi xi > threshold.
The threshold for the Diagonal Linear Discriminant predictor is 91.124
1 2 3 …. 51 52
Genes HK1A11 HV10D8 HV11A6 …. HV28G8 HV2B1
Coeficients 2,57 3,31 2,79 …. 3,01 5,52
58. Resumiendo…
El análisis de microarrays puede visualizarse
como un proceso.
Es importante conocer
Los métodos apropiados para cada problrma,
los parámetros, el significado, las limitaciones de
cada paso.
Una aplicación adecuada del proceso
proporciona información relevante como...
una lista de genes diferencialmente expresados
(biomarcadores).
un modelo con capacidad de predecir (firma)
61. An array of problems?
• Poca reproducibilidad entre estudios
– Poca coincidencia entre las listas de genes
– No reproducción de las predicciones en
nuevos conjuntos de test
• Falta de estándares
• Falta de consenso en los métodos
• El paso a la clínica siempre por llegar
• Mediados de la década: ¿Promesa o
realidad?
63. Algunos consensos (Allison 2006)
• Diseño
– Biological replication is essential
– There is strength in numbers: power & sample size
– Pooling biological samples can be useful
• Seleccion de genes diferencialmente expresados
– Using FC alone as a differential expression test is not valid
– 'Shrinkage' is a good thing
– FDR is a good alternative to conventional multiple-testing approaches
• Clasificación y Predicción
– Unsupervised classification is overused
– Unsupervised classification should be validated using
resampling-
– Supervised-classification requires independent cross-
validation
64. No todos los estudios se hacen bien...
• Dupuy & Simon estudian 90 publicaciones.
– Análisis detallado de los métodos usados en 42.
• Ecuentran algunos errores comunes
– Objetivos pobremente definidos.
– No hay control de la multiplicidad
104 genes 104 tests P(Falso+) muy alta
– Ni se informa bien de la fiabilidad de un predictor.
– No se utiliza un conjunto de test independiente.
– Se abusa por doquier del análisis de clusters.
65. Aunque es posible hacerlo bien si...
• Se procura... (do’s) • Se evita... (don’t)
– Definir bien objetivos. – Basar la selección tan
– Combinar el p-valor y sólo en “Fold Change”
el FC al seleccionar – Usar p-valores de 0.05
genes. – Usar métodos de cluster
– Usar la FDR para el si lo que se deseara es
control de clasificar muestras.
multiplicidad. – Violar el principio básico
– Validar un predictor de la validación (no debe
con un conjunto de usarse el cjto de prueba
prueba independiente. antes de la validación).
– Contar con un
estadístico
... Hasta 40 “do’s” y “don’ts” en la tabla 3 de Dupuy y Simon (JNCI 99 (2): 147-157).
66. Resumiendo
• Los microarrays tienen algunas
limitaciones –razonables e intrínsecas-
• Un adecuado uso de los métodos de
análisis puede generar información útil,
fiable y reproducible.
• Aún así el paso de la clínica al
diagnóstico es más lento de lo que se
esperaba.
¿Por qué?
67. De la investigación básica a los
diagnóstico basados en microarrays
¿Para cuando?
70. Algunas de las dificultades
• Se precisan estudios muy grandes para establecer la
potencia de un (kit) diagnóstico y validarlo en una
cohorte independiente y suficientemente amplio.
• Hacen falta estandarizaciones y sistemas de control de
calidad validados según criterios de laboratorios
clínicos.
• Los tests de perfiles de expresión han de cumplir las
normas de la Agencia Médica Europea y/o la FDA.
• Para justificar su desarrollo hay que hacer estudios de
coste efectividad que sugieran una clara mejora en el
tratamiento al paciente y retorno de inversión y
beneficios en el medio/largo plazo.
71. Estado de los diagnósticos basados en
microarrays
Lleno: , Vacío:
72. Resumiendo
• Se espera que la creciente calidad y tamaño de los
estudios genere nuevos perfiles de expresión
transportables al diagnóstico.
• Aspectos como estandarización y automatización
(robótica) para minimizar la intervención humana
están cada vez mejor.
• Otros como la regulación por parte de las agencias y
las políticas de reembolso a los inversores y los
laboratorios deben de irse resolviendo.
• No es improbable un futuro en el que el “lab-on-a-
chip” forme parte de las herramientas de los clínicos.