Las ciencias de la computación abarcan el estudio de las bases teóricas de la información y la computación y sus diversos campos, como la criptografía, la teoría de grafos, y la lógica matemática. Estos campos se enfocan en temas como los fundamentos matemáticos, la seguridad de la información, las estructuras de datos, y los sistemas formales.
Este documento discute la importancia de estudiar lenguajes de programación. Explica que los lenguajes de programación son herramientas clave para la ciencia de la computación y que al estudiarlos se mejora la capacidad de producir software eficientemente, se desarrollan mejores algoritmos y se incrementa el conocimiento general sobre la programación. También destaca la importancia de considerar atributos como la simplicidad, claridad y ortogonalidad al evaluar la calidad de un lenguaje.
Sistemas Multimídia - Aula 03 - O que é Multimídia (Evolução da comunicação e...Leinylson Fontinele
O documento descreve a evolução da comunicação entre homem e máquina, desde os primeiros sistemas de contagem até os computadores mecânicos. Detalha alguns marcos como o ábaco, os ossos de Napier, a máquina de Pascal e a máquina analítica de Babbage, que foi a primeira a ser programada, por Ada Lovelace.
El documento habla sobre la complejidad de los algoritmos. Explica que la complejidad se basa en el tamaño del problema y se mide en términos de recursos como tiempo y espacio. También describe diferentes estructuras de datos y casos como el peor, promedio y mejor caso. Finalmente, introduce la notación asintótica para etiquetar algoritmos según su orden de complejidad y comportamiento cuando el tamaño del problema crece indefinidamente.
O documento fornece uma introdução à Computação Gráfica, definindo-a como a área da Ciência da Computação que estuda a geração, manipulação e análise de imagens através do computador. Ele discute as três subáreas da Computação Gráfica - síntese de imagens, processamento de imagens e visão computacional - e fornece exemplos de aplicações para cada uma. Finalmente, lista diversos campos onde a Computação Gráfica é utilizada.
Este documento introduce el tema de la inteligencia artificial. Explica que la IA comenzó como resultado de investigaciones en psicología cognitiva y lógica matemática, enfocándose en explicar procesos mentales y construir algoritmos de resolución de problemas. También describe que la IA es una combinación de ciencias de la computación, fisiología y filosofía, reuniendo campos como robótica y sistemas expertos con el objetivo común de crear máquinas que puedan "pensar".
Este documento trata sobre la inteligencia artificial. Explica que la IA estudia cómo simular la inteligencia humana creando robots con comportamiento y comprensión similares. También describe algunos de los lenguajes y herramientas utilizados en el desarrollo de la IA como LISP y PROLOG. Además, resume brevemente la historia de la IA desde sus inicios hasta la actualidad.
El documento presenta un mapa conceptual sobre seguridad informática. Explica que la integridad, privacidad y disponibilidad son principios clave, y que el objetivo principal es proporcionar condiciones seguras para evitar usos no éticos de la información. Identifica factores de riesgo ambientales, humanos y tecnológicos, y provee detalles sobre su relación con la seguridad informática.
O documento discute a segurança da informação, abordando sua necessidade, problemas relacionados como interceptação, modificação, autenticação e disponibilidade. Também apresenta adversários, ameaças digitais e aspectos da segurança, incluindo criptografia, protocolos de segurança e ferramentas como firewall e sistemas de detecção de intrusos.
Este documento discute la importancia de estudiar lenguajes de programación. Explica que los lenguajes de programación son herramientas clave para la ciencia de la computación y que al estudiarlos se mejora la capacidad de producir software eficientemente, se desarrollan mejores algoritmos y se incrementa el conocimiento general sobre la programación. También destaca la importancia de considerar atributos como la simplicidad, claridad y ortogonalidad al evaluar la calidad de un lenguaje.
Sistemas Multimídia - Aula 03 - O que é Multimídia (Evolução da comunicação e...Leinylson Fontinele
O documento descreve a evolução da comunicação entre homem e máquina, desde os primeiros sistemas de contagem até os computadores mecânicos. Detalha alguns marcos como o ábaco, os ossos de Napier, a máquina de Pascal e a máquina analítica de Babbage, que foi a primeira a ser programada, por Ada Lovelace.
El documento habla sobre la complejidad de los algoritmos. Explica que la complejidad se basa en el tamaño del problema y se mide en términos de recursos como tiempo y espacio. También describe diferentes estructuras de datos y casos como el peor, promedio y mejor caso. Finalmente, introduce la notación asintótica para etiquetar algoritmos según su orden de complejidad y comportamiento cuando el tamaño del problema crece indefinidamente.
O documento fornece uma introdução à Computação Gráfica, definindo-a como a área da Ciência da Computação que estuda a geração, manipulação e análise de imagens através do computador. Ele discute as três subáreas da Computação Gráfica - síntese de imagens, processamento de imagens e visão computacional - e fornece exemplos de aplicações para cada uma. Finalmente, lista diversos campos onde a Computação Gráfica é utilizada.
Este documento introduce el tema de la inteligencia artificial. Explica que la IA comenzó como resultado de investigaciones en psicología cognitiva y lógica matemática, enfocándose en explicar procesos mentales y construir algoritmos de resolución de problemas. También describe que la IA es una combinación de ciencias de la computación, fisiología y filosofía, reuniendo campos como robótica y sistemas expertos con el objetivo común de crear máquinas que puedan "pensar".
Este documento trata sobre la inteligencia artificial. Explica que la IA estudia cómo simular la inteligencia humana creando robots con comportamiento y comprensión similares. También describe algunos de los lenguajes y herramientas utilizados en el desarrollo de la IA como LISP y PROLOG. Además, resume brevemente la historia de la IA desde sus inicios hasta la actualidad.
El documento presenta un mapa conceptual sobre seguridad informática. Explica que la integridad, privacidad y disponibilidad son principios clave, y que el objetivo principal es proporcionar condiciones seguras para evitar usos no éticos de la información. Identifica factores de riesgo ambientales, humanos y tecnológicos, y provee detalles sobre su relación con la seguridad informática.
O documento discute a segurança da informação, abordando sua necessidade, problemas relacionados como interceptação, modificação, autenticação e disponibilidade. Também apresenta adversários, ameaças digitais e aspectos da segurança, incluindo criptografia, protocolos de segurança e ferramentas como firewall e sistemas de detecção de intrusos.
La ciberseguridad es la práctica de proteger sistemas, redes y programas de ataques digitales que apuntan a acceder, modificar o destruir información confidencial, extorsionar usuarios o interrumpir negocios. Existen varias amenazas como phishing, ransomware, malware e ingeniería social. La ciberseguridad es importante porque los ataques pueden resultar en robo de identidad, extorsión o pérdida de datos importantes, y es esencial proteger infraestructuras críticas como hospitales y servicios
Este documento resume la historia y desarrollo de varios lenguajes de programación importantes. Comenzó con FORTRAN en los años 50 para aplicaciones científicas, seguido de COBOL en 1959 para negocios. En los 60s, BASIC se desarrolló para enseñanza y Pascal se volvió popular en universidades. Ada se creó en los 70s para defensa con capacidades multitareas. C evolucionó de B y fue usado para Unix. En los 90s, C++ agregó programación orientada a objetos y Java fue diseñado para web interactiv
El documento resume los orígenes de la inteligencia artificial desde 1943 hasta la actualidad, describiendo hitos como la definición de la neurona formal, la conferencia de Dartmouth de 1956 donde se establecieron las bases de la IA, y la publicación de Turing en 1950 sobre computación e inteligencia. También describe los avances en los años 70 y 80, las definiciones actuales de IA, y las diferentes ramas como la inteligencia artificial convencional y computacional.
El documento describe la historia y funciones de los sistemas operativos. Los primeros sistemas operativos surgieron en la década de 1940 y solo permitían la ejecución secuencial de programas. En los años 1950 apareció el concepto de sistema operativo, y en 1960 surgió UNIX. Los sistemas operativos desempeñan funciones como la interfaz de usuario, administración de recursos, tareas y archivos. El documento también describe a Mac OS X creado por Apple.
Presentación de la quinta generación de computadoras.javier lara
La quinta generación de computadoras se enfoca en la inteligencia artificial, la robótica y los sistemas expertos. Se desarrollaron en Japón y Estados Unidos en la década de 1980 con el objetivo de dotar a las máquinas de capacidades como el razonamiento y el aprendizaje automático. Algunas características clave incluyen mayor velocidad, memoria y procesamiento multiprocesador, así como el reconocimiento de patrones y la capacidad de aprender de experiencias previas.
El documento describe las seis generaciones de computadoras, comenzando con las computadoras enormes de la primera generación que ocupaban todo un edificio, eran lentas y consumían grandes cantidades de energía. Las computadoras fueron reduciéndose de tamaño y aumentando su velocidad y capacidad de almacenamiento a medida que avanzaban las generaciones, gracias a innovaciones como los transistores, circuitos integrados y microprocesadores. La sexta generación actual ha traído los mayores avances, con velocidades de procesamiento que aument
Este documento apresenta um resumo sobre criptografia. Ele discute os conceitos básicos de criptografia simétrica e assimétrica, incluindo exemplos de algoritmos criptográficos comuns. Também aborda tópicos como certificados digitais, assinatura digital e função hash, que são elementos importantes para garantir a segurança e integridade da informação.
La criptografía ha evolucionado a través de tres etapas principales, desde los métodos manuales antiguos hasta los algoritmos digitales modernos. Existen tres tipos principales de criptografía: simétrica, asimétrica e híbrida. La criptografía se usa para proteger la confidencialidad, autenticidad e integridad de la información transmitida a través de aplicaciones como el comercio electrónico, las redes inalámbricas y las comunicaciones por Internet.
Quantum algorithms like VQE and QAOA were used to analyze the impact of COVID-19 on optimal portfolio selection across different industries. Three time periods were considered - pre-COVID, during COVID, and post-COVID. Results found that COVID disrupted optimal portfolios, with sectors like retail, technology and automotive favored more pre-COVID, while oil/gas and airlines/hospitality favored post-COVID. Quantum algorithms provided comparable results to classical methods like Markowitz for portfolio optimization under changing market conditions from the pandemic.
Un lenguaje de programación es un lenguaje formal diseñado para controlar el comportamiento de las máquinas y expresar algoritmos con precisión. Está compuesto de símbolos y reglas que definen su estructura y significado. Existen lenguajes de bajo y alto nivel, siendo estos últimos más cercanos al lenguaje natural y enfocados a solucionar problemas mediante estructuras de datos dinámicas. Los lenguajes de programación ideales son expresivos, legibles y eficientes, con características como estructuras de control, tipos de datos, ab
La arquitectura de Von Neumann describe el diseño básico de una computadora digital con cinco partes principales: la memoria, la unidad aritmética lógica, la unidad de control, y las unidades de entrada y salida. La arquitectura de Von Neumann es más simple que la arquitectura de Harvard más moderna y permite almacenar tanto instrucciones como datos en la misma memoria de acceso aleatorio. Aunque la tecnología ha avanzado, la base fundamental del funcionamiento de una computadora descrita originalmente por Von Neumann sigue siendo la misma.
Este documento trata sobre el cibercrimen. Explica que el cibercrimen puede verse como una subcategoría del delito informático donde Internet juega un papel fundamental como herramienta para cometer crímenes. Describe las tres formas en que los ordenadores pueden verse involucrados en el cibercrimen y las características más comunes de este tipo de delitos. También enumera algunas de las formas más usuales de cibercrimen como el phishing, el apoderamiento de cuentas de correo y la filtración o venta de bases
Este documento presenta la estructura curricular del programa de formación en Programación de Software. El programa tiene una duración de 6 meses lectivos y 6 meses productivos, para un total de 12 meses. El programa busca formar técnicos competentes en programación de software que puedan desempeñarse como programadores de sistemas informáticos o desarrolladores de sistemas. El documento describe los contenidos y competencias del programa, así como los perfiles requeridos para los instructores.
O documento discute conceitos fundamentais de segurança de dados e criptografia. Primeiramente, define criptologia, criptografia e criptoanálise e discute os conceitos de chaves simétricas e assimétricas. Também aborda algoritmos como AES, DES e RC4. Por fim, fornece um breve histórico da criptografia desde a antiguidade até os dias atuais.
El documento resume los principales tipos de criptografía a través de la historia. Comienza con la criptografía clásica que data de miles de años atrás y luego describe la criptografía moderna que surgió en las primeras décadas del siglo XX con el uso de máquinas mecánicas y electromecánicas. Finalmente, explica los tres tipos principales de criptografía moderna: criptografía simétrica, criptografía simétrica por bloques y criptografía asimétrica.
Linea del tiempo de los lenguajes de programaciónEspitiaGiancarlo
El documento resume la historia de los lenguajes de programación desde 1840 hasta la actualidad. Comenzó con Ada Lovelace y su trabajo sobre la máquina analítica de Babbage en 1843. Luego, en las décadas de 1950 y 1960 se crearon lenguajes pioneros como FORTRAN, LISP, COBOL y BASIC, cada uno diseñado para un propósito diferente. En las décadas siguientes se desarrollaron muchos otros lenguajes importantes como C, Pascal, Ada, C++, Java, PHP y JavaScript, expandiendo las capacidades de programación. La
El documento describe los componentes principales de un sistema computacional, incluyendo el hardware, software, y dispositivos de entrada/salida. Explica que el hardware se refiere a la parte física de la computadora, mientras que el software se refiere a la parte lógica. Luego enumera y describe varios ejemplos de dispositivos de hardware como el monitor, unidad óptica, teclado, y tarjeta de video.
Historia de la programacion (linea del tiempo)kevin antonio
El documento describe brevemente la historia de los lenguajes de programación, comenzando con Ada Lovelace desarrollando el primer lenguaje de programación en 1843. Luego menciona algunos de los lenguajes de programación más influyentes y sus fechas de creación, incluyendo Fortran en 1957, Lisp en 1958, Cobol en 1959, BASIC en 1964, Pascal en 1970, C en 1972, Ruby en 1993 y Java y PHP en 1995. El documento proporciona contexto histórico sobre el propósito y uso de varios lenguajes de programación clave.
La ciberseguridad es la práctica de proteger sistemas, redes y programas de ataques digitales que apuntan a acceder, modificar o destruir información confidencial, extorsionar usuarios o interrumpir negocios. Existen varias amenazas como phishing, ransomware, malware e ingeniería social. La ciberseguridad es importante porque los ataques pueden resultar en robo de identidad, extorsión o pérdida de datos importantes, y es esencial proteger infraestructuras críticas como hospitales y servicios
Este documento resume la historia y desarrollo de varios lenguajes de programación importantes. Comenzó con FORTRAN en los años 50 para aplicaciones científicas, seguido de COBOL en 1959 para negocios. En los 60s, BASIC se desarrolló para enseñanza y Pascal se volvió popular en universidades. Ada se creó en los 70s para defensa con capacidades multitareas. C evolucionó de B y fue usado para Unix. En los 90s, C++ agregó programación orientada a objetos y Java fue diseñado para web interactiv
El documento resume los orígenes de la inteligencia artificial desde 1943 hasta la actualidad, describiendo hitos como la definición de la neurona formal, la conferencia de Dartmouth de 1956 donde se establecieron las bases de la IA, y la publicación de Turing en 1950 sobre computación e inteligencia. También describe los avances en los años 70 y 80, las definiciones actuales de IA, y las diferentes ramas como la inteligencia artificial convencional y computacional.
El documento describe la historia y funciones de los sistemas operativos. Los primeros sistemas operativos surgieron en la década de 1940 y solo permitían la ejecución secuencial de programas. En los años 1950 apareció el concepto de sistema operativo, y en 1960 surgió UNIX. Los sistemas operativos desempeñan funciones como la interfaz de usuario, administración de recursos, tareas y archivos. El documento también describe a Mac OS X creado por Apple.
Presentación de la quinta generación de computadoras.javier lara
La quinta generación de computadoras se enfoca en la inteligencia artificial, la robótica y los sistemas expertos. Se desarrollaron en Japón y Estados Unidos en la década de 1980 con el objetivo de dotar a las máquinas de capacidades como el razonamiento y el aprendizaje automático. Algunas características clave incluyen mayor velocidad, memoria y procesamiento multiprocesador, así como el reconocimiento de patrones y la capacidad de aprender de experiencias previas.
El documento describe las seis generaciones de computadoras, comenzando con las computadoras enormes de la primera generación que ocupaban todo un edificio, eran lentas y consumían grandes cantidades de energía. Las computadoras fueron reduciéndose de tamaño y aumentando su velocidad y capacidad de almacenamiento a medida que avanzaban las generaciones, gracias a innovaciones como los transistores, circuitos integrados y microprocesadores. La sexta generación actual ha traído los mayores avances, con velocidades de procesamiento que aument
Este documento apresenta um resumo sobre criptografia. Ele discute os conceitos básicos de criptografia simétrica e assimétrica, incluindo exemplos de algoritmos criptográficos comuns. Também aborda tópicos como certificados digitais, assinatura digital e função hash, que são elementos importantes para garantir a segurança e integridade da informação.
La criptografía ha evolucionado a través de tres etapas principales, desde los métodos manuales antiguos hasta los algoritmos digitales modernos. Existen tres tipos principales de criptografía: simétrica, asimétrica e híbrida. La criptografía se usa para proteger la confidencialidad, autenticidad e integridad de la información transmitida a través de aplicaciones como el comercio electrónico, las redes inalámbricas y las comunicaciones por Internet.
Quantum algorithms like VQE and QAOA were used to analyze the impact of COVID-19 on optimal portfolio selection across different industries. Three time periods were considered - pre-COVID, during COVID, and post-COVID. Results found that COVID disrupted optimal portfolios, with sectors like retail, technology and automotive favored more pre-COVID, while oil/gas and airlines/hospitality favored post-COVID. Quantum algorithms provided comparable results to classical methods like Markowitz for portfolio optimization under changing market conditions from the pandemic.
Un lenguaje de programación es un lenguaje formal diseñado para controlar el comportamiento de las máquinas y expresar algoritmos con precisión. Está compuesto de símbolos y reglas que definen su estructura y significado. Existen lenguajes de bajo y alto nivel, siendo estos últimos más cercanos al lenguaje natural y enfocados a solucionar problemas mediante estructuras de datos dinámicas. Los lenguajes de programación ideales son expresivos, legibles y eficientes, con características como estructuras de control, tipos de datos, ab
La arquitectura de Von Neumann describe el diseño básico de una computadora digital con cinco partes principales: la memoria, la unidad aritmética lógica, la unidad de control, y las unidades de entrada y salida. La arquitectura de Von Neumann es más simple que la arquitectura de Harvard más moderna y permite almacenar tanto instrucciones como datos en la misma memoria de acceso aleatorio. Aunque la tecnología ha avanzado, la base fundamental del funcionamiento de una computadora descrita originalmente por Von Neumann sigue siendo la misma.
Este documento trata sobre el cibercrimen. Explica que el cibercrimen puede verse como una subcategoría del delito informático donde Internet juega un papel fundamental como herramienta para cometer crímenes. Describe las tres formas en que los ordenadores pueden verse involucrados en el cibercrimen y las características más comunes de este tipo de delitos. También enumera algunas de las formas más usuales de cibercrimen como el phishing, el apoderamiento de cuentas de correo y la filtración o venta de bases
Este documento presenta la estructura curricular del programa de formación en Programación de Software. El programa tiene una duración de 6 meses lectivos y 6 meses productivos, para un total de 12 meses. El programa busca formar técnicos competentes en programación de software que puedan desempeñarse como programadores de sistemas informáticos o desarrolladores de sistemas. El documento describe los contenidos y competencias del programa, así como los perfiles requeridos para los instructores.
O documento discute conceitos fundamentais de segurança de dados e criptografia. Primeiramente, define criptologia, criptografia e criptoanálise e discute os conceitos de chaves simétricas e assimétricas. Também aborda algoritmos como AES, DES e RC4. Por fim, fornece um breve histórico da criptografia desde a antiguidade até os dias atuais.
El documento resume los principales tipos de criptografía a través de la historia. Comienza con la criptografía clásica que data de miles de años atrás y luego describe la criptografía moderna que surgió en las primeras décadas del siglo XX con el uso de máquinas mecánicas y electromecánicas. Finalmente, explica los tres tipos principales de criptografía moderna: criptografía simétrica, criptografía simétrica por bloques y criptografía asimétrica.
Linea del tiempo de los lenguajes de programaciónEspitiaGiancarlo
El documento resume la historia de los lenguajes de programación desde 1840 hasta la actualidad. Comenzó con Ada Lovelace y su trabajo sobre la máquina analítica de Babbage en 1843. Luego, en las décadas de 1950 y 1960 se crearon lenguajes pioneros como FORTRAN, LISP, COBOL y BASIC, cada uno diseñado para un propósito diferente. En las décadas siguientes se desarrollaron muchos otros lenguajes importantes como C, Pascal, Ada, C++, Java, PHP y JavaScript, expandiendo las capacidades de programación. La
El documento describe los componentes principales de un sistema computacional, incluyendo el hardware, software, y dispositivos de entrada/salida. Explica que el hardware se refiere a la parte física de la computadora, mientras que el software se refiere a la parte lógica. Luego enumera y describe varios ejemplos de dispositivos de hardware como el monitor, unidad óptica, teclado, y tarjeta de video.
Historia de la programacion (linea del tiempo)kevin antonio
El documento describe brevemente la historia de los lenguajes de programación, comenzando con Ada Lovelace desarrollando el primer lenguaje de programación en 1843. Luego menciona algunos de los lenguajes de programación más influyentes y sus fechas de creación, incluyendo Fortran en 1957, Lisp en 1958, Cobol en 1959, BASIC en 1964, Pascal en 1970, C en 1972, Ruby en 1993 y Java y PHP en 1995. El documento proporciona contexto histórico sobre el propósito y uso de varios lenguajes de programación clave.
El documento presenta la planeación didáctica de 6 semanas de trabajo virtual para un curso. Incluye las actividades, momentos de evaluación, evidencias requeridas y porcentajes de evaluación. Las actividades involucran el uso de blogs, wikis, Twitter, Facebook y otras herramientas web 2.0 para publicaciones, trabajo colaborativo, compartir recursos y crear redes sociales. La evaluación incluye foros, publicaciones en plataformas y asistencia a encuentros sincrónicos.
The document discusses the benefits of exercise for mental health. Regular physical activity can help reduce anxiety and depression and improve mood and cognitive functioning. Exercise causes chemical changes in the brain that may help protect against mental illness and improve symptoms.
Las Guías de la AHA/ARC de 2010 para primeros auxilios se basan en revisiones bibliográficas sobre temas seleccionados y definen los primeros auxilios como evaluaciones e intervenciones realizadas por testigos o víctimas con equipo mínimo o sin equipo. Los cambios clave incluyen recomendaciones sobre la administración de oxígeno, epinefrina y aspirina, uso de torniquetes, agentes hemostáticos, tratamiento de mordeduras de serpiente y picaduras de medusa, y emergencias relacionadas
Una encuesta evaluó la evaluación del programa de Aprendizaje Basado en Proyectos (ABP) en un centro, preguntando quién realiza las evaluaciones, qué se evalúa, cuándo se evalúa y con qué herramientas.
En première Suisse, la Cave Giroud Vins SA à Sion (www.giroud-vins.ch) et l’Agence de Communication Cnoté Mobile Solutions SA à Martigny (www.cnote.ch) présentent
une innovation mobile dans le domaine du Vin et des Nouvelles Technologies.
Avec un code-barres à 2 dimensions, les bouteilles de vin de la Cave Giroud sont pourvues d’une intelligence intégrée et n’auront plus de secret pour les consommateurs...
Tout est dans la poche !
Les Community Managers en France - Édition 2013ANOV Agency
Depuis 3 ans, c’est désormais une tradition ! Voici les résultats de l’enquête de référence en France pour les Community managers : profil type, salaires, employabilité, employeur, tâches quotidiennes, outils utilisés, stratégies, tendances, etc
El documento describe los experimentos del científico japonés Masaru Emoto que mostraron que los sonidos, palabras, pensamientos y sentimientos pueden alterar la estructura molecular del agua. Emoto expuso muestras de agua a diferentes estímulos como oraciones, música, o palabras amenazantes antes de congelar y fotografiar los cristales formados. Los resultados sugieren que el agua expuesta a estímulos positivos como oraciones o música clásica forma cristales hermosos, mientras que el agua expuesta a estímulos
Las ciencias de la computación estudian los fundamentos teóricos de la información y la computación, así como su aplicación en sistemas computacionales. Existen diversos campos como la teoría de la computabilidad, los algoritmos, los lenguajes de programación, las bases de datos, los sistemas distribuidos e inteligencia artificial. Aunque a veces se confunde con el estudio de hardware, las ciencias de la computación se enfocan más en propiedades abstractas del cómputo.
La informática estudia la teoría de la información y computación, y su aplicación en sistemas informáticos. Algunos de sus campos incluyen lógica matemática, teoría de números, teoría de grafos y teoría de juegos, los cuales se utilizan en criptografía, inteligencia artificial y comunicaciones. La informática también incluye el estudio de la arquitectura de computadoras, cibernética, robótica, mecatrónica y telematicas.
Las ciencias de la computación estudian la teoría de la computación, los algoritmos, los lenguajes de programación y cómo automatizar procesos mediante computadoras. Incluye campos como la inteligencia artificial, bases de datos, redes y sistemas distribuidos. La ciencia de la computación se originó en los estudios sobre computabilidad y ha crecido para abarcar todos los aspectos de la computación y su aplicación.
Las ciencias de la computación abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales. Su historia antecede a la invención del computador digital moderno. Durante la década de 1940, conforme se desarrollaban máquinas más poderosas para computar, el término "computador" comenzó a utilizarse para referirse a las máquinas en vez de a los seres humanos.
Las ciencias de la computación abarcan el estudio teórico de la información y la computación, así como su aplicación práctica en sistemas computacionales. Existen diversas disciplinas dentro de las ciencias de la computación como gráficos por computadora, criptografía, teoría de grafos, lógica matemática, sistemas concurrentes, paralelos y distribuidos.
Las ciencias de la computación abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales. La historia de esta disciplina antecede a la invención del computador digital moderno. Durante la década de 1940, a medida que se desarrollaban máquinas más poderosas para computar, el término "computador" comenzó a usarse para referirse a las máquinas en lugar de a los seres humanos.
Este documento presenta una lista de diferentes áreas de estudio dentro de las ciencias de la computación, incluyendo teoría de lenguajes de programación, criptografía, teoría de grafos, inteligencia artificial, redes de computadoras, y más. Explica brevemente cada área y los conceptos fundamentales involucrados.
La computación busca una base científica para resolver problemas usando dispositivos electrónicos y sistemas de computación. Se define como el estudio de métodos algorítmicos para representar y transformar información, con raíces en las matemáticas. La computación es el tratamiento automático de información usando una computadora, y estudia estructuras de datos y algoritmos para resolver problemas de manera eficiente.
Las ciencias de la computación estudian la teoría de la computación y su aplicación en sistemas computacionales. Incluye diversos campos como fundamentos matemáticos, teoría de la computación, algoritmos y estructuras de datos, inteligencia artificial, y más. Aunque a veces se confunde con el estudio de hardware, las ciencias de la computación se enfocan más en propiedades abstractas de la computación.
Las ciencias de la computación estudian la teoría de la información y la computación, así como su aplicación en sistemas computacionales. Existen diversos campos dentro de esta disciplina como la teoría de la computabilidad, los algoritmos, los lenguajes de programación, la inteligencia artificial y la computación científica. Las ciencias de la computación están estrechamente relacionadas con las matemáticas y a menudo se cruzan con otras áreas como la física y la lingüística.
El documento describe las ciencias de la computación como el estudio de la computación y el procesamiento de información. Existen diversos campos dentro de las ciencias de la computación como fundamentos matemáticos, teoría de la computación, algoritmos y estructuras de datos, lenguajes de programación, bases de datos, inteligencia artificial y gráficos por computadora. Las ciencias de la computación se relacionan con disciplinas como las matemáticas, la ingeniería y la física.
Las ciencias de la computación estudian la teoría y los fundamentos de la computación y la información, así como su aplicación en sistemas computacionales. Existen diversos campos dentro de esta disciplina, como la teoría de la computabilidad, los algoritmos y estructuras de datos, inteligencia artificial, bases de datos, redes de computadoras y más. Aunque a veces se confunde con el estudio de hardware o el uso cotidiano de computadoras, la ciencia de la computación se enfoca en las propiedades abstractas y fundamentales de la computación.
Este documento presenta una introducción a las ciencias de la computación. Explica que las ciencias de la computación estudian los fundamentos teóricos de la información y la computación, así como su aplicación en sistemas computacionales. Señala que la pregunta fundamental de esta disciplina es qué puede ser automatizado de manera eficiente. Además, brinda una breve historia de este campo y enumera algunos de sus principales campos como fundamentos matemáticos, teoría de la computación, algoritmos y estructuras de datos, y lenguajes de programación.
Las ciencias de la computación estudian los fundamentos teóricos y prácticos de la información y el cómputo. Incluyen campos como la teoría de la computación, inteligencia artificial, bases de datos, y más. La computación se refiere al procesamiento sistemático de información usando algoritmos implementados en computadoras.
Este documento trata sobre las herramientas informáticas y las ciencias de la computación. Explica que las ciencias de la computación abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales. Además, resume brevemente la historia de las ciencias de la computación y menciona algunos de los campos que las componen, como los fundamentos matemáticos, la teoría de la computación, los algoritmos y estructuras de datos, entre otros.
Este documento trata sobre las herramientas informáticas y Power Point. Explica que las ciencias de la computación abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales. Además, describe brevemente la historia de las ciencias de la computación y menciona algunos de los campos que las componen, como los fundamentos matemáticos, la teoría de la computación, los algoritmos y estructuras de datos, entre otros.
Este documento trata sobre las herramientas informáticas y las ciencias de la computación. Explica que las ciencias de la computación abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales. Además, resume brevemente la historia de las ciencias de la computación y menciona algunos de los campos que las componen, como los fundamentos matemáticos, la teoría de la computación, los algoritmos y estructuras de datos, entre otros.
Este documento trata sobre las herramientas informáticas y las ciencias de la computación. Explica que las ciencias de la computación abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales. Además, resume brevemente la historia de las ciencias de la computación y menciona algunos de los campos que las componen, como los fundamentos matemáticos, la teoría de la computación, los algoritmos y estructuras de datos, entre otros.
Bachillerato oficial álvaro obregón "Computacion"dibujeans
El documento describe las ciencias de la computación como el estudio teórico de la información y la computación, así como su aplicación en sistemas computacionales. Incluye varias disciplinas como la teoría de la complejidad, los lenguajes de programación, la inteligencia artificial y más. También discute la historia de la computación y su evolución desde los cálculos humanos hasta el establecimiento de la ciencia de la computación como disciplina académica en la década de 1960. Finalmente, explora las relaciones entre la ciencia de la computación y
Catalogo Buzones BTV Amado Salvador Distribuidor Oficial ValenciaAMADO SALVADOR
Descubra el catálogo completo de buzones BTV, una marca líder en la fabricación de buzones y cajas fuertes para los sectores de ferretería, bricolaje y seguridad. Como distribuidor oficial de BTV, Amado Salvador se enorgullece de presentar esta amplia selección de productos diseñados para satisfacer las necesidades de seguridad y funcionalidad en cualquier entorno.
Descubra una variedad de buzones residenciales, comerciales y corporativos, cada uno construido con los más altos estándares de calidad y durabilidad. Desde modelos clásicos hasta diseños modernos, los buzones BTV ofrecen una combinación perfecta de estilo y resistencia, garantizando la protección de su correspondencia en todo momento.
Amado Salvador, se compromete a ofrecer productos de primera clase respaldados por un servicio excepcional al cliente. Como distribuidor oficial de BTV, entendemos la importancia de la seguridad y la tranquilidad para nuestros clientes. Por eso, trabajamos en colaboración con BTV para brindarle acceso a los mejores productos del mercado.
Explore el catálogo de buzones ahora y encuentre la solución perfecta para sus necesidades de correo y seguridad. Confíe en Amado Salvador y BTV para proporcionarle buzones de calidad excepcional que cumplan y superen sus expectativas.
Catalogo general tarifas 2024 Vaillant. Amado Salvador Distribuidor Oficial e...AMADO SALVADOR
Descarga el Catálogo General de Tarifas 2024 de Vaillant, líder en tecnología para calefacción, ventilación y energía solar térmica y fotovoltaica. En Amado Salvador, como distribuidor oficial de Vaillant, te ofrecemos una amplia gama de productos de alta calidad y diseño innovador para tus proyectos de climatización y energía.
Descubre nuestra selección de productos Vaillant, incluyendo bombas de calor altamente eficientes, fancoils de última generación, sistemas de ventilación de alto rendimiento y soluciones de energía solar fotovoltaica y térmica para un rendimiento óptimo y sostenible. El catálogo de Vaillant 2024 presenta una variedad de opciones en calderas de condensación que garantizan eficiencia energética y durabilidad.
Con Vaillant, obtienes más que productos de climatización: control avanzado y conectividad para una gestión inteligente del sistema, acumuladores de agua caliente de gran capacidad y sistemas de aire acondicionado para un confort total. Confía en la fiabilidad de Amado Salvador como distribuidor oficial de Vaillant, y en la resistencia de los productos Vaillant, respaldados por años de experiencia e innovación en el sector.
En Amado Salvador, distribuidor oficial de Vaillant en Valencia, no solo proporcionamos productos de calidad, sino también servicios especializados para profesionales, asegurando que tus proyectos cuenten con el mejor soporte técnico y asesoramiento. Descarga nuestro catálogo y descubre por qué Vaillant es la elección preferida para proyectos de climatización y energía en Amado Salvador.
Catalogo Refrigeracion Miele Distribuidor Oficial Amado Salvador ValenciaAMADO SALVADOR
Descubre el catálogo general de la gama de productos de refrigeración del fabricante de electrodomésticos Miele, presentado por Amado Salvador distribuidor oficial Miele en Valencia. Como distribuidor oficial de electrodomésticos Miele, Amado Salvador ofrece una amplia selección de refrigeradores, congeladores y soluciones de refrigeración de alta calidad, resistencia y diseño superior de esta marca.
La gama de productos de Miele se caracteriza por su innovación tecnológica y eficiencia energética, garantizando que cada electrodoméstico no solo cumpla con las expectativas, sino que las supere. Los refrigeradores Miele están diseñados para ofrecer un rendimiento óptimo y una conservación perfecta de los alimentos, con características avanzadas como la tecnología de enfriamiento Dynamic Cooling, sistemas de almacenamiento flexible y acabados premium.
En este catálogo, encontrarás detalles sobre los distintos modelos de refrigeradores y congeladores Miele, incluyendo sus especificaciones técnicas, características destacadas y beneficios para el usuario. Amado Salvador, como distribuidor oficial de electrodomésticos Miele, garantiza que todos los productos cumplen con los más altos estándares de calidad y durabilidad.
Explora el catálogo completo y encuentra el refrigerador Miele perfecto para tu hogar con Amado Salvador, el distribuidor oficial de electrodomésticos Miele.
HPE presenta una competició destinada a estudiants, que busca fomentar habilitats tecnològiques i promoure la innovació en un entorn STEAM (Ciència, Tecnologia, Enginyeria, Arts i Matemàtiques). A través de diverses fases, els equips han de resoldre reptes mensuals basats en àrees com algorísmica, desenvolupament de programari, infraestructures tecnològiques, intel·ligència artificial i altres tecnologies. Els millors equips tenen l'oportunitat de desenvolupar un projecte més gran en una fase presencial final, on han de crear una solució concreta per a un conflicte real relacionat amb la sostenibilitat. Aquesta competició promou la inclusió, la sostenibilitat i l'accessibilitat tecnològica, alineant-se amb els Objectius de Desenvolupament Sostenible de l'ONU.
Catalogo Cajas Fuertes BTV Amado Salvador Distribuidor OficialAMADO SALVADOR
Explora el catálogo completo de cajas fuertes BTV, disponible a través de Amado Salvador, distribuidor oficial de BTV. Este catálogo presenta una amplia variedad de cajas fuertes, cada una diseñada con la más alta calidad para ofrecer la máxima seguridad y satisfacer las diversas necesidades de protección de nuestros clientes.
En Amado Salvador, como distribuidor oficial de BTV, ofrecemos productos que destacan por su innovación, durabilidad y robustez. Las cajas fuertes BTV son reconocidas por su eficiencia en la protección contra robos, incendios y otros riesgos, lo que las convierte en una opción ideal tanto para uso doméstico como comercial.
Amado Salvador, distribuidor oficial BTV, asegura que cada producto cumpla con los más estrictos estándares de calidad y seguridad. Al adquirir una caja fuerte a través de Amado Salvador, distribuidor oficial BTV, los clientes pueden tener la tranquilidad de que están obteniendo una solución confiable y duradera para la protección de sus pertenencias.
Este catálogo incluye detalles técnicos, características y opciones de personalización de cada modelo de caja fuerte BTV. Desde cajas fuertes empotrables hasta modelos de alta seguridad, Amado Salvador, como distribuidor oficial de BTV, tiene la solución perfecta para cualquier necesidad de seguridad. No pierdas la oportunidad de conocer todos los beneficios y características de las cajas fuertes BTV y protege lo que más valoras con la calidad y seguridad que solo BTV y Amado Salvador, distribuidor oficial BTV, pueden ofrecerte.
1. Ciencias de la
computación
Instituto Tecnológico de Saltillo
Valdes Gaytan Daira A.
Grupo de 11:00 a 12:00
2. Criptografía
C Fundamentos Teoría de grafos
Lógica matemáticas
matemáticos Teoría de tipos
i
Teoría de la
e computación
Teoría de autómatas
Teoría de la
n computación
Teoría de la computabilidad
Teoría de la complejidad computacional
c Análisis de algoritmos
Algoritmos
i D Algoritmos y
estructura de
Estructuras de datos
datos
a e
s Lenguajes de Compiladores
programación y
LC compiladores Teoría de lenguajes de programación
a o
Bases de Minería de datos
m datos
p Sistemas Programación concurrente
concurrentes, p Redes de computadoras
aralelos y
u distribuidos
Computo paralelo
Sistemas
t Inteligencia artificial
distribuidos
Razonamiento Automatizado
a Inteligencia
artificial
Robótica
Visión por computador
c Computación grafica
Aprendizaje automático
i Gráficos por Procesamiento digital de imágenes
computador Geometría computacional
ó
n Computación
científica Bioinformatica
Computación cuántica
3. Ciencias de la computación
Las ciencias de la computación abarcan el estudio de las bases teóricas de la
información y la computación y su aplicación en sistemas computacionales.
Existen diversos campos dentro de la disciplina de las ciencias de la computación;
algunos enfatizan los resultados específicos del cómputo, mientras que otros se
relacionan con propiedades de los algoritmos usados al realizar cómputos. Otros por
su parte se enfocan en los problemas que requieren la implementación de cómputos.
4. Historia de las ciencias de la computación
La historia de la ciencia de la computación antecede a la invención del computador
digital moderno. Antes de la década de 1920, el término computador se refería a un ser
humano que realizaba cálculos.
Los primeros investigadores en lo que después se convertiría las ciencias de la
computación, estaban interesados en la cuestión de la compatibilidad: qué cosas
pueden ser computadas por un ser humano que simplemente siga una lista de
instrucciones con lápiz y papel, durante el tiempo que sea necesario, con ingenuidad y
sin conocimiento previo del problema. Parte de la motivación para este trabajo era el
desarrollar máquinas que computaran, y que pudieran automatizar el tedioso y lleno
de errores trabajo de la computación humana.
5. Durante la década de 1940, conforme se desarrollaban nuevas y más poderosas
máquinas para computar, el término computador se comenzó a utilizar para referirse
a las máquinas en vez de a sus antecesores humanos. Conforme iba quedando claro
que las computadoras podían usarse para más cosas que solamente cálculos
matemáticos, el campo de la ciencia de la computación se fue ampliando para
estudiar a la computación (informática) en general.
La ciencia de la computación comenzó entonces a establecerse como una disciplina
académica en la década de 1960, con la creación de los primeros departamentos de
ciencia de la computación y los primeros programas de licenciatura (Denning 2000).
Volver
8. Criptografía
“Criptografía (comunicaciones), es la
ciencia que trata del enmascaramiento de la
comunicación de modo que sólo resulte
inteligible para la persona que posee la
clave, o método para averiguar el
significado oculto, mediante el
criptoanálisis de un texto aparentemente
incoherente. En su sentido más amplio, la
criptografía abarca el uso de mensajes
encubiertos, códigos y cifras. Los mensajes
encubiertos, como los ocultos en textos
infantiles o los escritos con tinta
invisible, cifran todo su éxito en no levantar
ninguna sospecha; una vez descubiertos, a
menudo no resultan difíciles de descifrar.
Los códigos, en que las palabras y las frases
se representan mediante vocablos, números
o símbolos preestablecidos, por lo general
resultan imposibles de leer si no se dispone
del libro con el código clave”.
9. ¿Qué tipos de criptografía se emplean en la actualidad?
Criptografía estratégica:
Actualmente su aplicación se ha extendido a diversas actividades basadas en el uso
de la tecnología de la información y las comunicaciones (TIC) constituyéndose en
elemento indispensable para garantizar la seguridad en el manejo de la
información. Estas herramientas han permitido proteger cada carácter con una
llave que puede conformarse hasta por 256 bits. Es decir, que para encontrar esta
llave en particular, tendríamos que buscarla entre combinaciones posibles”.
10. La criptografía simétrica:
Es en donde se usa la misma contraseña o llave
para encriptar y para desencriptar la
información. El usar la misma llave para
encriptar y para desencriptar es un problema a
la hora de enviar datos, ya que el remitente
debe enviar previamente la llave al destinatario
para que éste pueda desencriptar la
información, y debe hacerlo por un canal
seguro. Por lo tanto la criptografía simétrica se
emplea especialmente para almacenamiento
seguro de datos (solamente una persona
necesita la llave). Para envío de datos es
preferible la criptografía asimétrica”.
11. La criptografía asimétrica:
Es la que emplea un esquema de llave pública y llave privada. La información se
encriptar con la llave pública, y se desencriptar con la llave privada. No presenta el
problema de transmisión de la llave que tiene la criptografía simétrica, ya que la
llave pública no sirve para desencriptar la información”.
Volver
12. Teoría de grafos
En matemáticas y en ciencias de la computación, la teoría de grafos (también
llamada teoría de las gráficas) estudia las propiedades de los grafos (también
llamadas gráficas). Un grafo es un conjunto, no vacío, de objetos llamados vértices (o
nodos) y una selección de pares de vértices, llamados aristas (edges en inglés) que
pueden ser orientados o no. Típicamente, un grafo se representa mediante una serie
de puntos (los vértices) conectados por líneas (las aristas).
13. Estructuras de datos en la representación de grafos
Existen diferentes formas de almacenar grafos en una computadora. La estructura
de datos usada depende de las características del grafo y el algoritmo usado para
manipularlo. Entre las estructuras más sencillas y usadas se encuentran las listas y
las matrices, aunque frecuentemente se usa una combinación de ambas. Las listas
son preferidas en grafos dispersos porque tienen un eficiente uso de la memoria.
Por otro lado, las matrices proveen acceso rápido, pero pueden consumir grandes
cantidades de memoria.
Volver
14. Lógica matemática
La lógica matemática es una parte de la lógica y las matemáticas, que consiste en el
estudio matemático de la lógica y en la aplicación de este estudio a otras áreas de las
matemáticas. La lógica matemática guarda estrechas conexiones con la ciencias de la
computación y la lógica filosófica.
La lógica matemática estudia los sistemas formales en relación con el modo en el que
codifican conceptos intuitivos de objetos matemáticos como
conjuntos, números, demostraciones y computación.
15. La lógica matemática suele dividirse
en cuatro subcampos:
•teoría de modelos
•teoría de la demostración
•teoría de conjuntos
•teoría de la recursión.
La investigación en lógica
matemática ha jugado un papel
fundamental en el estudio de los
fundamentos de las matemáticas.
La lógica matemática fue también
llamada lógica simbólica. El primer
término todavía se utiliza como
sinónimo suyo, pero el segundo se
refiere ahora a ciertos aspectos de la
teoría de la demostración.
La lógica matemática no es la "lógica
de las matemáticas" sino la
"matemática de la lógica". Incluye
aquellas partes de la lógica que
pueden ser modeladas y estudiadas
matemáticamente.
Volver
16. Teoría de tipos de datos
En los lenguajes de programación un tipo de dato es un atributo de una parte de los datos que indica al
ordenador (y/o al programador) algo sobre la clase de datos sobre los que se va a procesar. Esto incluye
imponer restricciones en los datos, como qué valores pueden tomar y qué operaciones se pueden realizar.
Tipos de datos comunes son: enteros, números de coma flotante (decimales), cadenas
alfanuméricas, fechas, horas, colores, coches o cualquier cosa que se nos ocurra.
Los colores, por otra parte, se representan como tres bytes denotando la cantidad de rojo, verde y azul, y
una cadena de caracteres representando el nombre del color; las operaciones permitidas incluyen la
adición y sustracción, pero no la multiplicación.
Un tipo de dato puede ser también visto como una limitación impuesta en la interpretación de los datos en
un sistema de tipificación, describiendo la representación, interpretación y la estructura de los valores u
objetos almacenados en la memoria del ordenador. El sistema de tipificación usa información de los tipos
de datos para comprobar la verificación de los programas que acceden o manipulan los datos.
Volver
18. Teoría de la computación
La teoría de la computación o informática teórica (en inglés Theoretical Computer
Science) es una ciencia cuyas bases están establecidas básicamente en principios
matemáticos y conjunta varias ramas de las matemáticas. Es un campo
especialmente rico para la indagación filosófica. Alan Turing, establece la relación
entre la lógica y la computación electrónica, plantea la famosa Máquina de Turing, la
cual es la base de la Teoría de la Computación actual. Turing es, por
tanto, considerado el padre de la Teoría de la Computación.
La teoría de la computación se vale de la lógica matemática, teoría de
conjuntos, teoría de grafos, álgebra matricial, álgebra relacional, etc.
Principales subramas Otras subramas
•Teoría de autómatas •Modelos de cómputo
•Teoría de la •Teoría algorítmica de la información
compatibilidad •Especificación y verificación formal
•Teoría de la complejidad •La Teoría del aprendizaje
computacional computacional
•Teoría de tipos
Volver
19. Teoría de autómatas
Un autómata es un sistema secuencial, aunque en ocasiones la palabra es utilizada
también para referirse a un robot. Puede definirse como un equipo electrónico
programable en lenguaje no informático y diseñado para controlar, en tiempo real y en
ambiente industrial, procesos secuenciales. Sin embargo, la rápida evolución de los
autómatas hace que esta definición no esté cerrada.
Un autómata programable se puede considerar como un sistema basado en
un microprocesador, siendo sus partes fundamentales la Unidad Central de Proceso
(CPU), la Memoria y el Sistema de Entradas y Salidas (E/S).
Volver
20. Teoría de la computabilidad
La Teoría de la computabilidad
es la parte de la computación
que estudia los problemas de
decisión que pueden ser
resueltos con un algoritmo o
equivalentemente con una
máquina de Turing.
La teoría de la complejidad
computacional clasifica las
funciones computables según el
uso que hacen de diversos
recursos en diversos tipos de
máquina.
Volver
21. Teoría de la complejidad computacional
La teoría de la complejidad computacional es la rama de la teoría de la computación
que estudia, de manera teórica, los recursos requeridos durante el cómputo de un
algoritmo para resolver un problema. Los recursos comúnmente estudiados son el
tiempo (mediante una aproximación al número y tipo de pasos de ejecución de un
algoritmo para resolver un problema) y el espacio (mediante una aproximación a la
cantidad de memoria utilizada para resolver un problema). Se pueden estudiar
igualmente otros parámetros, tales como el número de procesadores necesarios para
resolver el problema en paralelo. La teoría de la complejidad difiere de la teoría de la
compatibilidad en que ésta se ocupa de la factibilidad de expresar problemas como
algoritmos efectivos sin tomar en cuenta los recursos necesarios para ello.
22. Clases de complejidad:
Los problemas de decisión se clasifican en conjuntos de complejidad
comparable llamados clases de complejidad.
La clase de complejidad P es el conjunto de los problemas de
decisión que pueden ser resueltos en una máquina determinista en
tiempo poli nómico, lo que corresponde intuitivamente a problemas
que pueden ser resueltos aún en el peor de sus casos.
La clase de complejidad NP es el conjunto de los problemas de
decisión que pueden ser resueltos por una máquina no determinista
en tiempo poli nómico.
Esta clase contiene muchos problemas que se desean resolver en la
práctica, incluyendo el problema de satisfacibilidad booleana y el
problema del viajante, un camino Hamiltoniano para recorrer todos
los vértices una sola vez. Todos los problemas de esta clase tienen la
propiedad de que su solución puede ser verificada efectivamente.
Volver
24. Análisis de algoritmos
El análisis de algoritmos es una parte
importante de la Teoría de
complejidad computacional más
amplia, que provee estimaciones
teóricas para los recursos que
necesita cualquier algoritmo que
resuelva un problema computacional
dado. Estas estimaciones resultan ser
bastante útiles en la búsqueda de
algoritmos eficientes.
Volver
25. Algoritmos
Un algoritmo es un conjunto finito de pasos
definidos, estructurados en el tiempo y formulados con base a
un conjunto finito de reglas no ambiguas, que proveen un
procedimiento para dar la solución o indicar la falta de esta a
un problema en un tiempo determinado. [Rodolfo Quispe-
Otazu, 2004]
26. Características:
Las características fundamentales que
debe cumplir todo algoritmo son:
•Bigüedad, cada paso del algoritmo
debe indicar la acción a realizar sin
criterios de interpretación.
•Ser finito: Un número específico y
numerable de pasos debe componer al
algoritmo, el cual deberá finalizar al
completarlos.
•Tener cero o más entradas: Datos son
proporcionados a un algoritmo como
insumo (o estos son generados de
alguna forma) para llevar a cabo las
operaciones que comprende.
27. •Tener una o más salidas:
Debe siempre devolver un resultado; de
nada sirve un algoritmo que hace algo y
nunca sabemos que fue. El devolver un
resultado no debe ser considerado como
únicamente “verlos” en forma impresa o en
pantalla, como ocurre con las
computadoras. Existen muchos otros
mecanismos susceptibles de programación
que no cuentan con una salida de
resultados de esta forma. Por salida de
resultados debe entenderse todo medio o
canal por el cual es posible apreciar los
efectos de las acciones del algoritmo.
•Efectividad:
El tiempo y esfuerzo por cada paso
realizado debe ser preciso, no usando nada
más ni nada menos que aquello que se
requiera para y en su ejecución
Volver
28. Estructuras de datos
En programación, una estructura de datos es una forma de organizar un
conjunto de datos elementales con el objetivo de facilitar su
manipulación. Un dato elemental es la mínima información que se tiene
en un sistema.
Una estructura de datos define la organización e interrelación de éstos y
un conjunto de operaciones que se pueden realizar sobre ellos.
29. Las operaciones básicas Otras operaciones que se
son: pueden realizar son:
•Alta, adicionar un nuevo •Ordenamiento, de los
valor a la estructura. elementos pertenecientes a
•Baja, borrar un valor de la la estructura.
estructura. •Apareo, dadas dos
•Búsqueda, encontrar un estructuras originar una
determinado valor en la nueva ordenada y que
estructura para realizar una contenga a las apareadas.
operación con este valor, en
forma secuencial o binario
(siempre y cuando los datos
estén ordenados).
Cada estructura ofrece ventajas y desventajas en relación a la simplicidad
y eficiencia para la realización de cada operación. De esta forma, la
elección de la estructura de datos apropiada para cada problema depende
de factores como la frecuencia y el orden en que se realiza cada operación
sobre los datos. Volver
31. Compiladores
Los compiladores son programas o herramientas encargadas de compilar. Un compilador
toma un texto (código fuente) escrito en un lenguaje de alto nivel y lo traduce a un lenguaje
comprensible por las computadoras (código objeto).
Básicamente, existen dos grandes formas de ejecutar programas: programas compilados
(previamente pasados por un compilador) y programas interpretados (necesitan pasar por un
intérprete para ejecutarse en tiempo real).
32. Características de un compilador
Generalmente un compilador se divide en dos partes:
•Front End: parte que analiza el código fuente, comprueba su validez, genera el árbol de
derivación y rellena los valores de la tabla de símbolos. Parte que suele ser independiente de
la plataforma o sistema operativo para el que funcionará.
•Back End: parte en donde se genera el código máquina exclusivo para una plataforma a
partir de lo analizado en el front end.
Por lo general el resultado del back end no puede ser ejecutado directamente, se necesita
pasar por un proceso de enlazado (linker).
Existen varios tipos de compiladores:
•Compiladores cruzados
•Compiladores optimizadores
•Compiladores de una sola pasada
•Compiladores de varias pasadas
•Compiladores JIT (Just In Time).
Volver
33. Teoría de lenguajes de programación
Teoría del lenguaje de programación (conocido comúnmente como PLT) es un
rama de informática ese se ocupa del diseño, de la puesta en práctica, del análisis,
de la caracterización, y de la clasificación de lenguajes de programación y lenguaje
de programación características.
Es un campo multidisciplinario, ambos dependiendo de (y en algunos casos
afectando) matemáticas, tecnología de dotación lógica, lingüística, e incluso
ciencias cognoscitivas. Es un rama bien-reconocido de la informática, y en fecha
2006, un área activa de la investigación, con los resultados publicados en numeroso
diarios dedicado al PLT, así como en general publicaciones de la informática y de
la ingeniería. Volver
35. Minería de datos
Algunos sistemas que son sólo parcialmente conocidos, producen una cantidad
inmensa de datos; estos datos con frecuencia contienen valiosa información que
puede resultar muy útil y ser vista como vetas de oro por los ojos de un ejecutivo
de una corporación.
Las dimensiones de las base de datos grandes (montañas) y sus velocidades de
crecimiento, hacen muy difícil para un humano su análisis y la extracción de
alguna información importante (oro). Aún con el uso de herramientas estadísticas
clásicas esta tarea es casi imposible.
36. El descubrimiento de
conocimiento en base de datos
(KDD) combina las técnicas
tradicionales con numerosos
recursos desarrollados en el
área de la inteligencia artificial.
En estas aplicaciones el
término "Minería de Datos"
(Data mining) ha tenido más
aceptación.
En algunos casos las
herramientas provenientes de
la inteligencia artificial son
nuevas, no del todo
comprendidas y carentes de un
soporte teórico formal. Pero en
este caso el objetivo es tan
valioso, que los resultados
prácticos han rebasado a la
elegancia académica.
Volver
38. Programación concurrente
Un programa concurrente es un programa que tiene mas de una línea lógica de ejecución, es decir, es un
programa que parece que varias partes del mismo se ejecutan simultáneamente. Un ejemplo de esto es un
programa que realice determinada función y, simultáneamente, exponga datos en la pantalla. Un programa
concurrente puede correr en varios procesadores simultáneamente o no. Esta importancia de la concurrencia
es especialmente destacable en sistemas operativos como Linux, que además de concurrentes, presentan
unos mecanismos de concurrencia estables.
El concepto fundamental de la programación concurrente es la noción de proceso. El termino proceso fue
utilizado por primera vez por los diseñadores del sistema Multics en los años 60’s. Desde entonces, el
termino proceso, utilizado a veces como sinónimo de tarea, ha tenido muchas definiciones.
Volver
39. Redes de computadoras
Una red de computadoras es un sistema de comunicación de datos que enlaza
varias computadoras y periféricos como impresoras, sistemas de almacenamiento
masivo, bibliotecas de CD-ROM, módem, fax y muchos otros dispositivos.
La más simple de las redes es una caja de conexiones y un cable, que permite
compartir la misma impresora a varios usuarios. Con este sistema, sólo hay un
usuario que puede enviar trabajos de impresión en cada momento.
Los conectores serie o paralelo ofrecen un modo económico de montar una
red, pero tienen capacidades limitadas de impresión y transferencia de archivos.
Para montar una red multiusuario, realmente útil, hacen falta tarjetas de interfaz
de red (NICs = Netware Interface Cards) y sistemas de cableado.
Volver
40. Computo paralelo
La computación paralela es una técnica de programación en la que muchas instrucciones se ejecutan
simultáneamente. Se basa en el principio de que los problemas grandes se pueden dividir en partes más
pequeñas que pueden resolverse de forma concurrente ("en paralelo"). Existen varios tipos de
computación paralela: paralelismo a nivel de bit, paralelismo a nivel de instrucción, paralelismo de datos
y paralelismo de tareas. Durante muchos años, la computación paralela se ha aplicado en la computación
de altas prestaciones, pero el interés en ella ha aumentado en los últimos años debido a las restricciones
físicas que impiden el escalado en frecuencia. La computación paralela se ha convertido en el paradigma
dominante en la arquitectura de computadores, principalmente en los procesadores multinúcleo. Sin
embargo, recientemente, el consumo de energía de los ordenadores paralelos se ha convertido en una
preocupación.
41. Los ordenadores paralelos se pueden clasificar según el nivel de paralelismo que
admite su hardware: los ordenadores multinúcleo y multiproceso tienen varios
elementos de procesamiento en una sola máquina, mientras que los clusters, los
MPP y los grids emplean varios ordenadores para trabajar en la misma tarea.
Los programas de ordenador paralelos son más difíciles de escribir que los
secuenciales porque la concurrencia introduce nuevos tipos de errores de
software, siendo las condiciones de carrera los más comunes. La comunicación y la
sincronización entre las diferentes subtareas son típicamente las grandes barreras
para conseguir un buen rendimiento de los programas paralelos. El incremento de
velocidad que consigue un programa como resultado de la paralelisacion viene
dado por la ley de Amdahl.
Volver
42. Sistemas Distribuidos
La computación distribuida o informática en
malla, es un nuevo modelo para resolver
problemas de computación masiva utilizando un
gran número de computadoras organizadas en
racimos incrustados en una infraestructura de
telecomunicaciones distribuida.
Un sistema distribuido se define como: una
colección de computadoras separados físicamente
y conectados entre sí por una red de
comunicaciones distribuida; cada máquina posee
sus componentes de hardware y software que el
usuario percibe como un solo sistema (no necesita
saber qué cosas están en qué máquinas).
El usuario accede a los recursos remotos (RPC) de la misma manera en que accede a
recursos locales, o un grupo de computadores que usan un software para conseguir un
objetivo en común. Los sistemas distribuidos deben ser muy confiables, ya que si un
componente del sistema se descompone otro componente debe de ser capaz de
reemplazarlo, esto se denomina Tolerancia a Fallos. El tamaño de un sistema distribuido
puede ser muy variado, ya sean decenas de hosts (red de área local), centenas de hosts (red
de área metropolitana), y miles o millones de hosts (Internet); esto se denomina
escalabilidad.
Volver
44. Inteligencia Artificial
Se denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación dedicada al
desarrollo de agentes racionales no vivos.
Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su
entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas), y
entiéndase a la racionalidad como la característica que posee una elección de ser correcta, más
específicamente, de tender a maximizar un resultado esperado (este concepto de racionalidad es más
general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta
disciplina).
45. Por lo tanto, y de manera más
específica la inteligencia artificial es la
disciplina que se encarga de construir
procesos que al ser ejecutados sobre
una arquitectura física producen
acciones o resultados que maximizan
una medida de rendimiento
determinada, basándose en la
secuencia de entradas percibidas y en
el conocimiento almacenado en tal
arquitectura.
Existen distintos tipos de conocimiento
y medios de representación del
conocimiento, el cual puede ser
cargado en el agente por su diseñador
o puede ser aprendido por el mismo
agente utilizando técnicas de
aprendizaje.
46. También se distinguen varios tipos de procesos válidos para obtener resultados racionales,
que determinan el tipo de agente inteligente. De más simples a más complejos, los cinco
principales tipos de procesos son:
•Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en
seres vivos).
•Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones
posibles.
•Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
•Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y
humanos).
•Razonamiento mediante una lógica formal (análogo al pensamiento abstracto humano).
47. También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y
producidas, respectivamente por sensores físicos y sensores mecánicos en
máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y
salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación
automática, la habilidad de responder a diagnósticos y a consultas de los
consumidores, reconocimiento de escritura, reconocimiento del habla y
reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en
campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran
variedad de aplicaciones de software, juegos de estrategia como ajedrez de
computador y otros videojuegos.
Volver
48. Razonamiento Automatizado
Razonamiento automatizado es un área de informática dedicado a entender diversos
aspectos de razonamiento de una manera que permite la creación del software que permite
que razonen las computadoras totalmente o casi totalmente automáticamente. Como
tal, generalmente se considera un subcampos de inteligencia artificial, solamente también
tiene conexiones fuertes a informática teórica e iguale filosofía.
Las subzonas desarrolladas del razonamiento automatizado están probablemente el probar
automatizado del teorema (y el subcampo menos automatizado pero más pragmático de el
probar interactivo del teorema) y comprobación automatizada de la prueba (visto como
razonamiento correcto garantizado bajo asunciones fijas), solamente trabajo extenso
también se ha hecho en razonar cerca analogía, inducción y abducción.
49. Otros asuntos importantes están razonando debajo incertidumbre y no-
mono tónico razonamiento. Una parte importante del campo de la
incertidumbre es la de la argumentación, donde otros apremios del
minimality y de la consistencia se aplican encima de la deducción
automatizada más estándar. El sistema de Oscar del Pollock de Juan es un
ejemplo de un sistema automatizado de la argumentación que sea más
específico que siendo justo un proveer automatizado del teorema. La
argumentación formal es subcampo de la inteligencia artificial.
Las herramientas y las técnicas incluyen las lógicas y el calculi clásicos del
teorema automatizado que prueba, pero también lógica confusa, Inferencia
Bayesian, razonando con entropía máxima y una gran cantidad de técnicas
ad hoc menos formales.
Volver
50. Robótica
La robótica es un concepto de dominio publico.
La mayor parte de la gente tiene una idea de lo
que es la robótica, sabe sus aplicaciones y el
potencial que tiene; sin embargo, no conocen el
origen de la palabra robot, ni tienen idea del
origen de las aplicaciones útiles de la robótica
como ciencia.
La robótica como hoy en día la
conocemos, tiene sus orígenes hace miles de
anos. Nos basaremos en hechos registrados a
través de la historia, y comenzaremos aclarando
que antiguamente los robots eran conocidos con
el nombre de autómatas, y la robótica no era
reconocida como ciencia, es mas, la palabra
robot surgió hace mucho después del origen de
los autómatas.
51. Desde el principio de los tiempos, el hombre ha deseado crear vida artificial. Se
ha empeñado en dar vida a seres artificiales que le acompañen en su
morada, seres que realicen sus tareas repetitivas, tareas pesadas o difíciles de
realizar por un ser humano. De acuerdo a algunos autores, como J. J. C. Smart y
Jasia Reichardt, consideran que el primer autómata en toda la historia fue Adán
creado por Dios. De acuerdo a esto, Adán y Eva son los primero autómatas
inteligentes creados, y Dios fue quien los programó y les dio sus primeras
instrucciones que debieran de seguir. Dentro de la mitología griega se puede
encontrar varios relatos sobre la creación de vida artificial, por ejemplo, Prometeo
creo el primer hombre y la primer mujer con barro y animados con el fuego de
los cielos. De esta manera nos damos cuenta de que la humanidad tiene la
obsesión de crear vida artificial desde el principio de los tiempos. Muchos han
sido los intentos por lograrlo.
Los hombres creaban autómatas como un pasatiempo, eran creados con el fin de
entretener a su dueño. Los materiales que se utilizaban se encontraban al alcance
de todo el mundo, esto es, utilizaban maderas resistentes, metales como el cobre
y cualquier otro material moldeable, esto es, que no necesitara o requiriera de
algún tipo de transformación para poder ser utilizado en la creación de los
autómatas.
Estos primeros autómatas utilizaban, principalmente, la fuerza bruta para poder
realizar sus movimientos. A las primeras maquinas herramientas que ayudaron al
hombre a facilitarle su trabajo no se les daba el nombre de autómata, sino más
bien se les reconocía como artefactos o simples maquinas.
Volver
52. Visión por computador
La Visión artificial, también conocida como Visión por Computador (del inglés Computer Visión) o
Visión técnica, es un subcampo de la inteligencia artificial. El propósito de la visión artificial es
programar un computador para que "entienda" una escena o las características de una imagen. Esquema
de relaciones entre visión por computadora y otras áreas afines.
53. Los objetivos típicos de la visión artificial incluyen:
•La detección, segmentación, localización y reconocimiento de ciertos objetos en imágenes.
•La evaluación de los resultados.
•Registro de diferentes imágenes de una misma escena u objeto, i.e., hacer concordar un
mismo objeto en diversas imágenes.
•Seguimiento de un objeto en una secuencia de imágenes.
•Mapeo de una escena para generar un modelo tridimensional de la escena; tal modelo
podría ser usado por un robot para navegar por la escena.
•Estimación de las posturas tridimensionales de humanos.
•Búsqueda de imágenes digitales por su
•contenido.
•Estos objetivos se consiguen por medio de reconocimiento de patrones,
• aprendizaje estadístico, geometría de
proyección, procesado de imágenes,
teoría de gráficos y otros campos.
•La visión artificial cognitiva está muy
relacionada con la psicología cognitiva
y la computación biológica.
Volver
54. Aprendizaje Automático
El Aprendizaje Automático o Aprendizaje de Máquinas es una rama de la Inteligencia
Artificial cuyo objetivo es desarrollar técnicas que permitan a las computadoras aprender.
De forma más concreta, se trata de crear programas capaces de generalizar
comportamientos a partir de una información no estructurada suministrada en forma de
ejemplos. Es, por lo tanto, un proceso de inducción del conocimiento.
En muchas ocasiones el campo de actuación del Aprendizaje Automático se solapa con el
de la Estadística, ya que las dos disciplinas se basan en el análisis de datos. Sin embargo, el
Aprendizaje Automático se centra más en el estudio de la Complejidad Computacional de
los problemas. Muchos problemas son de clase NP-hard, por lo que gran parte de la
investigación realizada en Aprendizaje Automático está enfocada al diseño de soluciones
factibles a esos problemas. El Aprendizaje Automático puede ser visto como un intento de
automatizar algunas partes del Método Científico mediante métodos matemáticos.
55. El Aprendizaje Automático tiene una amplia gama de aplicaciones, incluyendo
motores de búsqueda, diagnósticos médicos, detección de fraude en el uso de
tarjetas de crédito, análisis del mercado de valores, clasificación de secuencias de
ADN, reconocimiento del habla y del lenguaje escrito, juegos y robótica.
Tipos de algoritmos
Los diferentes algoritmos de Aprendizaje Automático se agrupan en una
taxonomía en función de la salida de los mismos. Algunos tipos de algoritmos son:
•Aprendizaje supervisado (El algoritmo produce una función que establece una
correspondencia entre las entradas y las salidas deseadas del sistema. )
•Aprendizaje no supervisado (Todo el proceso de modelado se lleva a cabo sobre
un conjunto de ejemplos formado tan sólo por entradas al sistema. No se tiene
información sobre las categorías de esos ejemplos.)
•Aprendizaje por refuerzo (El algoritmo aprende observando el mundo que le
rodea. Su información de entrada es el feedback o retroalimentación que obtiene
del mundo exterior como respuesta a sus acciones.)
•Transducción (Trata de predecir las categorías de los futuros ejemplos basándose
en los ejemplos de entrada, sus respectivas categorías y los ejemplos nuevos al
sistema.)
•Aprendizaje multi-tarea (Métodos de aprendizaje que usan conocimiento
previamente aprendido por el sistema de cara a enfrentarse a problemas parecidos
a los ya vistos.)
56. En el aprendizaje automático podemos obtener 3 tipos de conocimiento los cuáles son:
1. Crecimiento
Es el que se adquiere de lo que nos rodea, el cual guarda la información en la memoria como
si dejara huellas.
2. Reestructuración
Al interpretar los conocimientos el individuo razona y genera nuevo conocimiento al cual se
le llama de reestructuración.
3. Ajuste
Es el que se obtiene al generalizar varios conceptos o generando los propios.
Los tres tipos se efectúan durante un proceso de aprendizaje automático pero la importancia
de cada tipo de conocimiento depende de las características de lo que se está tratando de
aprender.
El aprendizaje es más que una necesidad, es un factor primordial para satisfacer las
necesidades de la inteligencia artificial.
Volver
58. Computación grafica
La computación gráfica o gráficos por ordenador es el campo de la informática
visual, donde se utilizan computadoras tanto para generar imágenes visuales sintéticamente
como integrar o cambiar la información visual y espacial probada del mundo real.
El primer mayor avance en la gráfica realizada por computadora era el desarrollo de
Sketchpad en 1962 por Ivan Sutherland.
Este campo puede ser dividido en varias áreas: Interpretado 3D en tiempo real (a menudo
usado en juegos de vídeo), animación de computadora, captura de vídeo y creación de vídeo
interpretado, edición de efectos especiales (a menudo usado para películas y
televisión), edición de imagen, y modelado (a menudo usado para ingeniería y objetivos
médicos).
59. El desarrollo en la gráfica realizada por computadora
fue primero alimentado por intereses académicos y
patrocinio del gobierno. Sin embargo, cuando las
aplicaciones verdaderas mundiales de la gráfica
realizada por computadora (CG) en televisión y
películas demostraron una alternativa viable a efectos
especiales más a las tradicionales y las técnicas de
animación, los comerciales han financiado cada vez
más el avance de este campo.
A menudo se piensa que la primera película para usar
gráficos realizados por computadora era 2001: A Space
Odyssey (1968), que intentó mostrar como las
computadoras serían mucho más gráficas en el futuro.
Sin embargo, todos los gráficos de computadora en
aquella película eran la animación dibujada a mano
(por ejemplo en las pantallas de televisión se simulaba
el comportamiento de las computadoras con dibujos), y
las secuencias de efectos especiales fue producida
completamente con efectos ópticos y modelos
convencionales.
Quizás el primer uso de la gráfica realizada por
computadora expresamente para ilustrar gráfica
realizada por computadora estaba en Futureworld
(1976), que incluyó una animación de una cara humana
y mano - producido por Ed Catmull y Fred Parke en la
Universidad de Utah. Volver
60. Procesamiento digital de imágenes
El termino procesamiento digital de imágenes versa sobre la manipulación y análisis
de imágenes por computadora. De aquí en adelante se usara el termino procesado de
imágenes refiriéndose a procesamiento digital de imágenes.
El procesamiento de imagen puede considerarse como un tipo especial del
procesamiento digital en dos dimensiones, el cual se usa para revelar información
sobre imágenes y que
involucra hardware, software y soporte teórico.
Volver
61. Geometría computacional
Geometría Computacional es un ramo de la
Ciencia de la Computación que estudia
algoritmos y estructuras de datos para la
resolución computacional de problemas
geométricos. Además de eso, algunos
problemas puramente geométricos surgen del
estudio de algoritmos y, por eso, también son
considerados parte de la geometría
computacional.
Los problemas en Geometría Computacional
son tratados en términos de objetos
geométricos elementales como
puntos, rectas, segmentos de
recta, polígonos, etc. En general, el objetivo de
esta disciplina es resolver los problemas
geométricos de forma eficiente, es
decir, utilizando el más pequeño número
posible de operaciones simples sobre los
elementos geométricos. La Geometría
Computacional da enfuse la complexidades
computacional de los problemas y algoritmos
estudiados.
62. La Geometría Computacional emergió de áreas de desarrollo y análisis de
algoritmos a mediados de la década de 1970. El primer uso del término
Geometría Computacional con este sentido ocurrió en 1975.
La geometría computacional estudia tanto problemas geométricos
clásicos, como también problemas motivados por diversas áreas de la
computación como Computación Gráfica, dibujo asistido por ordenador
(CAD/CAM), robótica, sistemas de información geográfica, visión
computacional, optimización combinatoria, procesamiento de imágenes, teoría
de los grafos, dibujo de circuitos integrados, aprendizaje de máquina etc.
Volver
64. Bioinformatica
Bioinformatica es una disciplina científica emergente que utiliza tecnología de la
información para organizar, analizar y distribuir información biológica con la finalidad de
responder preguntas complejas en biología. Bioinformatica es un área de investigación
multidisciplinaria, la cual puede ser ampliamente definida como la interface entre dos
ciencias: Biología y Computación y esta impulsada por la incógnita del genoma humano y la
promesa de una nueva era en la cual la investigación genómica puede ayudar dramáticamente
a mejorar la condición y calidad de vida humana.
Avances en la detección y tratamiento de enfermedades y la producción de alimentos
genéticamente modificados son entre otros ejemplos de los beneficios mencionados más
frecuentemente. Involucra la solución de problemas complejos usando herramientas de
sistemas y computación. También incluye la colección, organización, almacenamiento y
recuperación de la información biológica que se encuentra en base de datos.
65. Según la definición del Centro Nacional para la Información Biotecnológica "National
Center for Biotechnology Information" (NCBI por sus siglas en Inglés, 2001):
"Bioinformatica es un campo de la ciencia en el cual confluyen varias disciplinas tales
como: biología, computación y tecnología de la información. El fin último de este
campo es facilitar el descubrimiento de nuevas ideas biológicas así como crear
perspectivas globales a partir de las cuales se puedan discernir principios unificadores
en biología. Al comienzo de la "revolución genómica", el concepto de Bioinformatica se
refería sólo a la creación y mantenimiento de base de datos donde se almacena
información biológica, tales como secuencias de nucleótidos y aminoácidos. El
desarrollo de este tipo de base de datos no solamente significaba el diseño de la misma
sino también el desarrollo de interfaces complejas donde los investigadores pudieran
acceder los datos existentes y suministrar o revisar datos
Volver
66. Computación cuántica
La computación cuántica es producto de la combinación de la mecánica cuántica y la
teoría de la computación, que se enfoca a estudiar si un problema puede ser resuelto
utilizando un procedimiento programado en una computadora, así como la cantidad
de recursos como energía y tiempo que se deben aplicar en caso de existir solución. En
consecuencia, la computación cuántica tiene como propósito la utilización de las
teorías de las que surge para incrementar la capacidad de las computadoras para
procesar información y solucionar problemas.
En la computación cuántica también convergen otras disciplinas como la
microelectrónica, la nanotecnología, las matemáticas, la criptografía, entre otras.
67. Los científicos se plantearon desde hace algunos años la interrogante de cuáles serían
las propiedades de una computadora en la cual los ceros y los unos (sistema binario)
estuvieran codificados en sistemas de dimensiones atómicas (un electrón, un
fotón, un átomo). En nuestro mundo, el procesamiento y almacenamiento de la
información sigue las leyes de la llamada mecánica clásica. Al pasar a sistemas de
tamaños atómicos las reglas cambiarían y la mecánica cuántica regiría el
comportamiento de los equipos. Los ceros y unos con que se maneja la información
actual en nuestros equipos de cómputo, denominados bits, se transformarían en
qubits (contracción del término inglés quantumbits), o bits cuánticos, siguiendo
reglas muy diferentes. Los qubits son los componentes básicos de una computadora
cuántica y están formados a partir de partículas subatómicas que interactúan para el
intercambio de información, lo que permitirá computadoras más poderosas para el
procesamiento de información.
68. Las computadoras clásicas o digitales codifican
información utilizando números binarios y pueden
hacer cálculos de un conjunto de números de una sola
vez cada uno. En cambio las computadoras cuánticas en
teoría codificarían información como una serie de
estados mecánicos cuánticos tales como las direcciones
de los electrones o las polarizaciones de un fotón, estas
características entre otras, permitirán la realización de
diversos cálculos simultáneamente a una velocidad y
capacidad nunca antes vistos.
Hasta el momento en varios laboratorios del mundo se
ha logrado con éxito arreglos y enlaces cuánticos de dos
y hasta tres qubits de estado sólido, materiales nano
estructurados que se localizan en chips que
interacciona y podrían formar un arsenal de qubits.
Otros de los temas relevantes en el campo de computación cuántica se refieren al desarrollo
de los algoritmos cuánticos. Un algoritmo (convencional) es un procedimiento matemático
programado en computadora. La creación de un algoritmo cuántico se ha convertido en uno
de los grandes retos que enfrentan la ciencia en la actualidad pues dicho algoritmo debe
resolver el problema para el que fue diseñado y además debe ser más veloz que cualquier
algoritmo convencional para resolver cualquier problema. Computadoras equipadas con
algoritmos cuánticos abren posibilidades antes no consideradas, disminuciones
exponenciales en el tiempo de procesamiento y realización de operaciones en paralelo sin
necesidad de agregar procesadores a la computadora.
Volver