Este documento discute la evolución de los sistemas de gestión de bases de datos desde 1963 hasta la actualidad. Detalla los primeros sistemas como IDS de Charles Bachman y IMS e IBM, y cómo surgieron otros sistemas como TOTAL. También describe cómo el modelo relacional de Edgar Codd simplificó el diseño de bases de datos y cómo SQL se estableció como un estándar. Finalmente, señala que aunque el modelo relacional simplificó conceptos, todavía hay desafíos en términos de eficiencia y usabilidad.
C:\Fakepath\Diana Presentacion De Los Tipos Y Evoluciones De Los Sistemasanaidellitynhhg2331
El documento describe la evolución de los sistemas operativos a través de las generaciones de hardware de computadoras, desde las primeras máquinas con tubos de vacío que no tenían sistemas operativos hasta las computadoras personales modernas con sistemas operativos como MS-DOS y UNIX. También explica los diferentes tipos de sistemas como sistemas físicos, abstractos, cerrados, abiertos y aislados.
El documento describe cómo las tecnologías de computación y comunicación han evolucionado en los últimos siglos y cómo esto ha transformado la forma en que se organizan los sistemas computacionales. Específicamente, explica cómo las redes de computadoras han reemplazado el modelo tradicional de una sola computadora central al permitir que un gran número de máquinas interconectadas realicen trabajo de forma distribuida. Además, detalla algunos usos comunes de las redes en entornos empresariales, como compartir impresoras y recursos, así como acceder
El documento presenta una descripción general sobre la evolución de los sistemas operativos, incluyendo su definición, clasificación, funciones básicas y algunos ejemplos históricos. Explica que los sistemas operativos son programas que permiten la interacción entre hardware, software y usuarios, y que han evolucionado desde las primeras generaciones basadas en bulbos hasta las actuales de tipo Windows, Macintosh y UNIX.
El documento describe cómo los usuarios de Mac ahora pueden usar Windows debido a que ambos sistemas operativos funcionan en procesadores Intel. También habla sobre cómo los virus informáticos son desarrollados y distribuidos en la web con fines de lucro y cómo el sistema operativo DOS fue creado originalmente por Tim Paterson y luego adquirido y mejorado por Microsoft para venderlo a IBM.
El documento presenta biografías breves de tres importantes figuras en el desarrollo de la tecnología: Bill Gates, fundador de Microsoft; Linus Torvalds, creador del núcleo Linux; y Steve Jobs, cofundador de Apple. Describe sus orígenes, educación, logros profesionales y el impacto de sus innovaciones tecnológicas en la industria y la sociedad.
1) Las primeras generaciones de computadoras (1940-1959) eran enormes, lentas y usaban tubos de vacío, pero marcaron el inicio de la computación. 2) La segunda generación (1959-1964) introdujo los transistores, haciendo las computadoras más pequeñas y rápidas. 3) La tercera generación (1964-1971) trajo las familias de computadoras compatibles y las minicomputadoras.
Este documento describe las cinco generaciones de computadoras desde la primera generación en 1951 hasta la quinta generación en la década de 1980. Cada generación se caracteriza por mejoras tecnológicas como el uso de transistores, circuitos integrados y microprocesadores que hicieron que las computadoras fueran más pequeñas, rápidas y potentes. El documento también discute el impacto de estas innovaciones tecnológicas en aplicaciones como las computadoras personales y la inteligencia artificial.
El documento resume la historia del desarrollo de los ordenadores desde 1936 hasta la actualidad. Comenzó con el Z1 de Konrad Zuse en 1936, considerado el primer ordenador programable. En las décadas siguientes se crearon los primeros transistores, chips y lenguajes de programación de alto nivel, haciendo que los ordenadores fueran más pequeños, rápidos y fáciles de usar. A partir de los años 70 y 80, empresas como Intel, Microsoft y Apple llevaron los ordenadores a un nivel más avanzado e introdujeron interfaces gráficas que revolucionaron
C:\Fakepath\Diana Presentacion De Los Tipos Y Evoluciones De Los Sistemasanaidellitynhhg2331
El documento describe la evolución de los sistemas operativos a través de las generaciones de hardware de computadoras, desde las primeras máquinas con tubos de vacío que no tenían sistemas operativos hasta las computadoras personales modernas con sistemas operativos como MS-DOS y UNIX. También explica los diferentes tipos de sistemas como sistemas físicos, abstractos, cerrados, abiertos y aislados.
El documento describe cómo las tecnologías de computación y comunicación han evolucionado en los últimos siglos y cómo esto ha transformado la forma en que se organizan los sistemas computacionales. Específicamente, explica cómo las redes de computadoras han reemplazado el modelo tradicional de una sola computadora central al permitir que un gran número de máquinas interconectadas realicen trabajo de forma distribuida. Además, detalla algunos usos comunes de las redes en entornos empresariales, como compartir impresoras y recursos, así como acceder
El documento presenta una descripción general sobre la evolución de los sistemas operativos, incluyendo su definición, clasificación, funciones básicas y algunos ejemplos históricos. Explica que los sistemas operativos son programas que permiten la interacción entre hardware, software y usuarios, y que han evolucionado desde las primeras generaciones basadas en bulbos hasta las actuales de tipo Windows, Macintosh y UNIX.
El documento describe cómo los usuarios de Mac ahora pueden usar Windows debido a que ambos sistemas operativos funcionan en procesadores Intel. También habla sobre cómo los virus informáticos son desarrollados y distribuidos en la web con fines de lucro y cómo el sistema operativo DOS fue creado originalmente por Tim Paterson y luego adquirido y mejorado por Microsoft para venderlo a IBM.
El documento presenta biografías breves de tres importantes figuras en el desarrollo de la tecnología: Bill Gates, fundador de Microsoft; Linus Torvalds, creador del núcleo Linux; y Steve Jobs, cofundador de Apple. Describe sus orígenes, educación, logros profesionales y el impacto de sus innovaciones tecnológicas en la industria y la sociedad.
1) Las primeras generaciones de computadoras (1940-1959) eran enormes, lentas y usaban tubos de vacío, pero marcaron el inicio de la computación. 2) La segunda generación (1959-1964) introdujo los transistores, haciendo las computadoras más pequeñas y rápidas. 3) La tercera generación (1964-1971) trajo las familias de computadoras compatibles y las minicomputadoras.
Este documento describe las cinco generaciones de computadoras desde la primera generación en 1951 hasta la quinta generación en la década de 1980. Cada generación se caracteriza por mejoras tecnológicas como el uso de transistores, circuitos integrados y microprocesadores que hicieron que las computadoras fueran más pequeñas, rápidas y potentes. El documento también discute el impacto de estas innovaciones tecnológicas en aplicaciones como las computadoras personales y la inteligencia artificial.
El documento resume la historia del desarrollo de los ordenadores desde 1936 hasta la actualidad. Comenzó con el Z1 de Konrad Zuse en 1936, considerado el primer ordenador programable. En las décadas siguientes se crearon los primeros transistores, chips y lenguajes de programación de alto nivel, haciendo que los ordenadores fueran más pequeños, rápidos y fáciles de usar. A partir de los años 70 y 80, empresas como Intel, Microsoft y Apple llevaron los ordenadores a un nivel más avanzado e introdujeron interfaces gráficas que revolucionaron
El documento describe la evolución de las computadoras desde dispositivos mecánicos primitivos hasta las computadoras del futuro como las computadoras cuánticas, ópticas, basadas en ADN y neuroelectrónicas. También describe la evolución de los sistemas operativos a través de cuatro generaciones y la importancia del respaldo de información y protección con antivirus.
El documento describe la evolución de las computadoras personales a través de cinco generaciones, desde los primeros computadores de los años 1940 hasta las computadoras modernas. Detalla las características clave de cada generación, incluyendo el uso de transistores, circuitos integrados y microprocesadores, así como el desarrollo de lenguajes de programación e Internet.
El documento describe la historia y evolución de las computadoras desde su creación en la década de 1950 hasta la actualidad. Explica que las primeras computadoras utilizaban bulbos y tarjetas perforadas, mientras que versiones posteriores incorporaron transistores, circuitos integrados y microprocesadores, haciéndolas más pequeñas, rápidas y eficientes. También resume las principales características de Windows Vista, Windows 7, Microsoft Office y los diferentes bits en que pueden operar las computadoras.
El documento explica la diferencia entre datos e información. Los datos son representaciones simbólicas de partes de la realidad, mientras que la información surge de estructurar y relacionar múltiples datos entre sí para darles significado y convertirlos en un insumo útil. Internet ha hecho que una gran cantidad de datos sean accesibles, aunque no todos los datos están disponibles para todos.
La computadora es un invento reciente de menos de 100 años. Ha pasado por tres generaciones principales definidas por los componentes tecnológicos utilizados. La primera generación de 1951-1958 usó bulbos, la segunda de 1959-1964 usó transistores, y la tercera de 1964-1971 usó circuitos integrados, haciendo las computadoras más pequeñas y rápidas. IBM se consolidó como líder en la industria con modelos como el IBM 650 en la segunda generación.
LA INFORMAATICA LOS PERIFERICOS DE ENTRADA SALLIDA paul.romero21
El documento define la informática educativa como la disciplina que estudia el uso de las tecnologías de la información en el proceso educativo. Explica que la informática educativa intenta acercar a los estudiantes al conocimiento y manejo de herramientas tecnológicas como el computador y cómo estas tecnologías pueden mejorar y expandir el aprendizaje de manera más significativa y creativa. También describe los principales dispositivos de entrada y salida de una computadora como el teclado, mouse, monitor y otros.
El documento describe las contribuciones de Joseph Carl Robnett Licklider y Vincent Cerf al desarrollo de Internet. Licklider introdujo el concepto de interactividad entre humanos y computadoras y propuso la idea de una red mundial de computadoras interconectadas. Cerf codiseñó junto con Robert Kahn los protocolos TCP/IP que permitieron la interconexión de redes independientemente del tipo de conexión. Ambos fueron pioneros fundamentales en el desarrollo de Internet como una red global que ha traído enormes beneficios a la sociedad.
Este documento presenta breves biografías de 10 personajes históricos de la computación: Sergei Brin, cofundador de Google; Steve Jobs, cofundador de Apple; Ray Ozzie, ex director de software de Microsoft; Mark Zuckerberg, fundador de Facebook; Larry Ellison, fundador de Oracle; Linus Torvalds, creador del núcleo Linux; Steve Ballmer, ex director ejecutivo de Microsoft; Nicholas Negroponte, fundador del MIT Media Lab; Tim Berners-Lee, inventor de la World Wide Web; y Jack Kilby, inventor del circuito integrado. El objetivo
Colegio de educación profesional técnica del estado de méxicoantoniovilchisgarcia
El documento describe las cinco generaciones de computadoras, desde la primera generación en la década de 1950 hasta la quinta generación. Cada generación se caracteriza por cambios en la tecnología subyacente como el uso de tubos de vacío, transistores y circuitos integrados. La cuarta generación introdujo los microprocesadores y las computadoras personales, mientras que la quinta generación busca mejorar el software y la interfaz humano-computadora.
El documento describe la evolución histórica de la informática desde sus orígenes hasta la quinta generación, destacando los avances tecnológicos clave en cada era. También resalta la importancia de la informática para apoyar y automatizar las actividades empresariales de manera más eficiente. Se recomienda contar con un plan que permita aprovechar mejor los sistemas de información.
El documento resume la historia del desarrollo de las redes de computadoras desde las primeras transmisiones de datos en 1940 hasta la creación de Internet. Se describe el surgimiento de ARPANET en los años 1960 para conectar instituciones militares y académicas, el desarrollo de protocolos como TCP/IP, y el crecimiento de redes como NSFNET que eventualmente dieron origen a Internet tal como la conocemos hoy.
Este documento describe los sistemas operativos. Define un sistema operativo y explica sus funciones principales como controlar los recursos del hardware y organizar archivos. Luego resume la historia y evolución de los sistemas operativos desde los primeros en los años 1950 hasta los más modernos de las décadas de 1980 y 1990. Finalmente, clasifica los sistemas operativos y menciona algunos de los más conocidos como DOS, Windows 3.1 y Unix.
El documento resume los antecedentes históricos de los sistemas multimedia desde 1945 hasta la actualidad. Algunos hitos incluyen la propuesta de Vannevar Bush de usar computadoras para almacenar y manipular información en 1945, la creación del concepto de hipertexto por Ted Nelson en 1965, y el auge de la tecnología multimedia con la integración de audio, video y gráficos en los videojuegos en la década de 1990. El documento también describe cómo los sistemas de autor y software de autor actuales permiten desarrollar aplicaciones multimedia integrando diferentes
La historia de la computadora se divide en cuatro generaciones principales. La primera generación (1951-1958) usó bulbos para procesar datos. La segunda generación (1959-1964) se hizo más rápida y pequeña con la invención del transistor. La cuarta generación (1971-presente) se caracteriza por los circuitos integrados en chips de silicio que hacen las computadoras aún más pequeñas y potentes.
La historia de la computadora se divide en cuatro generaciones principales:
1) La primera generación (1951-1958) usó bulbos y tarjetas perforadas. UNIVAC I fue una de las primeras computadoras electrónicas construidas.
2) La segunda generación (1959-1964) introdujo el transistor, haciendo las computadoras más rápidas y pequeñas.
3) La tercera generación (1964-1971) usó circuitos integrados, lo que hizo las computadoras aún más pequeñas, rápidas y eficientes energéticamente.
La historia de la computadora se divide en cuatro generaciones principales:
1) La primera generación (1951-1958) usó bulbos y tarjetas perforadas. UNIVAC I fue una de las primeras computadoras electrónicas construidas.
2) La segunda generación (1959-1964) introdujo el transistor, haciendo las computadoras más rápidas y pequeñas.
3) La tercera generación (1964-1971) usó circuitos integrados, lo que hizo las computadoras aún más pequeñas, rápidas y eficientes energéticamente.
Este documento introduce los conceptos básicos de las bases de datos, incluyendo su historia y evolución desde los primeros sistemas de almacenamiento de datos hasta el modelo relacional definido por Codd en 1970. También explica por qué es importante usar bases de datos para mejorar la disponibilidad, coherencia y seguridad de los datos, y reduce la redundancia. Finalmente, define los componentes clave de un sistema de base de datos como los lenguajes DDL, DML y DCL.
Este documento introduce los conceptos básicos de las bases de datos, incluyendo su historia y evolución desde los primeros sistemas de almacenamiento de datos hasta el modelo relacional definido por Codd en 1970. También explica por qué es importante usar bases de datos para mejorar la disponibilidad, coherencia y seguridad de los datos, y reduce la redundancia. Finalmente, define los componentes clave de un sistema de base de datos como los lenguajes DDL, DML y las vistas.
Este documento proporciona una introducción a las bases de datos, incluyendo su historia, modelos y aplicaciones. Explica que las bases de datos se desarrollaron para resolver los problemas de inconsistencia y aislamiento de datos en sistemas de archivos anteriores. Detalla los primeros modelos jerárquicos y de red, así como el modelo relacional introducido por Codd, que se ha convertido en el estándar dominante. También cubre conceptos clave como datos, campos, registros, archivos y esquemas de bases de datos, y las ventajas de los sistem
El documento describe la historia y evolución de las bases de datos desde su origen hasta el futuro. Comenzó con máquinas perforadoras de tarjetas en la década de 1860, luego se desarrollaron cintas magnéticas en la década de 1950 y discos en la década de 1960. En la década de 1970, E. F. Codd introdujo el modelo relacional de bases de datos. Las bases de datos han evolucionado a través de generaciones como las jerárquicas, de red y orientadas a objetos. El futuro incluirá bases de datos más especializadas
evolución historica de los sistemas operativos
ventajas y desventajas de los sistemas operativos distribuidos
estructura general de los sistemas operativos distribuidos
El documento resume la evolución de los sistemas operativos a través de cuatro generaciones, desde los primeros sistemas en la primera generación hasta los sistemas operativos modernos de la cuarta generación. Describe los principales sistemas operativos desarrollados en cada generación y las tecnologías clave como la multiprogramación y el tiempo compartido.
El documento describe la evolución de las computadoras desde dispositivos mecánicos primitivos hasta las computadoras del futuro como las computadoras cuánticas, ópticas, basadas en ADN y neuroelectrónicas. También describe la evolución de los sistemas operativos a través de cuatro generaciones y la importancia del respaldo de información y protección con antivirus.
El documento describe la evolución de las computadoras personales a través de cinco generaciones, desde los primeros computadores de los años 1940 hasta las computadoras modernas. Detalla las características clave de cada generación, incluyendo el uso de transistores, circuitos integrados y microprocesadores, así como el desarrollo de lenguajes de programación e Internet.
El documento describe la historia y evolución de las computadoras desde su creación en la década de 1950 hasta la actualidad. Explica que las primeras computadoras utilizaban bulbos y tarjetas perforadas, mientras que versiones posteriores incorporaron transistores, circuitos integrados y microprocesadores, haciéndolas más pequeñas, rápidas y eficientes. También resume las principales características de Windows Vista, Windows 7, Microsoft Office y los diferentes bits en que pueden operar las computadoras.
El documento explica la diferencia entre datos e información. Los datos son representaciones simbólicas de partes de la realidad, mientras que la información surge de estructurar y relacionar múltiples datos entre sí para darles significado y convertirlos en un insumo útil. Internet ha hecho que una gran cantidad de datos sean accesibles, aunque no todos los datos están disponibles para todos.
La computadora es un invento reciente de menos de 100 años. Ha pasado por tres generaciones principales definidas por los componentes tecnológicos utilizados. La primera generación de 1951-1958 usó bulbos, la segunda de 1959-1964 usó transistores, y la tercera de 1964-1971 usó circuitos integrados, haciendo las computadoras más pequeñas y rápidas. IBM se consolidó como líder en la industria con modelos como el IBM 650 en la segunda generación.
LA INFORMAATICA LOS PERIFERICOS DE ENTRADA SALLIDA paul.romero21
El documento define la informática educativa como la disciplina que estudia el uso de las tecnologías de la información en el proceso educativo. Explica que la informática educativa intenta acercar a los estudiantes al conocimiento y manejo de herramientas tecnológicas como el computador y cómo estas tecnologías pueden mejorar y expandir el aprendizaje de manera más significativa y creativa. También describe los principales dispositivos de entrada y salida de una computadora como el teclado, mouse, monitor y otros.
El documento describe las contribuciones de Joseph Carl Robnett Licklider y Vincent Cerf al desarrollo de Internet. Licklider introdujo el concepto de interactividad entre humanos y computadoras y propuso la idea de una red mundial de computadoras interconectadas. Cerf codiseñó junto con Robert Kahn los protocolos TCP/IP que permitieron la interconexión de redes independientemente del tipo de conexión. Ambos fueron pioneros fundamentales en el desarrollo de Internet como una red global que ha traído enormes beneficios a la sociedad.
Este documento presenta breves biografías de 10 personajes históricos de la computación: Sergei Brin, cofundador de Google; Steve Jobs, cofundador de Apple; Ray Ozzie, ex director de software de Microsoft; Mark Zuckerberg, fundador de Facebook; Larry Ellison, fundador de Oracle; Linus Torvalds, creador del núcleo Linux; Steve Ballmer, ex director ejecutivo de Microsoft; Nicholas Negroponte, fundador del MIT Media Lab; Tim Berners-Lee, inventor de la World Wide Web; y Jack Kilby, inventor del circuito integrado. El objetivo
Colegio de educación profesional técnica del estado de méxicoantoniovilchisgarcia
El documento describe las cinco generaciones de computadoras, desde la primera generación en la década de 1950 hasta la quinta generación. Cada generación se caracteriza por cambios en la tecnología subyacente como el uso de tubos de vacío, transistores y circuitos integrados. La cuarta generación introdujo los microprocesadores y las computadoras personales, mientras que la quinta generación busca mejorar el software y la interfaz humano-computadora.
El documento describe la evolución histórica de la informática desde sus orígenes hasta la quinta generación, destacando los avances tecnológicos clave en cada era. También resalta la importancia de la informática para apoyar y automatizar las actividades empresariales de manera más eficiente. Se recomienda contar con un plan que permita aprovechar mejor los sistemas de información.
El documento resume la historia del desarrollo de las redes de computadoras desde las primeras transmisiones de datos en 1940 hasta la creación de Internet. Se describe el surgimiento de ARPANET en los años 1960 para conectar instituciones militares y académicas, el desarrollo de protocolos como TCP/IP, y el crecimiento de redes como NSFNET que eventualmente dieron origen a Internet tal como la conocemos hoy.
Este documento describe los sistemas operativos. Define un sistema operativo y explica sus funciones principales como controlar los recursos del hardware y organizar archivos. Luego resume la historia y evolución de los sistemas operativos desde los primeros en los años 1950 hasta los más modernos de las décadas de 1980 y 1990. Finalmente, clasifica los sistemas operativos y menciona algunos de los más conocidos como DOS, Windows 3.1 y Unix.
El documento resume los antecedentes históricos de los sistemas multimedia desde 1945 hasta la actualidad. Algunos hitos incluyen la propuesta de Vannevar Bush de usar computadoras para almacenar y manipular información en 1945, la creación del concepto de hipertexto por Ted Nelson en 1965, y el auge de la tecnología multimedia con la integración de audio, video y gráficos en los videojuegos en la década de 1990. El documento también describe cómo los sistemas de autor y software de autor actuales permiten desarrollar aplicaciones multimedia integrando diferentes
La historia de la computadora se divide en cuatro generaciones principales. La primera generación (1951-1958) usó bulbos para procesar datos. La segunda generación (1959-1964) se hizo más rápida y pequeña con la invención del transistor. La cuarta generación (1971-presente) se caracteriza por los circuitos integrados en chips de silicio que hacen las computadoras aún más pequeñas y potentes.
La historia de la computadora se divide en cuatro generaciones principales:
1) La primera generación (1951-1958) usó bulbos y tarjetas perforadas. UNIVAC I fue una de las primeras computadoras electrónicas construidas.
2) La segunda generación (1959-1964) introdujo el transistor, haciendo las computadoras más rápidas y pequeñas.
3) La tercera generación (1964-1971) usó circuitos integrados, lo que hizo las computadoras aún más pequeñas, rápidas y eficientes energéticamente.
La historia de la computadora se divide en cuatro generaciones principales:
1) La primera generación (1951-1958) usó bulbos y tarjetas perforadas. UNIVAC I fue una de las primeras computadoras electrónicas construidas.
2) La segunda generación (1959-1964) introdujo el transistor, haciendo las computadoras más rápidas y pequeñas.
3) La tercera generación (1964-1971) usó circuitos integrados, lo que hizo las computadoras aún más pequeñas, rápidas y eficientes energéticamente.
Este documento introduce los conceptos básicos de las bases de datos, incluyendo su historia y evolución desde los primeros sistemas de almacenamiento de datos hasta el modelo relacional definido por Codd en 1970. También explica por qué es importante usar bases de datos para mejorar la disponibilidad, coherencia y seguridad de los datos, y reduce la redundancia. Finalmente, define los componentes clave de un sistema de base de datos como los lenguajes DDL, DML y DCL.
Este documento introduce los conceptos básicos de las bases de datos, incluyendo su historia y evolución desde los primeros sistemas de almacenamiento de datos hasta el modelo relacional definido por Codd en 1970. También explica por qué es importante usar bases de datos para mejorar la disponibilidad, coherencia y seguridad de los datos, y reduce la redundancia. Finalmente, define los componentes clave de un sistema de base de datos como los lenguajes DDL, DML y las vistas.
Este documento proporciona una introducción a las bases de datos, incluyendo su historia, modelos y aplicaciones. Explica que las bases de datos se desarrollaron para resolver los problemas de inconsistencia y aislamiento de datos en sistemas de archivos anteriores. Detalla los primeros modelos jerárquicos y de red, así como el modelo relacional introducido por Codd, que se ha convertido en el estándar dominante. También cubre conceptos clave como datos, campos, registros, archivos y esquemas de bases de datos, y las ventajas de los sistem
El documento describe la historia y evolución de las bases de datos desde su origen hasta el futuro. Comenzó con máquinas perforadoras de tarjetas en la década de 1860, luego se desarrollaron cintas magnéticas en la década de 1950 y discos en la década de 1960. En la década de 1970, E. F. Codd introdujo el modelo relacional de bases de datos. Las bases de datos han evolucionado a través de generaciones como las jerárquicas, de red y orientadas a objetos. El futuro incluirá bases de datos más especializadas
evolución historica de los sistemas operativos
ventajas y desventajas de los sistemas operativos distribuidos
estructura general de los sistemas operativos distribuidos
El documento resume la evolución de los sistemas operativos a través de cuatro generaciones, desde los primeros sistemas en la primera generación hasta los sistemas operativos modernos de la cuarta generación. Describe los principales sistemas operativos desarrollados en cada generación y las tecnologías clave como la multiprogramación y el tiempo compartido.
Taller 1 de bases de datos rafael ricardo sanchez gonzalez - 1501623-2Ricardo Sanchez
El documento proporciona información sobre bases de datos. Define una base de datos, da 5 ejemplos de bases de datos en la vida diaria y explica por qué son necesarias. También describe los problemas con los sistemas anteriores a las bases de datos y proporciona una tabla comparativa de 10 programas comunes para crear bases de datos que incluye información sobre cada uno.
El documento describe brevemente la historia y características de varias bases de datos, incluyendo MySQL, DB2, Oracle, Paradox, Firebird, y FoxPro. Explica cómo las bases de datos evolucionaron de tarjetas perforadas y cintas magnéticas a discos y modelos relacionales, y cómo ahora son ampliamente usadas para almacenar grandes cantidades de datos de manera estructurada.
El sistema de base de datos es un conjunto de programas que permiten el almacenamiento, modificación y extracción de la información en una base de datos.
1) En 1975, Bill Gates y Paul Allen fundaron Microsoft con la visión de tener una computadora en cada escritorio y hogar. Microsoft comenzó a desarrollar el sistema operativo MS-DOS para IBM en 1980. 2) Cuando IBM lanzó su computadora personal con MS-DOS en 1981, presentó un nuevo idioma al público general. 3) Los sistemas operativos continuaron evolucionando en las décadas siguientes con nuevas características como interfaces gráficas y capacidades multiusuario y de red.
Este documento presenta una compilación bibliográfica sobre sistemas operativos. Comienza con una introducción a los sistemas operativos, describiendo brevemente la historia y evolución de los mismos desde los primeros intentos hasta las tendencias actuales como la computación en la nube y los sistemas operativos para dispositivos móviles. Luego presenta conceptos generales sobre sistemas operativos y su estructura, describiendo diferentes clasificaciones de la misma. Finalmente, incluye una serie de secciones que analizan en mayor profundidad diferentes
Este documento presenta una compilación bibliográfica sobre sistemas operativos. Comienza con una introducción a los sistemas operativos, describiendo brevemente la historia y evolución de los mismos. Luego presenta conceptos generales sobre sistemas operativos, su estructura y las diferentes funciones que cumplen, como la gestión de recursos, procesamiento, memoria, concurrencia, archivos y entrada/salida. Finalmente, revisa diferentes tipos de sistemas operativos como los multiprocesadores, distribuidos y de tiempo real.
El documento describe la historia de las bases de datos desde sus orígenes hasta el siglo XXI. Comenzó con sistemas manuales de registro de información en la antigüedad. En la década de 1950 se introdujeron las cintas magnéticas para automatizar la información. En la década de 1960, el desarrollo de discos permitió el acceso directo a los datos y el proyecto Apolo impulsó el desarrollo de sistemas de bases de datos jerárquicos. En la década de 1970, Edgar Codd introdujo el modelo relacional de bases
El objetivo fundamental de los sistemas operativos es gestionar y administrar eficientemente los recursos hardware, permitiendo que se ejecuten concurrentemente varios programas, sin que haya conflictos en el acceso de cada uno de ellos a cada uno de los recursos que necesite, y sin que ningún programa monopolice alguno de ellos
Un sistema operativo es un programa (o conjunto de programas) de control que tiene por objeto facilitar el uso de la computadora y conseguir que ésta se utilice eficientemente.
Es un programa de control, ya que se encarga de gestionar y asignar los recursos hardware que requieren los programas. Pensemos en una computadora que es utilizada desde diversos terminales por varios usuarios. Los recursos hardware son: el procesador (CPU), la memoria principal, los discos, y otros periféricos. Obviamente, si varios usuarios están utilizando la misma Computadora, debe haber alguien o algo que asigne los recursos y evite los conflictos que puedan surgir cuando dos programas requieran los mismos elementos (la misma unidad de disco, o la impresora, por ejemplo). Esta es una de las funciones del sistema operativo.
El documento describe la evolución histórica de las bases de datos desde sus orígenes en la antigüedad hasta la actualidad. Señala que las primeras bases de datos modernas surgieron en la década de 1960 y que en la década de 1970 se desarrolló el modelo relacional de bases de datos. Finalmente, explica que en la actualidad dominan el mercado compañías como IBM, Microsoft, Oracle y que las bases de datos orientadas a objetos también son importantes.
Bill Gates es un empresario y filántropo estadounidense que cofundó Microsoft en 1975. Microsoft produjo el sistema operativo para computadoras personales más utilizado en el mundo, Microsoft Windows. Gates creó la Fundación Bill y Melinda Gates, dedicada a reequilibrar oportunidades en salud y educación a nivel mundial.
Bill Gates es un empresario y filántropo estadounidense que cofundó Microsoft en 1975. Microsoft produjo el sistema operativo para computadoras personales más utilizado en el mundo, Microsoft Windows. Gates creó la Fundación Bill y Melinda Gates dedicada a reequilibrar oportunidades en salud y educación a nivel mundial.
El documento describe los sistemas de información basados en ficheros y bases de datos. Explica que los sistemas basados en ficheros almacenan datos de forma independiente sin relaciones, mientras que los sistemas de bases de datos almacenan datos relacionados lógica y en algunos casos físicamente. También describe las partes de ambos sistemas, incluyendo usuarios, programas y datos, y los problemas asociados a cada uno.
El documento resume la evolución de los sistemas de gestión de bases de datos desde los años 1960 hasta los 1980. Comenzó con los primeros sistemas de navegación en los 1960 que permitían almacenar y acceder a la información. En los 1970, Edgar Codd desarrolló el modelo relacional que permitía consultas más flexibles. En los finales de los 1970, IBM desarrolló System R, el primer sistema que implementó el modelo relacional y el lenguaje SQL. Finalmente, en los 1980 la programación orientada a objetos influyó en cómo los datos se trataban como objet
Bill Gates es un empresario y filántropo estadounidense que cofundó Microsoft en 1975. Creó el sistema operativo Windows y otros software que revolucionaron la industria de las computadoras personales. Actualmente se dedica a la filantropía a través de la Fundación Bill y Melinda Gates.
Similar a Desarrollo+orientado+a+procesos+u+orientado+a+datos es (1) (20)
Todo sobre la tarjeta de video (Bienvenidos a mi blog personal)AbrahamCastillo42
Power point, diseñado por estudiantes de ciclo 1 arquitectura de plataformas, esta con la finalidad de dar a conocer el componente hardware llamado tarjeta de video..
Catalogo general tarifas 2024 Vaillant. Amado Salvador Distribuidor Oficial e...AMADO SALVADOR
Descarga el Catálogo General de Tarifas 2024 de Vaillant, líder en tecnología para calefacción, ventilación y energía solar térmica y fotovoltaica. En Amado Salvador, como distribuidor oficial de Vaillant, te ofrecemos una amplia gama de productos de alta calidad y diseño innovador para tus proyectos de climatización y energía.
Descubre nuestra selección de productos Vaillant, incluyendo bombas de calor altamente eficientes, fancoils de última generación, sistemas de ventilación de alto rendimiento y soluciones de energía solar fotovoltaica y térmica para un rendimiento óptimo y sostenible. El catálogo de Vaillant 2024 presenta una variedad de opciones en calderas de condensación que garantizan eficiencia energética y durabilidad.
Con Vaillant, obtienes más que productos de climatización: control avanzado y conectividad para una gestión inteligente del sistema, acumuladores de agua caliente de gran capacidad y sistemas de aire acondicionado para un confort total. Confía en la fiabilidad de Amado Salvador como distribuidor oficial de Vaillant, y en la resistencia de los productos Vaillant, respaldados por años de experiencia e innovación en el sector.
En Amado Salvador, distribuidor oficial de Vaillant en Valencia, no solo proporcionamos productos de calidad, sino también servicios especializados para profesionales, asegurando que tus proyectos cuenten con el mejor soporte técnico y asesoramiento. Descarga nuestro catálogo y descubre por qué Vaillant es la elección preferida para proyectos de climatización y energía en Amado Salvador.
HPE presenta una competició destinada a estudiants, que busca fomentar habilitats tecnològiques i promoure la innovació en un entorn STEAM (Ciència, Tecnologia, Enginyeria, Arts i Matemàtiques). A través de diverses fases, els equips han de resoldre reptes mensuals basats en àrees com algorísmica, desenvolupament de programari, infraestructures tecnològiques, intel·ligència artificial i altres tecnologies. Els millors equips tenen l'oportunitat de desenvolupar un projecte més gran en una fase presencial final, on han de crear una solució concreta per a un conflicte real relacionat amb la sostenibilitat. Aquesta competició promou la inclusió, la sostenibilitat i l'accessibilitat tecnològica, alineant-se amb els Objectius de Desenvolupament Sostenible de l'ONU.
Catalogo Refrigeracion Miele Distribuidor Oficial Amado Salvador ValenciaAMADO SALVADOR
Descubre el catálogo general de la gama de productos de refrigeración del fabricante de electrodomésticos Miele, presentado por Amado Salvador distribuidor oficial Miele en Valencia. Como distribuidor oficial de electrodomésticos Miele, Amado Salvador ofrece una amplia selección de refrigeradores, congeladores y soluciones de refrigeración de alta calidad, resistencia y diseño superior de esta marca.
La gama de productos de Miele se caracteriza por su innovación tecnológica y eficiencia energética, garantizando que cada electrodoméstico no solo cumpla con las expectativas, sino que las supere. Los refrigeradores Miele están diseñados para ofrecer un rendimiento óptimo y una conservación perfecta de los alimentos, con características avanzadas como la tecnología de enfriamiento Dynamic Cooling, sistemas de almacenamiento flexible y acabados premium.
En este catálogo, encontrarás detalles sobre los distintos modelos de refrigeradores y congeladores Miele, incluyendo sus especificaciones técnicas, características destacadas y beneficios para el usuario. Amado Salvador, como distribuidor oficial de electrodomésticos Miele, garantiza que todos los productos cumplen con los más altos estándares de calidad y durabilidad.
Explora el catálogo completo y encuentra el refrigerador Miele perfecto para tu hogar con Amado Salvador, el distribuidor oficial de electrodomésticos Miele.
SOPRA STERIA presenta una aplicació destinada a persones amb discapacitat intel·lectual que busca millorar la seva integració laboral i digital. Permet crear currículums de manera senzilla i intuitiva, facilitant així la seva participació en el mercat laboral i la seva independència econòmica. Aquesta iniciativa no només aborda la bretxa digital, sinó que també contribueix a reduir la desigualtat proporcionant eines accessibles i inclusives. A més, "inCV" està alineat amb els Objectius de Desenvolupament Sostenible de l'Agenda 2030, especialment els relacionats amb el treball decent i la reducció de desigualtats.
2. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 2
¿Cuáles eran los mecanismos de integridad previstos por Bachman? Los de “integridad de entidad” (cada
entidad tendrá un identificador explícito, no habrá dos instancias de una entidad con el mismo valor del
identificador) y los de “integridad referencial” (que, en la implementación del IDS podríamos caracterizar
bien como “cada hijo tendrá al menos un padre”, un “padre puede tener ninguno, uno o múltiples hijos” y,
como corolario: los “hijos” pueden, a su vez, ser “padres”.
La implementación del IDS era una red libre, básicamente soportada vía acceso randómico por llave
primaria y todos los demás accesos y el control / aseguramiento de la integridad vía cadenas de pointers.
Si cotejamos (sólo desde el punto de vista cualitativo) las prestaciones liberadas por Bachman en el IDS
con las de los sistemas de gerencia de base de datos actuales, podría parecer que poca cosa ha cambiado en
40 años: no es así, pero admitamos que las ideas de Charles Bachman, llevadas a la práctica por primera
vez en 1963, no mediante un “paper” sino mediante algo mucho más sólido: hechos (el Sistema de
Gerencia de Base de Datos IDS en el mercado), siguen teniendo plena vigencia.
La respuesta del mercado al IDS: múltiples sistemas de gerencia de base de datos
En los siguientes años, apareció un conjunto de Sistemas de Gerencia de Base de Datos más o menos
formales. Los desarrollos conocidos más importantes ocurrieron dentro de IBM y fueron dos bien
diferentes: el BOMP y el IMS.
El BOMP (Bill Of Materials Processor) era un sistema de propósito específico basado en una red de mucho
menor poder expresivo que la de Bachman: red de 2 niveles (podemos caracterizarla como una red libre a
la que le agregamos la siguiente restricción: los “hijos” no son “padres”).
El IMS (Integrated Management System), que tuvo su origen en un gran proyecto de la carrera espacial en
el que se vio involucrada IBM, y cuya estructura era un bosque de árboles (podemos caracterizarla como:
todo “hijo” tiene un solo “padre”).
IBM acabó decidiéndose por el IMS. El equipo del BOMP se sintió muy frustrado lo que acabó, a
comienzos de la segunda mitad de los 60, inspirando la creación de la Cincom Systems, una de las
primeras empresas de software independientes, que lanzó su Sistema de Gerencia de Base de Datos:
TOTAL, retomando las ideas básicas del BOMP.
El TOTAL se implementa inicialmente para mainframes IBM pero, luego, recibe implementaciones
simples y sólidas para otras plataformas (incluso para el pequeño mini computador IBM /3, primero en que
yo lo utilicé en 1976). Rápidamente TOTAL se transforma en el líder en cantidad de instalaciones.
Poder expresivo de los primeros sistemas de gerencia de base de datos y su facilidad/dificultad de
reorganización
A esta altura existía un sistema con gran poder expresivo (IDS) pero cuya implementación muy trabada
presentaba un gran problema ¿cómo reorganizar una red, soportada básicamente por la vía de cadenas de
pointers? Nunca se encontró una buena solución para esta necesidad (sea cual sea el procedimiento que se
emplee, podemos concluir teóricamente que los tiempos serán enormes).
Como consecuencia aparecieron las primeras tendencias hacia la búsqueda de las “bases de datos estables”:
postular que existe para una determinada empresa, u organización, una “base de datos estable” que satisface
todos sus requerimientos, tomar todo el tiempo necesario en los estudios previos de manera de asegurarse
que “nunca habrá que reorganizar estructuralmente la base de datos” y, además, dejar campos libres en
todos los registros para poder agregarles campos sin tener que recurrir a la tan temida reorganización.
40 años después es claro que no existen las tales “bases de datos estables” (por lo menos en empresas que
no estén muertas). ¿Es, sin embargo, ésta una verdad generalmente admitida?: lo dudo, mucha gente sigue
pensando y trabajando con los mismos conceptos de hace 40 años. Aún hoy, increíblemente, la mayor parte
de las metodologías de desarrollo de sistemas se basan en “bases de datos estables”.
¿Qué ocurría con el IMS? Los árboles son mucho más fáciles de reorganizar que las redes libres pero su
poder expresivo es mucho más pequeño (se parte de una afirmación: “la realidad es jerárquica”, pero esa
afirmación es falsa, la afirmación correcta sería “las visiones de la realidad que los humanos podemos
manejar con comodidad son jerárquicas”). La falta de poder expresivo de la base de datos recarga los
3. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 3
programas y deja en la mano del programador buena parte de la navegación en la base de datos y del
control / aseguramiento de la integridad, lo que es costoso y peligroso. IBM trata de corregir el problema
sustituyendo el bosque de árboles independientes original por una extraña red de árboles que se apuntan
entre sí a todos los niveles, de forma bastante caótica.
El IMS, a pesar de un cierto éxito comercial alcanzado, y aunque siempre fue utilizado en bases de datos de
gran tamaño (medido en cantidad de registros), nunca fue una solución para verdaderas bases de datos
corporativas.
La elección de un esquema jerárquico para el IMS fue un error. El hecho de haberlo cometido IBM le dio
gran trascendencia y fue un gran freno para al desarrollo de los sistemas de gerencia de base de datos
durante muchos años..
¿Y el TOTAL? El TOTAL estaba entre los dos: sus redes de 2 niveles tenían mucho menor poder expresivo
que las redes libres del IDS pero mucho mayor que los árboles del IMS. Al mismo tiempo, su
reorganización era más complicada y demandaba más tiempo que la del IMS, pero muchísimo menos
tiempo que el necesario para reorganizar las redes libres del IDS. Por otra parte, su implementación simple
y sin pretensiones viabilizó su disponibilidad para múltiples computadoras y sistemas operativos. Como
consecuencia, el TOTAL pasó a dominar el mercado de las empresas medias y lo viabilizó para muchas
pequeñas.
La respuesta a la complejidad estructural: sistemas basados en índices
Las dificultades de reorganización y la búsqueda de mayor flexibilidad en la recuperación de datos, dieron
lugar a sistemas de gerencia de base de datos con muy poco poder expresivo (en particular sin ninguna
capacidad de controlar / asegurar la integridad referencial) pero muy fáciles de reorganizar y con razonable
flexibilidad para la recuperación de datos y, paulatinamente, mucho más eficientes en el acceso: los
sistemas basados en archivos con índices múltiples (fundamentalmente el Datacom de la Applied Data
Research y el Adabas de la Software AG y, en cierto sentido, el VSAM de IBM – esencialmente un sistema
de administración de archivos).
Este esquema implica atribuirle al programador un conjunto de funciones para el aseguramiento de la
integridad, lo que es ineficiente en costos (dinero, tiempo) y peligroso: ¿qué ocurre cuando el programador
en un programa cualquiera, olvida o interpreta mal una regla?, ¿quién sabe cuales son las reglas que
realmente regulan nuestra base de datos y nuestros sistemas?
La justicia de los EE UU y la industria del software
A fines de la década del 60, decisiones de la justicia de los EE UU que obligan a IBM a cotizar y vender
separadamente Software y Hardware, constituyen un gran impulso para la industria independiente de
software.
Los sistemas de gerencia de base de datos son el primer territorio de la lucha entre múltiples empresas,
generalmente independientes de los fabricantes, y cada una de ellas agrega su propia casuística.
La industria se desarrolla (anárquicamente) y la complejidad de los sistemas de gerencia de base de datos
crece cada día.
La búsqueda de la simplificación y la “usabilidad”, el sueño de llevar el poder al usuario final: Codd
y el modelo relacional
Pero, al mismo tiempo, dentro de IBM aparece una tendencia simplificadora: Edgar F. Codd [2] parece
preguntarse cosas del tipo “¿la realidad es tan complicada o es que los humanos nos complicamos
inútilmente para representarla?”.
Codd quiere tornar disponibles las bases de datos – en todos los aspectos - para todo el mundo, quitándolas
del ámbito de los súper especialistas. Trabaja con la intención de simplificar el problema del diseño y uso
de las bases de datos y, entonces, introduce su modelo relacional sobre la base de: representación simple
de los datos (tablas con columnas formadas por elementos uniformes y atómicos), criterios para detectar (y
eliminar o - en su defecto – controlar) la redundancia (normalización), reglas y operadores para manipular
automáticamente los datos (álgebra relacional, cálculo relacional).
4. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 4
IBM plasma una parte de las ideas de Codd en la especificación del lenguaje SQL (Structured Query
Language) – especificación que publica y libera al uso público - y que luego se constituiría en el estándar
mundial (y, con modificaciones menores, lo es hasta hoy).
La contribución de Codd es enorme. El Laboratorio Santa Teresa de IBM publica y/o envía a todos los
investigadores interesados en el tema, generosa y desinteresadamente, múltiples papers sobre los que
pasamos a basarnos todos los que, de alguna manera, hemos trabajado en el desarrollo de sistemas de
gerencia de bases de datos relacionales.
Las bases de datos relacionales
La comunidad informática toma la idea de las bases de datos relacionales con entusiasmo, snobismo y sin
el menor pragmatismo.
Todo el mundo se pronuncia a favor de ellas, todo el mundo implementa algún tipo de software siguiendo
el modelo relacional.
Nadie se preocupa por la eficiencia y, en particular, nadie asume que los mecanismos de acceso (en
general) y los índices (en particular) son esenciales para la eficiencia de las bases de datos relacionales (lo
eran en 1970, lo son hoy y lo seguirán siendo en un futuro previsible). Nadie afirma que pueden
establecerse procedimientos determinísticos para diseñarlos y construirlos óptimamente y la mayoría duda
de que puedan y deban utilizarse en forma totalmente transparente al programador y a los programas (llevó
tiempo, pero los optimizadores lo hacen automáticamente desde hace años y cada vez mejor).
El nivel del SQL es demasiado bajo: el hecho de que el usuario deba saber de que tablas tomar los datos y
como ligar esas tablas no es razonable y constituye un problema importante hasta hoy.
Veámoslo con un ejemplo. Supongamos que tenemos una base de datos con las siguientes tablas:
Clientes (Cliente, Nombre, Direccion)
Productos (Producto, Descripcion, Precio, Stock)
Facturas (Factura, Fecha, Cliente)
LineasFacturas (Factura, Producto, Cantidad)
Y se quiere obtener el siguiente tabulado:
Cliente Nombre Factura Fecha Producto Descripcion Cantidad
El comando SQL que debemos construir para lograrlo es:
Select Clientes.Cliente, Nombre, Facturas.Factura, Fecha, Productos.Producto, Descripción,
Cantidad
Where Clientes.Cliente = Facturas.Cliente and
Facturas. Producto = Productos.Producto
Sin embargo, tan sólo agregando al SQL el soporte de una buena nomenclatura de nombres (por
ejemplo la URA: Universal RelationalAssumption) y dotándolo de una mínima inteligencia, ese
comando podría sustituirse por el siguiente:
Select Cliente, Nombre, Factura, Fecha, Producto, Descripción, Cantidad
Se obtendría el mismo resultado escribiendo menos. Si, desde luego, pero la diferencia principal
no está en escribir más o menos: el primero es un claro caso de comando a ser escrito por un
informático, que sabe en que tablas están los diferentes atributos y como ligar válidamente esas
tablas
El segundo es un comando que puede ser escrito por un usuario: simplemente especifica cuales
son las columnas que quiere en su listado en el orden que las quiere: dice lo que necesita y sabe,
no necesita recurrir a nadie para que lo ayude.
5. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 5
Parece claro que la segunda sintaxis es mejor porque permite que lo usen naturalmente muchos más
usuarios.
No acaban aquí, sin embargo, las diferencias: ¡casi siempre una especificación de alto nivel tiene ventajas
sobre una de bajo nivel, más allá de lo que se escribe!
La gran diferencia es que si alguna de las columnas referidas en el select cambia de tabla, la primera
sentencia se torna incorrecta, mientras que la segunda permanece válida.
Nadie se preocupa de la integridad referencial: Codd no la definió explícitamente y “todo lo que Codd no
dijo” pasa a ser exageradamente importante.
Realmente el SQL debería resolver estos dos últimos problemas: nada se ha hecho con el primero y tan sólo
hace pocos años se dio soporte a la integridad referencial.
La ineficiencia de los prototipos de sistemas de gerencia de bases de datos relacionales. Siguen las
implementaciones casuísticas
Ante la ineficiencia que mostraban los prototipos del SQL, se dicen cosas del tipo “cuando existan las
memorias de burbujas magnéticas, el problema estará resuelto” (realmente muchos años después del
probado fracaso de las memorias de burbujas magnéticas, el argumento seguía siendo utilizado) o sea: se
ignora deliberadamente el problema dejándolo para después sin tener la menor idea de cómo resolverlo y
sin realizar esfuerzos serios para hacerlo.
Estamos en la segunda mitad de la década de los 70. Como he dicho, todo el mundo se pronuncia a favor
del modelo relacional (como algo que “queda bien”) pero, paralelamente, se implementan los sistemas de
gerencia de base de datos más casuísticos.
Ha terminado la guerra comercial entre IBM por un lado y Honeywell, General Electric, RCA, Univac, etc.,
por el otro. IBM ha ganado ampliamente.
Buena parte de las aplicaciones más sofisticadas estaban soportadas por el IDS y sus usuarios comienzan a
temer por el desarrollo y el soporte futuro de los computadores General Electric y desean una versión del
IDS para plataforma IBM, lo que da como resultado el surgimiento del IDMS, producto isomorfo con el
IDS, implementado por empresa independiente para mainframe IBM.
Una reflexión importante al pasar: reorganización de los datos / procesos
Obsérvese que, hasta ahora, me he referido con especial énfasis a los problemas de reorganización de las
bases de datos y no he hablado de los problemas de inadecuación de los programas existentes cuando
ocurren modificaciones estructurales en dichas bases de datos. En realidad aquellos eran tan graves que
no dejaban ver la enorme importancia de éstos.
¿Desarrollo orientado a datos o desarrollo orientado a procesos?
Paralelamente al desarrollo de las bases de datos y, en especial, de los sistemas de gerencia de base de
datos, se trabaja mucho en la construcción de metodologías de desarrollo de sistemas. Aparece una
dicotomía: “desarrollo orientado a datos” o “desarrollo orientado a procesos”.
Recordemos que las bases de datos no eran relevantes más que para los enormes usuarios: las empresas de
tamaños normales no las utilizaban y los informáticos, en general, pensaban que se trataba de una
sofisticación inútil y una pérdida de tiempo impulsada por “teóricos que nunca habían visto una
aplicación”.
Quizás esta situación haya hecho que la balanza entre orientación a datos y orientación a procesos se
inclinara decididamente hacia el desarrollo orientado a procesos. Puede argumentarse con razón a favor de
la orientación a procesos que es más general: con ella toda casuística puede contemplarse, todo puede
hacerse. Al mismo tiempo, su nivel es mucho más bajo y los costos de desarrollo y mantenimiento son
mucho mayores.
6. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 6
¿Quiénes fueron los líderes del desarrollo orientado a procesos? Djikstra que introdujo la programación
estructurada y Edward Yourdon, Larry Constantine, Tom De Marco, Chris Gane, Trish Sarson y otros, que
introdujeron el proyecto estructurado y lo popularizaron en todo el mundo [3].
¿Qué podemos decir del desarrollo orientado a datos? Los líderes de esta tendencia han sido Jean-
Dominique Warnier, Ken Orr y Michael Jackson [4].
A diferencia del desarrollo orientado a procesos, que es casuístico y trata de soportar por medio de la
programación manual todas las particularidades de cada aplicación, el desarrollo orientado a datos parte de
otras premisas:
Los datos y programas siempre tienen estructuras – muchas veces conocidas a priori - como, por ejemplo:
los datos que ve el usuario; los datos que necesita un programa para procesar una determinada operación;
los datos almacenados; un programa.
¿No podríamos pensar en reglas y operadores para trabajar con esas estructuras? Sí, podríamos y
ello simplificaría mucho el desarrollo y mantenimiento de sistemas, y mejoraría su calidad: Warnier,
Orr y Jackson lo hicieron.
Algunas reflexiones personales sobre el desarrollo orientado a datos.
He trabajado mucho - a fines de la década de los 60 y en la de los 70 - con los métodos de Warnier-Orr:
seguíamos programando a mano, pero había criterios claros para identificar las estructuras de datos y
visiones de usuarios y derivar de ellas las estructuras de los programas y establecer los comandos de los
mismos.
De todas maneras mi experiencia básica con este abordaje es de una época en que las aplicaciones eran
fundamentalmente “batch” y utilizaban archivos convencionales. Si en vez de archivos se hubieran usado
bases de datos relacionales creo que este abordaje se hubiera impuesto claramente. Pero, ¡no se puede re
escribir la historia!
Debo confesar que no tuve la suficiente fe o dedicación al uso de este abordaje - que consideraba de mucho
mayor nivel - cuando, de pronto, las aplicaciones de mis clientes pasaron a ser fundamentalmente
interactivas y soportadas por bases de datos, lo que lamento: en ese momento opté – erróneamente – por el
desarrollo orientado a procesos.
Al mismo tiempo me pregunto ¿por qué Warnier, Orr o Jackson – que parecían tener todo mucho más claro
que los demás - no dieron ciertos pasos adicionales para establecer algunas cosas mucho más avanzadas
(que hoy me parecen obvias, pero que claramente no lo son – o, por lo menos, no lo eran en aquel
momento)?: diseño de la base de datos partiendo de las visiones de los usuarios, generación automática de
los programas, etc. Realmente, sus metodologías, “informalmente” nos llevaban a hacer todo esto de una
manera manual pero sistemática, natural y simple.
Dejo especial constancia de todo esto no como queja por lo que no hicieron, sino como agradecimiento por
la invalorable introducción de una suerte de representación rigurosa de las estructuras de datos y, en
particular, de las visiones de datos de usuarios y programas, elementos esenciales para cualquier esquema
orientado a datos (o, a un nivel mayor, basado en conocimiento) y, en particular, para Genexus [5].
En la década de los 70 la disputa la ganaron los que enarbolaron la bandera de la orientación a procesos
que era la bandera de la casuística, de la orientación a la programación manual y no sistemática y
configuraba la prescindencia de todo tipo de operador de alto nivel.
Pero, volviendo a las bases de datos: en 1979 ¡ORACLE!
Un buen día de 1979 una pequeña empresa cuyo nombre original no recuerdo y que después tomó el de su
producto, modificó el mundo: lanzó un Sistema de Gerencia de Base de Datos relacional basado en el
lenguaje SQL que funcionaba eficientemente en una computadora pequeña. ¡El producto se llamaba
Oracle! De repente las bases de datos relacionales de las que todos hablábamos se habían convertido en
realidad: ¡Nada volvería a ser igual (afortunadamente)!
7. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 7
El lanzamiento de Oracle tuvo enorme repercusión: todos los demás fabricantes debieron bajar a la tierra y
asumir que con la teoría relacional y los medios disponibles se podían hacer cosas muy importantes y
pasaron a tratar de hacerlas.
Durante la década de los 80, luego que todos los fabricantes reivindicaran que sus productos (tal como
estaban) “eran relacionales”, se trabajó mucho en la implementación de sistemas de gerencia de bases de
datos realmente relacionales. Los usuarios potenciales, sin embargo, no tomaban conocimiento y el uso
real de sistemas de gerencia de base de datos era muy limitado.
Cuando en 1989 lanzamos Genexus, el llevar todo el desarrollo de nuestros clientes a bases de datos
relacionales pareció a muchos una sofisticación exagerada que los obligaría a una pérdida de eficiencia en
tiempo de ejecución. Algunos nos decían “nos gusta Genexus, pero no aceptamos que se nos obligue a
utilizar una base de datos”.
Esta situación pasa a modificarse decididamente en el comienzo de la década de los 90: en un cierto
momento, todos los sistemas comienzan a desarrollarse sobre bases de datos relacionales.
Supra
En la segunda mitad de la década de los 80 Cincom Sistems lanza un Sistema de Gerencia de Base de
Datos revolucionario: SUPRA.
Supra presenta niveles de “independencia de datos” mucho mayores que el SQL: permite visiones multi-
tabla actualizables lo que determina una buena independencia entre los programas y las bases de datos, con
una potencial disminución muy importante de los costos de mantenimiento de los sistemas.
Sin embargo, el mercado no lo adopta. ¿Por qué?
Es difícil saberlo: quizás haya sido porque se apartó del lenguaje SQL (Supra no fue introducido como un
súper conjunto del SQL, sino que tuvo una sintaxis totalmente diferente), o quizás haya sido porque
Cincom Systems permaneció demasiado años con el TOTAL y ello desanimó a sus clientes.
¿Qué ocurrió desde 1990?
¿Qué ocurrió desde 1990?, ¿qué impacto tuvieron (y tendrán) estos acontecimientos en el mercado, en las
tendencias generales y en la posible dilucidación de la vieja polémica entre orientación a procesos y
orientación a datos?
En el área de bases de datos los cambios fueron muy importantes pero relativamente poco visibles mientras
que en el área de procesos se introdujo la orientación a objetos que ha obtenido una muy buena acogida en
todo el mundo. Sin embargo, quizás lo más importante en este tiempo han sido otras cosas: el surgimiento
de las “plataformas de ejecución” y el del XML o, más propiamente, de una nueva orientación: “la
orientación a mensajes”.
Sistemas de gerencia de base de datos
Los sistemas de gerencia de base de datos han evolucionado mucho. ¿En qué aspectos? Fundamentalmente
en lo que está fuera de la vista del usuario. Hoy son mucho más sólidos ¡son realmente sólidos! Su
disponibilidad, seguridad, eficiencia y escalabilidad han progresado mucho y funcionan muy bien sobre las
más variadas combinaciones de software y hardware, generalmente de precios mucho menores que los
tradicionales.
En lo relativo a la funcionalidad existe una nueva característica estándar muy importante: la definición y
control automático, a nivel del Sistema de Gerencia de Base de Datos, de la integridad referencial. Y poco
o nada más realmente importante.
Todos los fabricantes soportan alguna suerte de procedimientos almacenados pero en forma incompatible
entre ellos.
Como consecuencia de lo anterior, ha disminuido mucho la cantidad de casas de software dedicadas a los
sistemas de gerencia de base de datos: sólo enormes empresas, con inversiones muy grandes, pueden
8. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 8
brindarnos productos suficientemente sólidos, eficientes y escalables. Los principales fabricantes y
productos hoy son IBM (DB2 e Informix), Microsoft (SQL Server) y Oracle.
La eliminación de las pequeñas empresas fabricantes de sistemas de gerencia de base de datos, junto con la
existencia de un robusto estándar del SQL hacen que la innovación sea cada vez menor.
Los líderes, a veces, en vez de profundizar el liderazgo en su mercado vertical por la vía de la innovación,
tratan de utilizar el poder que les da esa posición para hacerse fuertes en otros mercados laterales como
plataformas de ejecución, servidores de aplicación y, aún, paquetes de aplicación o servicios de desarrollo y
outsourcing. Estas políticas, muchas veces, los aíslan de las casas de desarrollo de software (sus naturales
socios de negocios) y acaban actuando en perjuicio del desarrollo de nuevas funcionalidades en los
sistemas de gerencia de base de datos. Todo se vuelve más conservador: gran solidez y poca innovación.
El SQL no ha resuelto dos temas importantes:
Un buen nivel de “independencia de datos” que permita que los programas sean inmunes a las
modificaciones estructurales en la base de datos.
Algún tipo de “inteligencia” que permita definir de manera declarativa reglas y operadores de modo de
independizar el desarrollo de los programadores: de permitir que un usuario pueda hacer todo aquello que
quiera y esté autorizado a hacer, sin necesidad de programar.
A esta altura se plantea una pregunta obvia: ¿se modificará sustancialmente y en tiempo razonable el actual
estándar SQL de manera de dotarlo de nuevos operadores de alto nivel y otras características que viabilicen
un comportamiento “inteligente” de las bases de datos?
La tendencia general, hoy, es la de soportar, para la escritura de los procedimientos almacenados, lenguajes
de programación comunes (Java, C#, etc.). O sea que es posible que en un futuro cercano podamos asociar
mucha más lógica transportable a la base de datos, pero escribiéndola en lenguajes algorítmicos, lo que
implica programación manual y dependencia de la estructura de dicha base de datos.
Al mismo tiempo, aparecen otros problemas: se han resuelto bien los tradicionales de seguridad por la vía
de una buena identificación de los usuarios y especificación de lo que estos están autorizados a hacer con
los datos, pero nuestros sistemas de gerencia de base de datos no son, por ejemplo, inmunes a los virus.
Ésta es un área en que los grandes fabricantes deberán trabajar mucho.
Por otra parte, la propagación del sistema operativo Linux ha traído como consecuencia el éxito de nuevos
sistemas de gerencia de base de datos de muy bajo precio o gratuitos y sin las pretensiones de solidez y
escalabilidad de los grandes líderes. Entre estos sistemas cabe destacar a Postgres y MySQL.
Pero hoy no se discute más el uso o no de bases de datos: todas las aplicaciones, en todo el mundo, se
desarrollan sobre bases de datos, la eficiencia y escalabilidad son incomparablemente mayores de las
que se obtenían con archivos convencionales y existen líderes claros que dominan el mercado.
Las formas de utilización han ido variando con el tiempo, un poco por las tecnologías disponibles, un poco
por las necesidades de los usuarios y un mucho por los gustos y tendencias de los profesionales de la
informática, desde la arquitectura centralizada original pasando por una arquitectura Cliente / Servidor y
siguiendo, ahora, por arquitecturas multiservidor orientados a la red y los Web Services bien plasmados en
las plataformas de ejecución que dominarán el mundo de la informática en un futuro previsible: Java y .net:
Al final de la primera mitad de la década de los 80 y cuando todas las aplicaciones funcionaban en
arquitectura centralizada, apareció un nuevo concepto: la “arquitectura cliente / servidor”.
Se trataba de racionalizar y dividir el procesamiento de datos entre el servidor central y los
microcomputadores (clientes) y representaba adelantos importantes, más allá de los errores que todos
cometimos al principio en su implementación.
La firma que introdujo y desarrolló el concepto fue Sybase. Pero el mercado demoró mucho: sólo en 1995
adoptó esta arquitectura y ya Sybase no estaba en su mejor momento, como para luchar con grandes
adversarios.
En 1996 Sun con el apoyo de múltiples empresas de software, entre las que se destacan IBM y Oracle,
lanza el lenguaje Java y la plataforma de desarrollo y ejecución Java.
9. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 9
En 2001 Microsoft lanza el lenguaje C# y la plataforma de desarrollo y ejecución .net, sofisticada
implementación de las mismas ideas de Java con propósitos y resultados cualitativos similares.
En 2001 IBM compra Informix lo que, sumado a su liderazgo en sus sistemas OS/390 y OS/400, la
transforma en el mayor fabricante de Sistemas de Gerencia de Base de Datos.
En 2002 Microsoft lanza, para el .net, un nuevo estándar para la comunicación entre las aplicaciones y la
base de datos (DataSets y DataAdapters) que facilitan la programación y ayudan mucho a la escritura de
aplicaciones muy escalables.
Orientación a procesos
La orientación a procesos, que en su momento estuvo sustentada por las metodologías estructuradas ha
dado paso al desarrollo orientado a objetos.
El desarrollo orientado a objetos, apoyado en la existencia de lenguajes de programación orientados a
objetos, se ha impuesto claramente y ha traído enormes ventajas en la programación cuando ésta se refiere
a datos en memoria. En estas condiciones, las ventajas sobre los procesos tradicionales son enormes.
Existe un eslabón aún débil en la orientación a objetos: ¿Cómo comunicarse bien con la base de datos?
Durante cierto tiempo se experimentó bastante con los llamados sistemas de gerencia de base de datos
orientados a objetos (OODBMS), pero no se obtuvieron resultados adecuados.
Hoy es claro para todos que los sistemas de gerencia de base de datos relacionales dominan el mundo de los
datos y lo seguirán haciendo en un futuro previsible y se trabaja mucho en la creación de mecanismos de
convivencia entre programas orientados a objetos y bases de datos relacionales (ORM: Object Relational
Mapping). Existen logros aislados pero se está muy lejos de un estándar.
Plataformas de ejecución
Hace 40 años existían múltiples sistemas operativos. Cada fabricante tenía el suyo. La contraprestación
necesaria era que cada fabricante debía ser capaz de atender directamente todas las necesidades de sus
clientes.
Cuando surgió la industria del software, esta situación comenzó a cambiar: el cliente llenaba sus
necesidades a partir de un conjunto de proveedores. Pero un sistema operativo sólo sería atractivo para la
industria independiente del software si llegara a tener muchos usuarios.
Muchos fabricantes se vieron forzados por los hechos, desde mediados de la década de los 70, a abandonar
sus sistemas operativos y adoptar otros. Subsisten aquellos de fabricantes que tienen una base instalada
muy grande (como IBM OS/390, IBM OS/400) y crecen fuertemente algunos relativamente independientes
de los fabricantes de hardware Unix, Windows y, últimamente, Linux.
Cada sistema operativo tiene sus propias complejidades. Un paso más es pensar en plataformas de
ejecución que funcionen encima de ellos y que sean mucho más amigables al usuario.
En 1996 Sun lanza su lenguaje Java (orientado a objetos) y su plataforma de desarrollo y ejecución Java.
Como lenguaje, más allá de sus importantes características, es uno más, pero como plataforma de ejecución
implica algo totalmente nuevo: por primera vez se ofrece un ambiente amigable para desarrollar y ejecutar
aplicaciones con total independencia del hardware. La adopción del concepto fue rápida y general aunque
el desarrollo de reales aplicaciones Java llevó más tiempo del previsible. Hoy es una realidad.
En 2001 Microsoft lanza su plataforma de desarrollo y ejecución .net con sus propios lenguajes orientados
a objetos C# y Visual Studio .net y una pluralidad de lenguajes de terceros.
¿Por qué el cliente utilizaría alguna de estas plataformas? Por muchas razones (que, en general, exceden el
propósito de este trabajo) pero, fundamentalmente, por una: nos permiten la instalación y actualización
automática de las aplicaciones en las estaciones de trabajo “clientes” con una disminución muy importante
de los costos operativos.
Entiendo que entre estas dos plataformas se va a distribuir el mercado en los próximos años y que los
sistemas operativos se tornarán commodities. Al mismo tiempo, la adopción de estas plataformas
refuerza el uso de los lenguajes orientados a objetos.
10. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 10
XML y la “orientación a mensajes”
En 1999 aparece otro jugador muy importante: el XML, sistema que nos permite definir y manipular
mensajes autodescritos. Se inicia otra tendencia muy importante: la “orientación a mensajes”.
Desde su anuncio el XML rápidamente fue adoptado por todos los fabricantes lo que lo convirtió en un
estándar de hecho y, luego, de derecho y su uso se ha propagado con una velocidad mucho mayor de la
tradicional en las innovaciones: ¡realmente existía una enorme necesidad insatisfecha de un sistema
estándar de mensajes!
El XML tiene las utilizaciones más diversas, la mayor parte de ellas fuera de la vista del usuario, pero se
transforma en actor principal, por ejemplo, en los Web Services y tendrá derivaciones muy importantes en
la constitución de verdaderas bases de datos extendidas: mi base de datos, las de mis proveedores / clientes,
que accedo vía XML y un conjunto de Web Services de interés general que “consumo” en la forma de
mensajes XML.
Pero si profundizamos un poco veremos que el XML puede convertirse en un actor importante en la vieja
puja entre orientación a procesos y orientación a datos: muchos complicados procesos, en el fondo, tienen
como objetivo proveernos un dato ¿no podremos pensar que ese dato nos sea entregado por un mensaje
XML (data provider) que podamos especificar en forma 100% declarativa? Mi opinión es que sí.
Una vez más, sin embargo, aparecen las “bases de datos jerárquicas”: los fabricantes de sistemas de
gerencia de base de datos están anunciando ampliaciones del SQL que nos permitan almacenar y manipular
mensajes XML. Espero que esta característica se utilice con la debida prudencia (que quede circunscripta a
casos muy específicos, como el soporte de documentos textuales).
Resumen:
En los últimos años se han solidificado los sistemas de gerencia de base de datos relacionales: hoy es
impensable hablar de otro tipo de Sistema de Gerencia de Base de Datos.
Se han configurado estándares robustos que, utilizados estrictamente, permiten la portabilidad de las
aplicaciones.
La existencia de esos estándares dificulta la adopción de modificaciones sustanciales a los mismos. En
particular, es muy poco probable que tengamos en un futuro previsible bases de datos cualitativamente
mucho más evolucionadas.
Es previsible, en cambio, que se nos siga dando cada vez más solidez: disponibilidad, seguridad, eficiencia,
escalabilidad, optimización de recursos y que se neutralicen las nuevas amenazas como las representadas
por virus innovadores.
Paralelamente se ha generalizado la programación orientada a objetos (en particular fuertemente impulsada
por el previsible auge de las plataformas Java y .net) y es vital que se resuelva rápidamente el problema de
la vinculación natural de los programas con la base de datos (Object Relational Mapping)..
La orientación a mensajes puede ser el componente que falta. Quizás no tendremos un futuro claramente
orientado a procesos ni a datos sino, más bien, una realidad que se comporte como un conjunto de
mensajes.
Los sistemas de gerencia de base de datos de hoy y las ideas de Bachman y Codd
Pero, con esto, ¿hemos llegado al final?, ¿nuestra pretensión – hoy – es la misma de Charles Bachman en
1963?.
Si es la misma, si queremos a acceder las bases de datos a partir de programas donde hacemos casi todo a
mano, está todo resuelto (y bien resuelto porque tenemos muy buenas eficiencia, disponibilidad, seguridad,
escalabilidad, recuperación ante accidentes, etc. y, además, medios razonables para interrogar a la base de
datos). ¡El sueño de Bachman se ha realizado, pero demoró casi 40 años para hacerse realidad!
Si, en cambio, pensamos como pensaba Edgar F. Codd en 1970 y queremos llevar el uso de las bases de
datos a todo el mundo, estamos muy lejos.
11. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 11
¡La tan mentada y pregonada “era del usuario” parece aún muy lejana!
Mi idea sobre el futuro
Creo firmemente en un paradigma diferente del vigente, del representado por el “Estado del Arte” actual.
Creo en “bases de datos inteligentes” que nos permitan alimentar en forma declarativa todo el
conocimiento necesario (fundamentalmente “reglas del negocio”, “reglas de precedencia y/o de flujo”
y “reglas de autorización” con toda la generalidad que esos conceptos representan) de manera que
cualquier usuario sin la necesidad de conocimiento técnico alguno, de una manera simple, pueda
hacer en cualquier momento todo aquello que quiera y esté autorizado a hacer, sin necesidad de
programar.
Se podrá decir que lo que quiero es muy difícil.
Puedo concordar con ello. Pero refinemos esta respuesta un poco más: ¿es muy difícil porque carecemos de
la tecnología necesaria? No: es muy difícil porque no se ajusta al Estado del Arte actual, y por la tónica
general del mercado y de la industria, que se han mostrado muy conservadores.
A veces es mucho más difícil cambiar de paradigma que desarrollar la tecnología necesaria para hacer
realidad el nuevo paradigma.
Sólo alguno de los grandes jugadores del área de los Sistemas de Gerencia de Base de Datos (IBM,
Microsoft, Oracle, ¿algún otro?) puede, con éxito, abandonar el estándar SQL decidirse a buscar
soluciones mucho más evolucionadas. Pero es un gran riesgo para un líder, que con el éxito casi siempre
tiende a volverse conservador.
¿Cuál de ellos se animará?
Si alguno de estos líderes así lo resuelve, pienso que tendremos “bases de datos inteligentes”
rápidamente.
De no ser así, el actual estándar SQL tendrá una vida larga y relativamente pacífica. En ese caso el
problema no se resolverá con él, sino con sistemas de más alto nivel, basados en conocimiento, que
“operen” automáticamente el SQL.
Creo firmemente que es inevitable la sustitución del paradigma actual (como 40 años atrás orientado a los
programadores y a la programación algorítmica y manual) por un nuevo paradigma orientado al
conocimiento.
Creo que esa sustitución es inevitable porque la programación manual se muestra cada vez más inviable y
hoy implica muy baja productividad del desarrollo y dramáticos costos (dinero y tiempo) del
mantenimiento de sistemas y, muchas veces, obliga a las empresas a sacrificar su individualidad y
renunciar a ventajas competitivas, para adoptar paquetes estándar con las consiguientes rigideces, porque
les es imposible construir y mantener los que realmente necesita.
Algunos de los países más desarrollados tratan de solucionar el problema importando mano de obra, de
manera de bajar sus costos.
Paralelamente, muchas empresas, para tratar de disminuir sus grandes costos, han optado por transferir su
programación y, paulatinamente, su desarrollo (en algunos casos, llegando a un outsourcing total) a países
donde la mano de obra es relativamente calificada y muy barata. Cada vez más países pujan por ese
mercado.
Esta tendencia lleva a los usuarios finales a una paulatina perdida de libertad y constituye una fuerte
amenaza para la industria de software de la mayor parte de los países más desarrollados e, incluso, para la
latinoamericana.
Sin embargo, estos intentos para disminuir los costos son simples paliativos: la real solución es la
inserción de tecnología tal que haga que profesionales bien pagados puedan ser realmente eficientes
en términos mundiales sin necesidad de desplazarse de sus países.
12. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 12
¿Cuanto demoraremos en tener bases de datos inteligentes?, ¿cuanto demoraremos en llegar realmente a la
tan pregonada “era del usuario”?.
No lo sé, pero no es un problema de tecnología: la tecnología existe. Es un problema de actitud.
Desde nuestra empresa hemos dado los primeros pasos con Genexus y hoy existen miles de grandes
aplicaciones en todo el mundo, fundamentalmente sistemas de misión crítica, que son desarrollados y
mantenidos automáticamente en base a conocimiento, sin escribir una sola línea de código en lenguajes de
bajo nivel. Hay mucho más para hacer, pero se ha demostrado la viabilidad del nuevo paradigma. ¡No es
poco!
13. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 13
Bibliografía
En lo relativo a la bibliografía utilizada para la elaboración de este trabajo cabe hacer las siguientes puntualizaciones:
Es complejo proporcionar una bibliografía concreta cuando no se trata de temas puntuales sino de una intensa
experiencia de vida de más de 40 años de profesión orientados desde el comienzo a cosas no convencionales.
Más compleja aún se torna esta tarea cuando el autor, por su actividad profesional, ha tenido el privilegio de participar
en seminarios e intercambios informales de ideas con muchas de las principales figuras que hicieron la historia de las
bases de datos y de las metodologías de desarrollo de sistemas y/o, acceso a documentos no publicados de los mismos
(en algunos casos años antes de que los autores los acabaran publicando).
Existe, sin embargo otro problema creciente cada día: hace 40 años había un razonable equilibrio entre la investigación
realizada por los fabricantes y la realizada por las universidades de todo el mundo. Esa situación se ha modificado
paulatinamente y hoy la participación relativa de las universidades en la investigación informática se ha minimizado.
Esta situación no es buena, pero constituye la realidad mundial y tiene una primera consecuencia negativa muy
importante: la falta de publicaciones oportunas.
La industria se interesa por hacer cosas innovadoras, por superar a sus competidores y, pocas veces, por publicar
oportunamente sus descubrimientos tecnológicos. Hoy, para mantenernos actualizados en la frontera de la tecnología,
debemos recurrir a investigaciones propias y a nuestras buenas relaciones con otras empresas y con otros investigadores
ya que, generalmente, cuando algo se publica ya es tarde para tomar determinaciones oportunas.
Por todo ello listar simplemente una bibliografía sería totalmente insuficiente y, además, a esta altura de los tiempos,
cuando muchas de las incertidumbres que se tuvieron en su momento se han despejado, sería inútil para el lector por lo
que, además de unos pocos documentos y libros que siguen teniendo interés hoy, quiero referirme, como explicación y
como agradecimiento, a eventos y a personas que me han aportado sus puntos de vista.
Libros y “papers” publicados:
[1] Charles Bachman
The Integrated Data Store, a General Purpose Programming System for Random Access Memories, General
Electric, 1964.
Integrated Data Store Application Manual, General Electric, 1966.
[2] Edgar F. Codd
Derivability, Redundancy and Consistency of Relations Stored in Large Data Banks, IBM Research Report,
Santa Teresa Lab, San José, California, RJ599, 1969.
A Relational Model of Data for Large Shared Data Banks, CACM 13:6 1970.
Further Normalization of the Data Base Relational Model, IBM Research Report, Santa Teresa Lab, San
José, California, RJ909, 1971.
The Relational Model for Database Management, Addison-Wesley, 1990
[3] Desarrollo orientado a procesos
Edward Yourdon
A Case Study in Structured Programming – Redesign of a Payroll System, Proceedings of the IEEE
Compcon conference, 1975, New York, IEEE 1975
Techniques of Program Structure and Design, Englewood Cliffs, N.J.: Prentice-Hall, 1975
Managing the Structured Techniques, New York, Yourdon Press, 1979
Edward Yourdon & Larry Constantine:
Structured Design: Fundamentals of a Discipline of Computer Program and Systems Design, New
York, Yourdon Press, 1978
Tom De Marco
Structured Analysis and System Specification, New York, Yourdon Press, 1979
Chris Gane & Trish Sarson:
Structured Systems Analysis: Tool and Techniques, New York, Improved Systems Technologies,
1977
14. ¿DESARROLLO ORIENTADO A PROCESOS U ORIENTADO A DATOS?
XIII ENCUENTRO INTERNACIONAL GENEXUS
Página 14
[4] Desarrollo orientado a datos
Jean-Dominique Warnier
The Logical Construction of Programs, New York, van Nostrand Reinhold, 1974
Les procedures de traitement et leurs donnes, Les Editions D´Organization, Paris, 1975
La transformation des programes, Les Editions D´Organization, Paris, 1976
Entrainement a la programmation, Les Editions D´Organization, Paris, 1979
Ken Orr
Structured Systems Development, New York, Yourdon Press, 1977
Michael Jackson
Principles of Program Design, New York, Academy Press, 1975
System Development, Prentice-Hall International, 1983
[5] Administración del conocimiento
ARTech
Genexus General View, 1989- 2003, www.genexus.com/documents/generalview.pdf
Breogán Gonda, Juan Nicolás Jodal
Desarrollo Incremental, 1989-2003, ARTech
Algunas reflexiones sobre los Modelos de Datos a los 35 años de su introducción, 1997, 1er
Congreso Uruguayo de Informática, www.genexus.com/whitepapers
Genexus: Philosophy, 2002-2003, Artech, www.genexus.com/whitepapers
[6] Otros:
C.J. Date: An Introduction to Database Systems, Addisson-Wesley, 1976
David Maier: The Theory of Relational Databases,1983 Computer Science Press, Pitman, Publishing, 1983
Jeffrey D. Ullman:Principles of Database and Knowledge-Base Systems, Computer Science Press, 1988
Hermann E. Dolder: Diseño de Bases de Datos utilizando conceptos y técnicas de Inteligencia Artificial,
EUDEBA, 1987
Morton M. Astrahan, Mike W. Blasgen, Donald D. Chamberlin, Kapali P. Eswaran, Jim Gray,
Patricia P. Griffiths, W. Frank King III, Raymond A. Lorie, Paul R. McJones, James W. Mehl,
Gianfranco R. Putzolu, Irving L. Traiger, Bradford W. Wade, Vera Watson: System R: Relational
Approach to Database Management. TODS 1(2): 97-137 (1976)
Gerald Held, Michael Stonebraker, Eugene Wong: INGRES: A Relational Data Base Management
System. AFIPS NCC 1975: 409-416
Bo Sundgren: Theory of Databases, Petrocelli/Charter, New York, 1975
Borge Langefords, Bo Sundgren: Information Systems Architecture, Mason/Charter, New York, 1974
Donald E. Knuth: The Art of Computer Programming, Addison-Wesley, 1968-1973
Documentos no publicados.
Varios de Jean Dominique Warnier
Varios de Charles Bachman
Varios trabajos desarrollados por el Laboratorio Santa Teresa de IBM
Múltiples trabajos de otros laboratorios de investigación
Múltiples manuales y trabajos no publicados de fabricantes de los diferentes sistemas de gerencia de base de
datos
Cursos, seminarios y discusiones personales.
Seminario Avanzado de Bases de Datos celebrado en la Pontificia Universidad Católica de Río de Janeiro en
1976 con la participación de Codd, Date, Blasgen, Stonebraker, Furtado, etc.
Múltiples seminarios organizados por SCI en Brasil y, en mi carácter de Director de Tecnología de la
empresa organizadora, discusiones técnicas con los expositores como, por ejemplo, Yourdon, Gane, De
Marco y Date
Discusiones personales con mi amigo Hermann Dolder
Discusiones personales con mi amigo Ken Orr
Y, muy especialmente, discusiones personales con Nicolás Jodal y con el equipo de ARTech