El documento resume la historia del desarrollo de Internet. Comenzó como una red militar estadounidense llamada ARPANET en la década de 1960, conectando cuatro universidades. Se desarrolló el concepto de conmutación de paquetes para enviar datos a través de la red. En la década de 1970, ARPANET se expandió a más instituciones y se desarrollaron otras redes. Actualmente, Internet2 se está desarrollando para satisfacer las mayores necesidades de ancho de banda y aplicaciones de audio y video.
Jacqueline Analuisa NIVEL PROPEDEÚTICO
Soy una chica alegre,me encanta bailar,y disfrutar la vida peroooo sin excesos
sábado 7 de mayo de 2011
introducción
" ¡Bienvenidos a la aventura del saber y aprender! "
Al iniciar con este ciclo propedeutico , todos llegamos con un conjunto de sentimientos entre ellos estaba el miedo a fracasar al no poder concluir con lo que estabamos empezando.
Recibimos orientacion vocacional impartido por el ingeniero Naranjo que expreso su anhelo de al finalizar el curso propedeutico elijamos bien la carrera que vamos a seguir (tecnologia en analisis de sistemas , tecnologia en administración de empresas)
Modulos:
• Internet
• Algoritmos
• Redes de computadoras
• Arquitectura de computadoras
Historia de Microsoft
Microsoft es una compañía multinacional dedicada a la tecnología informática. Comienza el 4 de abril1975, cuando fue fundada por Bill Gates y Paul Allen en Albuquerque. Sus mejores productos actúales en venta son su sistema operativo Windows y su suite ofimática Microsoft Office. de
Sistema operativo:
Un sistema operativo (SO) es el programa o conjunto de programas que efectúan la gestión de los procesos básicos de un sistema informático, y permite la normal ejecución del resto de las operaciones.
Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, que es el núcleo del sistema operativo GNU, del cual existen las llamadas distribuciones GNU. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.
Software de pago
Forman el Software de pago todos aquellos programas informáticos cuya versión completa cuesta dinero. Aunque en teoría el término software ya de por sí denomina estos programas (ya que el nombre técnico de los programas gratis es Freeware), por extensión ya define a cualquier programa informático y por ello hay que utilizar la expresión "software de pago" para referirse a los programas por los que hay que pagar.
Normalmente los programas de software de pago tienen una "versión de prueba", que puede ser:
1- Una versión del programa cuyos contenidos estén restringidos y haya que comprar la versión completa para acceder a todos ellos.
2- Una versión similar a la completa pero que caduca llegado a cierto tiempo de manera que ya no se pueda usar más. Es menos segura que la anterior porque al caducar se puede reinstalar perfectamente; aún así aún hay software de pago que la usa.
Técnicamente, las versiones de prueba de los programas de pago se llaman Shareware
Software libre:
es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, modificado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado.
El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede s
Jacqueline Analuisa NIVEL PROPEDEÚTICO
Soy una chica alegre,me encanta bailar,y disfrutar la vida peroooo sin excesos
sábado 7 de mayo de 2011
introducción
" ¡Bienvenidos a la aventura del saber y aprender! "
Al iniciar con este ciclo propedeutico , todos llegamos con un conjunto de sentimientos entre ellos estaba el miedo a fracasar al no poder concluir con lo que estabamos empezando.
Recibimos orientacion vocacional impartido por el ingeniero Naranjo que expreso su anhelo de al finalizar el curso propedeutico elijamos bien la carrera que vamos a seguir (tecnologia en analisis de sistemas , tecnologia en administración de empresas)
Modulos:
• Internet
• Algoritmos
• Redes de computadoras
• Arquitectura de computadoras
Historia de Microsoft
Microsoft es una compañía multinacional dedicada a la tecnología informática. Comienza el 4 de abril1975, cuando fue fundada por Bill Gates y Paul Allen en Albuquerque. Sus mejores productos actúales en venta son su sistema operativo Windows y su suite ofimática Microsoft Office. de
Sistema operativo:
Un sistema operativo (SO) es el programa o conjunto de programas que efectúan la gestión de los procesos básicos de un sistema informático, y permite la normal ejecución del resto de las operaciones.
Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, que es el núcleo del sistema operativo GNU, del cual existen las llamadas distribuciones GNU. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.
Software de pago
Forman el Software de pago todos aquellos programas informáticos cuya versión completa cuesta dinero. Aunque en teoría el término software ya de por sí denomina estos programas (ya que el nombre técnico de los programas gratis es Freeware), por extensión ya define a cualquier programa informático y por ello hay que utilizar la expresión "software de pago" para referirse a los programas por los que hay que pagar.
Normalmente los programas de software de pago tienen una "versión de prueba", que puede ser:
1- Una versión del programa cuyos contenidos estén restringidos y haya que comprar la versión completa para acceder a todos ellos.
2- Una versión similar a la completa pero que caduca llegado a cierto tiempo de manera que ya no se pueda usar más. Es menos segura que la anterior porque al caducar se puede reinstalar perfectamente; aún así aún hay software de pago que la usa.
Técnicamente, las versiones de prueba de los programas de pago se llaman Shareware
Software libre:
es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, modificado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado.
El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede s
Improving Findability: The Role of Information Architecture in Effective SearchScott Abel
Presented at Documentation and Training East 2007 by Seth Earley -- Search is not just a plug in or a utility. While "just Googling" for information works on the web, there are numerous reasons why this is not always the best approach for intranets and individual web sites.
This slide deck explores the role of information architecture and discusses 5 important strategies for improving search including tuned search, metadata and tagging, faceted search, term expansion and disambiguation, and results clustering.
Para llegar a comprender la conexión actual entre el internet y la educación es importante conocer cómo se creó el internet y cómo fue evolucionando hasta convertirse en el fenómeno digital que conocemos hoy en día.
Ponencia en I SEMINARIO SOBRE LA APLICABILIDAD DE LA INTELIGENCIA ARTIFICIAL EN LA EDUCACIÓN SUPERIOR UNIVERSITARIA. 3 de junio de 2024. Facultad de Estudios Sociales y Trabajo, Universidad de Málaga.
LA PEDAGOGIA AUTOGESTONARIA EN EL PROCESO DE ENSEÑANZA APRENDIZAJEjecgjv
La Pedagogía Autogestionaria es un enfoque educativo que busca transformar la educación mediante la participación directa de estudiantes, profesores y padres en la gestión de todas las esferas de la vida escolar.
el pensamiento critico de paulo freire en basica .pdf
Historia del Internet
1. La Historia del Internet Diego Armando Rueda Noreña cod.2209503 UNIDAD CENTRAL DEL VALLE DEL CAUCA INFORMATICA APLICADA INGENIERIA INDUSTRIAL II SEMESTRE TULUA-VALLE 2010 Internet El Internet (fusión de las telecomunicaciones e informática) como cualquier proyecto innovador nace como resultado de las necesidades de las fuerzas militares (en este caso las fuerzas Norteamericanas). Luego de su creación su uso paso totalmente militar a uno menos bélico y con fines en pro de la humanidad, es decir a por el gobierno, universidades y otros centros académicos. Desde entonces el internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. No obstante para que ello fuese una realidad ciertas condiciones eran necesarias, es decir los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida (propagación de la información y un medio de dinamismo entre los individuos independientemente de su localización geográfica). Los primeros pasos hacia el internet fueron dados gracias a J.C.R. Licklider (Massachusetts Institute of Technology) en Agosto de 1962 con su concepto de la red galáctica. En la cual era una red globalmente interconectada atreves de la cual los usuarios podían acceder a información y programas. Gracias a estos resultados y su persistencia en la importancia de la red como fuerza motora del futuro, sus sucesores continuaron con su trabajo para llevarlo hasta como conocemos hoy el internet. Por ello en Julio de 1961, Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Lo cual repercuto en la manera de enviar comunicaciones e información atreves de la red (antes se hacia por medio de circuitos). Sin embargo a pesar de los avances, un gran paso fundamental que caracterizo a la internet como tal, era lograr dialogar dos o mas ordenadores entre si. Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota. No obstante la línea telefónica de conmutación de circuitos no era la apropiada para la función que era aplicada, lo cual reafirmaría la importancia y necesidad de la conmutación de paquetes en la red. Ya atreves del tiempo, comenzaron a llegar las mejores como resultado de la necesidad y competencia en las diferentes universidades y empresas de comunicaciones, por ejemplo DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processor. A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ), y así, a finales de 1969, cuatro ordenadores host fueron conectados conjuntamente a la ARPANET inicial y se hizo realidad una Internet realmente joven. No obstante este internet precoz requirió de los conocimientos viejos de red y de nuevas investigaciones sobre esta, tal cual como continua ocurriendo hoy para su continua mejora y transformación a las necesidades actuales. Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas. Por ejemplo el Departamento norteamericano de Energía (DoE, Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN entre otros aplicaciones que tuvo la internet en el diario vivir. No obstante, a pesar de todos los avances y herramientas desarrolladas pro los diferentes grupos, equipos y colaboradores. El internet es un medio dinámico que evoluciona a la par con su contexto o realidad, es por esta razón que gracias a los nuevos cambios y necesidades de la humanidad la internet se redefinirá y reestructurará para crear la internet2, es decir el futuro de la red de redes la cual está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores; cuyos fines o objetivos específicos son el desarrollo conocimiento e investigación. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda entre otras herramientas.