1. Practica 1 ¿Que significa URL? El URL:
Uniform Resources Locator
o
Localizadores de Recursos Uniformes
, se refiere a las direcciones en la Red. Y simplemente es una estandarización de recursos para poder encontrar las direcciones en la Red. /espanol/internet/url.html - Todo lo que se encuentra después del nombre se refiere a un directorio o archivo en esa computadora. El sistema del URL es sensitivo. Lo mejor es escribir las direcciones tal y como aparecen. Si se presentan con mayúsculas, se deben usar mayúsculas. Existen 3 archivos de imagen es una imagen rasterizada es una estructura o fichero de datos que representa una rejilla rectangular de pixeles o puntos de color, denominada raster, que se puede visualizar en un monitor de ordenador, papel u otro dispositivo de representación. A las imágenes rasterizadas se las suele caracterizar técnicamente por su altura y anchura (en pixels) y por su profundidad de color (en bits por pixel), que determina el número de colores distintos que se pueden almacenar en cada pixel, y por lo tanto, en gran medida, la calidad del color de la imagen. es un formato gráfico utilizado ampliamente, tanto para imágenes como para animaciones, se creo para dotar de un formato de imagen a color para sus áreas de descarga de ficheros, sustituyendo su temprano formato RLE en blanco y negro. GIF es un formato sin pérdida de calidad para imágenes con hasta 256 colores, limitados por una paleta restringida a este número de colores. Por ese motivo, con imágenes con más de 256 colores (profundidad de color superior a 8), la imagen debe adaptarse reduciendo sus colores, produciendo la consecuente pérdida de calidad. Además de ser un método de compresión, es a menudo considerado como un formato de archivo. JPEG/Exif es el formato de imagen más común utilizado por las cámaras fotográficas digitales y otros dispositivos de captura de imagen, junto con JPEG/JFIF, que también es otro formato para el almacenamiento y la transmisión de imágenes fotográficas, es el formato más utilizado para almacenar y transmitir archivos de fotos en Internet. Estas variaciones de formatos a menudo no se distinguen, y se llaman JPEG. Una de las características que hacen muy flexible el JPEG es el poder ajustar el grado de compresión. Si especificamos una compresión muy alta se perderá una cantidad significativa de calidad, pero obtendremos archivos de pequeño tamaño. Con una tasa de compresión baja obtenemos una calidad muy parecida a la del original, y un archivo mayor. Esta pérdida de calidad se acumula. Esto significa que si comprime una imagen y la descomprime obtendrá una calidad de imagen, pero si vuelve a comprimirla y descomprimirla otra vez obtendrá una pérdida mayor. Cada vez que comprima y descomprima la imagen, ésta perderá algo de calidad. Las extensiones de las imágenes realizadas para la práctica son: Imagen mapa de bits 560kb Imagen gif 23.3kb Imagen jpeg 88.1kb 1 BUna letra10 BUna o dos palabras100 BUna o dos frases1 kBUna historia muy corta10 kBUna página de enciclopedia (tal vez con un dibujo simple)100 kBUna fotografía de resolución mediana1 MBUna novela10 MBDos copias de la obra completa de Shakespeare100 MB1 metro de libros en estantería1 GBUna furgoneta llena de páginas con texto1 TB50.000 árboles de papel10 TBLa colección impresa de la biblioteca del congreso de EE. UU. equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente es una unidad de almacenamiento de información cuyo símbolo es el kB (a veces se utiliza KB), y equivale a 210 bytes (valor aplicando la definición de prefijo binario, aceptado por todo sistema operativo que se haya creado hasta la fecha) o a 103 bytes (valor aplicando la definición del Sistema Internacional de Unidades). Es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del octeto, que equivale a 106 (1.000.000 octetos) o 220 (1.048.576 octetos), según el contexto. La primera definición es más acorde al prefijo mega-, mientras que la segunda es una cantidad más práctica desde el punto de vista informático. Un gigabyte es una unidad de medida informática cuyo símbolo es el GB, y puede equivalerse a 230 bytes o a 109 bytes, según el uso. Como resultado de esta confusión, el término
gigabyte
resulta ambiguo, a no ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre los usos binarios y decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos. Un terabyte es una unidad de medida de almacenamiento de datos cuyo símbolo es TB y puede equivaler a 1024 GB. Confirmado en 1960, viene del griego τέρας, que significa monstruo. Debido a irregularidades en la definición y uso del kilobyte, el número exacto de bytes en un terabyte en la práctica, podría ser cualquiera de los siguientes valores: 12000.0001000.000 bytes - 1012, un billón. Esta definición es la que se usa en el contexto general cuando se refiere a almacenamiento en discos, redes u otro hardware. 12099.5111627.776 bytes - 10244 ó 240. Esto es 1024 veces un gigabyte (un gigabyte 'binario'). Esta es la definición más usada en las ciencias de la computación (computer science) y en programación (computer programming) y, la mayor parte del software, emplea también esta definición