lunes, 18 de marzo de 2013
Supongamos que nuestro programa debe manipular estructuras de datos de longitud desconocida. Un ejemplo simple podría ser el de un programa que lee las líneas de un archivo y las ordena. Por tanto, deberemos leer un número indeterminado de líneas, y tras leer la última, ordenarlas. Una manera de manejar ese ``número indeterminado'', sería declarar una constante
martes, 12 de marzo de 2013
UNIDADES DE MEDICIÓN
En informática, la cantidad de información más pequeña es el bit, que puede tomar los valores de 0 y 1.
Un byte está compuesto de 8 bits: 1B = 8 bits
Entonces ya que los datos están compuestos de bits, que pueden tomar dos valores, las unidades del sistema de medida en informática están en base 2, y no 10 como con otras unidades de uso común.
Un byte está compuesto de 8 bits: 1B = 8 bits
Entonces ya que los datos están compuestos de bits, que pueden tomar dos valores, las unidades del sistema de medida en informática están en base 2, y no 10 como con otras unidades de uso común.
La unidad básica en Informática es el bit. Un bit o Binary Digit es un dígito en sistema binario (0 o 1) con el que se forma toda la información. Evidentemente esta unidad es demasiado pequeña para poder contener una información diferente a una dualidad (abierto/cerrado, si/no), por lo que se emplea un conjunto de bits (en español el plural de bit NO es bites, sino bits).
Para poder almacenar una información más detallado se emplea como unidad básica el byte u octeto, que es un conjunto de 8 bits. Con esto podemos representar hasta un total de 256 combinaciones diferentes por cada byte.
Aquí hay que especificar un punto. Hay una diferencia entre octeto y byte. Mientras que un octeto tiene siempre 8 bits un byte no siempre es así, y si bien normalmente si que tiene 8 bits, puede tener entre 6 y 9 bits.
Precisamente el estar basado en octetos y no en el sistema internacional de medidas hace que las subsiguientes medidas no tengan un escalonamiento basado el este sistema (el SI o sistema internacional de medidas).
Veamos los más utilizados:
BYTE- Formado normalmente por un octeto (8 bits), aunque pueden ser entre 6 y 9 bits.
La progresión de esta medida es del tipo B=Ax2, siendo esta del tipo 8, 16, 32, 64, 128, 256, 512.
Se pueden usar capacidades intermedias, pero siempre basadas en esta progresión y siendo mezcla de ellas (24 bytes=16+8). KILOBYTE (K o KB).- Aunque se utilizan las acepciones utilizadas en el SI, un Kilobyte no son 1.000 bytes. Debido a lo anteriormente expuesto, un KB (Kilobyte) son 1.024 bytes. Debido al mal uso de este prefijo (Kilo, proveniente del griego, que significa mil), se está utilizando cada vez más el término definido por el IEC (Comisión Internacional de Electrónica) Kibi o KiB para designar esta unidad.
MEGABYTEe (MB).- El MB es la unidad de capacidad más utilizada en Informática. Un MB NO son 1.000 KB, sino 1.024 KB, por lo que un MB son 1.048.576 bytes. Al igual que ocurre con el KB, dado el mal uso del término, cada vez se está empleando más el término MiB.
GIGABYTE (GB).- Un GB son 1.024 MB (o MiB), por lo tanto 1.048.576 KB. Cada vez se emplea más el término Gibibyte o GiB.
Llegados a este punto en el que las diferencias si que son grandes, hay que tener muy en cuenta (sobre todo en las capacidades de los discos duros) que es lo que realmente estamos comprando. Algunos fabricantes utilizan el termino GB refiriéndose no a 1.024 MB, sino a 1.000 MB (SI), lo que representa una pérdida de capacidad en la compra. Otros fabricantes si que están ya utilizando el término GiB. Para que nos hagamos un poco la idea de la diferencia entre ambos, un disco duro de 250 GB (SI) en realidad tiene 232.50 GiB. TERABYTE (TB).- Aunque es aun una medida poco utilizada, pronto nos tendremos que acostumbrar a ella, ya que por poner un ejemplo la capacidad de los discos duros ya se está aproximando a esta medida.
Un Terabyte son 1.024 GB. Aunque poco utilizada aun, al igual que en los casos anteriores se está empezando a utilizar la acepción Tebibyte
Existen unas medidas superiores, como el Petabyte, Exabyte, Zettabyte o el Yottabite, que podemos calcular multiplicando por 1.024 la medida anterior. Estas medidas muy probablemente no lleguen a utilizarse con estos nombre, sino por los nuevos designados por el IEC.
En el círculo, indicación de la capacidad del disco, tanto en GB como en bytes.
PROCESAMIENTO FRECUENCIA DE TRANSMISION:
La velocidad de procesamiento de un procesador se mide en megahercios.
Un megahercio es igual a un millón de hercios.
Un hercio (o herzio o herz) es una unidad de frecuencia que equivale a un ciclo o repetición de un evento por segundo. Esto, en palabras simples, significa que un procesador que trabaje a una velocidad de 500 megahercios es capaz de repetir 500 millones de ciclos por segundo.
En la actualidad, dada la gran velocidad de los procesadores, la unidad más frecuente es el gigahercio, que corresponde a 1.000 millones de hercios por segundo.
Sobre esto hay que aclarar un concepto. Si bien en teoría a mayor frecuencia de reloj (más megahercios) su supone una mayor velocidad de procesamiento, eso es solo cierto a medias, ya que en la velocidad de un equipo no solo depende de la capacidad de procesamiento del procesador.
Estas unidades de medida se utilizan también para medir la frecuencia de comunicación entre los diferentes elementos del ordenador.
En la imagen, dentro del círculo, frecuencia del procesador, expresada en GHz.
VELOCIDAD TRANSMISION DE DATOS:
En el caso de definir las velocidades de transmisión se suele usar como base el bit, y más concretamente elbit por segundo, o bps
Los múltiplos de estos si que utilizan el SI o Sistema Internacional de medidas.
Los más utilizados sin el Kilobit, Megabit y Gigabit, siempre expresado en el término por segundo (ps).
Las abreviaturas se diferencian de los términos de almacenamiento en que se expresan con b minúscula.
Estas abreviaturas son:
Kbps.- = 1.000 bits por segundo.
Mbps.- = 1.000 Kbits por segundo.
Gbps.- = 1.000 Mbits por segundo.
En este sentido hay que tener en cuenta que las velocidades que en la mayoría de las ocasiones se muestran en Internet están expresadas en KB/s (Kilobyte por segundo), lo que realmente supone que nos dice la cantidad de bytes (unidad de almacenamiento) que hemos recibido en un segundo, NO la velocidad de trasmisión. Podemos calcular esa velocidad de transmisión (para pasarla a Kbps o Kilobits por segundo) simplemente multiplicando el dato que se nos muestra por 8, por lo que una trasmisión que se nos indica como de 308 KB/s corresponde a una velocidad de transmisión de 2.464 Kbps, a lo que es lo mismo, 2.64 Mbps. Esta conversión nos es muy útil para comprobar la velocidad real de nuestra línea ADSL, por ejemplo, ya que la velocidad de esta si que se expresa en Kbps o en Mbps.
En esta imagen podemos ver la velocidad de transferencia, expresada en KB/s (Kilobytes por segundo).
En la imagen superior podemos ver un ejemplo de lo anteriormente comentado. Se muestra una velocidad de transferencia de 331 KB/s, lo que corresponde (multiplicando este dato por 8) a una velocidad de transmisión de 2.648 Kbps, o lo que es lo mismo, 2.65 Mbps (Megabits por segundo).
Para poder almacenar una información más detallado se emplea como unidad básica el byte u octeto, que es un conjunto de 8 bits. Con esto podemos representar hasta un total de 256 combinaciones diferentes por cada byte.
Aquí hay que especificar un punto. Hay una diferencia entre octeto y byte. Mientras que un octeto tiene siempre 8 bits un byte no siempre es así, y si bien normalmente si que tiene 8 bits, puede tener entre 6 y 9 bits.
Precisamente el estar basado en octetos y no en el sistema internacional de medidas hace que las subsiguientes medidas no tengan un escalonamiento basado el este sistema (el SI o sistema internacional de medidas).
Veamos los más utilizados:
BYTE- Formado normalmente por un octeto (8 bits), aunque pueden ser entre 6 y 9 bits.
La progresión de esta medida es del tipo B=Ax2, siendo esta del tipo 8, 16, 32, 64, 128, 256, 512.
Se pueden usar capacidades intermedias, pero siempre basadas en esta progresión y siendo mezcla de ellas (24 bytes=16+8). KILOBYTE (K o KB).- Aunque se utilizan las acepciones utilizadas en el SI, un Kilobyte no son 1.000 bytes. Debido a lo anteriormente expuesto, un KB (Kilobyte) son 1.024 bytes. Debido al mal uso de este prefijo (Kilo, proveniente del griego, que significa mil), se está utilizando cada vez más el término definido por el IEC (Comisión Internacional de Electrónica) Kibi o KiB para designar esta unidad.
MEGABYTEe (MB).- El MB es la unidad de capacidad más utilizada en Informática. Un MB NO son 1.000 KB, sino 1.024 KB, por lo que un MB son 1.048.576 bytes. Al igual que ocurre con el KB, dado el mal uso del término, cada vez se está empleando más el término MiB.
GIGABYTE (GB).- Un GB son 1.024 MB (o MiB), por lo tanto 1.048.576 KB. Cada vez se emplea más el término Gibibyte o GiB.
Llegados a este punto en el que las diferencias si que son grandes, hay que tener muy en cuenta (sobre todo en las capacidades de los discos duros) que es lo que realmente estamos comprando. Algunos fabricantes utilizan el termino GB refiriéndose no a 1.024 MB, sino a 1.000 MB (SI), lo que representa una pérdida de capacidad en la compra. Otros fabricantes si que están ya utilizando el término GiB. Para que nos hagamos un poco la idea de la diferencia entre ambos, un disco duro de 250 GB (SI) en realidad tiene 232.50 GiB. TERABYTE (TB).- Aunque es aun una medida poco utilizada, pronto nos tendremos que acostumbrar a ella, ya que por poner un ejemplo la capacidad de los discos duros ya se está aproximando a esta medida.
Un Terabyte son 1.024 GB. Aunque poco utilizada aun, al igual que en los casos anteriores se está empezando a utilizar la acepción Tebibyte
Existen unas medidas superiores, como el Petabyte, Exabyte, Zettabyte o el Yottabite, que podemos calcular multiplicando por 1.024 la medida anterior. Estas medidas muy probablemente no lleguen a utilizarse con estos nombre, sino por los nuevos designados por el IEC.
En el círculo, indicación de la capacidad del disco, tanto en GB como en bytes.
PROCESAMIENTO FRECUENCIA DE TRANSMISION:
La velocidad de procesamiento de un procesador se mide en megahercios.
Un megahercio es igual a un millón de hercios.
Un hercio (o herzio o herz) es una unidad de frecuencia que equivale a un ciclo o repetición de un evento por segundo. Esto, en palabras simples, significa que un procesador que trabaje a una velocidad de 500 megahercios es capaz de repetir 500 millones de ciclos por segundo.
En la actualidad, dada la gran velocidad de los procesadores, la unidad más frecuente es el gigahercio, que corresponde a 1.000 millones de hercios por segundo.
Sobre esto hay que aclarar un concepto. Si bien en teoría a mayor frecuencia de reloj (más megahercios) su supone una mayor velocidad de procesamiento, eso es solo cierto a medias, ya que en la velocidad de un equipo no solo depende de la capacidad de procesamiento del procesador.
Estas unidades de medida se utilizan también para medir la frecuencia de comunicación entre los diferentes elementos del ordenador.
En la imagen, dentro del círculo, frecuencia del procesador, expresada en GHz.
VELOCIDAD TRANSMISION DE DATOS:
En el caso de definir las velocidades de transmisión se suele usar como base el bit, y más concretamente elbit por segundo, o bps
Los múltiplos de estos si que utilizan el SI o Sistema Internacional de medidas.
Los más utilizados sin el Kilobit, Megabit y Gigabit, siempre expresado en el término por segundo (ps).
Las abreviaturas se diferencian de los términos de almacenamiento en que se expresan con b minúscula.
Estas abreviaturas son:
Kbps.- = 1.000 bits por segundo.
Mbps.- = 1.000 Kbits por segundo.
Gbps.- = 1.000 Mbits por segundo.
En este sentido hay que tener en cuenta que las velocidades que en la mayoría de las ocasiones se muestran en Internet están expresadas en KB/s (Kilobyte por segundo), lo que realmente supone que nos dice la cantidad de bytes (unidad de almacenamiento) que hemos recibido en un segundo, NO la velocidad de trasmisión. Podemos calcular esa velocidad de transmisión (para pasarla a Kbps o Kilobits por segundo) simplemente multiplicando el dato que se nos muestra por 8, por lo que una trasmisión que se nos indica como de 308 KB/s corresponde a una velocidad de transmisión de 2.464 Kbps, a lo que es lo mismo, 2.64 Mbps. Esta conversión nos es muy útil para comprobar la velocidad real de nuestra línea ADSL, por ejemplo, ya que la velocidad de esta si que se expresa en Kbps o en Mbps.
En esta imagen podemos ver la velocidad de transferencia, expresada en KB/s (Kilobytes por segundo).
En la imagen superior podemos ver un ejemplo de lo anteriormente comentado. Se muestra una velocidad de transferencia de 331 KB/s, lo que corresponde (multiplicando este dato por 8) a una velocidad de transmisión de 2.648 Kbps, o lo que es lo mismo, 2.65 Mbps (Megabits por segundo).
VIRUS Y ANTIVIRUS
En la las computadoras no solamente se utilizan como herramientas auxiliares en nuestra vida, sino como un medio eficaz para obtener y información. La informática está presente hoy en día en todos los campos de la vida moderna facilitándonos grandemente nuestrodesempeño, sistematizando tareas que antes realizábamos manualmente.
Este esparcimiento informático no sólo nos ha traído sino que también problemas de gran importancia en la seguridad de los sistemas de información en negocios, , empresas, gobierno, en fin, en todos los aspectos relacionados con la sociedad. Y entre los problemas están los virusinformáticos cuyo propósito es ocasionar perjuicios al usuario de . Pueden ocasionar pequeños trastornos tales como la aparición de mensajes en hasta el formateo de los discos duros del ordenador, y efectivamente este puede ser uno de los mayores daños que un puede realizar a u ordenador.
Este esparcimiento informático no sólo nos ha traído sino que también problemas de gran importancia en la seguridad de los sistemas de información en negocios, , empresas, gobierno, en fin, en todos los aspectos relacionados con la sociedad. Y entre los problemas están los virusinformáticos cuyo propósito es ocasionar perjuicios al usuario de . Pueden ocasionar pequeños trastornos tales como la aparición de mensajes en hasta el formateo de los discos duros del ordenador, y efectivamente este puede ser uno de los mayores daños que un puede realizar a u ordenador.
Pero como para todas las cosas dañinas hay un antídoto, para los virus también lo hay: el antivirus, que como más adelante se describe es unprograma que ayuda a eliminar los virus o al menos a asilarlos de los demás archivos para que nos los contaminen.
En este trabajo discutiremos el tema de los virus, desde sus orígenes, sus creadores, la razón de su existencia entre otras cosas. El trabajo constará con descripciones de las categorías donde se agrupan los virus así como las diferencias de lo que es un virus contra lo que falsamente se considera virus.
También describiremos los métodos existentes en el mercado para contrarrestar los virus como son los antivirus, la concientización a los usuarios y laspolíticas de uso de las tecnologías en cuanto a seguridad y virus informáticos.
LOS VIRUS
- Son programas de computadora: En informática programa es sinónimo de Software, es decir el conjunto de instrucciones que ejecuta un ordenador o computadora.
- Es dañino: Un virus informático siempre causa daños en el sistema que infecta, pero vale aclarar que el hacer daño no significa que valla a romper algo. El daño puede ser implícito cuando lo que se busca es destruir o alterar información o pueden ser situaciones con efectos negativos para la computadora, como consumo de memoria principal, tiempo de procesador.
- Es auto reproductor: La característica más importante de este tipo de programas es la de crear copias de sí mismos, cosa que ningún otro programa convencional hace. Imaginemos que si todos tuvieran esta capacidad podríamos instalar un procesador de textos y un par de días más tarde tendríamos tres de ellos o más.
- Es subrepticio: Esto significa que utilizará varias técnicas para evitar que el usuario se de cuenta de su presencia. La primera medida es tener un tamaño reducido para poder disimularse a primera vista. Puede llegar a manipular el resultado de una petición al sistema operativo de mostrar el tamaño del archivo e incluso todos sus atributos.
antivirus:
Es un programa creado para prevenir o evitar la activación de los virus, así como su propagación y contagio. Cuenta además con rutinas de detención, eliminación y reconstrucción de los archivos y las áreas infectadas del sistema.
Un antivirus tiene tres principales funciones y componentes:
- VACUNA es un programa que instalado residente en la memoria, actúa como "filtro" de los programas que son ejecutados, abiertos para ser leídos o copiados, en tiempo real.
- DETECTOR, que es el programa que examina todos los archivos existentes en el disco o a los que se les indique en una determinada ruta o PATH. Tiene instrucciones de control y reconocimiento exacto de los códigos virales que permiten capturar sus pares, debidamente registrados y en forma sumamente rápida desarman su estructura.
- ELIMINADOR es el programa que una vez desactivada la estructura del virus procede a eliminarlo e inmediatamente después a reparar o reconstruir los archivos y áreas afectadas.
Es importante aclarar que todo antivirus es un programa y que, como todo programa, sólo funcionará correctamente si es adecuado y está bien configurado. Además, un antivirus es una herramienta para el usuario y no sólo no será eficaz para el 100% de los casos, sino que nunca será una protección total ni definitiva.
La función de un programa antivirus es detectar, de alguna manera, la presencia o el accionar de un virus informático en una computadora. Este es el aspecto más importante de un antivirus, independientemente de las prestaciones adicionales que pueda ofrecer, puesto que el hecho de detectar la posible presencia de un virus informático, detener el trabajo y tomar las medidas necesarias, es suficiente para acotar un buen porcentaje de los daños posibles. Adicionalmente, un antivirus puede dar la opción de erradicar un virus informático de una entidad infectada.
martes, 5 de marzo de 2013
Manejo de Archivos y Carpetas
QUE ES UNA CARPETA
Una carpeta es básicamente un contenedor donde se pueden almacenar archivos. Si coloca miles de archivos en papel en el escritorio de alguien, sería prácticamente imposible encontrar uno concreto cuando lo necesitara. Por este motivo, la gente a menudo almacena los archivos en papel en archivadores. La organización de los archivos en grupos lógicos facilita la búsqueda de archivos concretos.
FORMATOS DE ARCHIVO
Algunos archivos pueden servir para almacenar tipos de datos muy particulares: el formato JPEG, también llamado JPG, por ejemplo, está diseñado para almacenar solamente [imágenes] estáticas. Otros formatos de archivo, sin embargo, están diseñados para almacenar varios tipos diferentes de datos: el formato GIF admite almacenar imágenes estáticas y animaciones simples, y el formato QuickTime puede actuar como un contenedor para muchos tipos diferentes de multimedia. Un archivo de texto es simplemente uno que almacena cualquier texto, en un formato como ASCII o Unicode, con pocos o ninguno caracteres de control. Algunos formatos de archivo, como HTML, o el código fuente de algún lenguaje de programación particular, también son de hecho archivos de texto, pero se adhieren a reglas más específicas que les permiten ser usados para propósitos específicos.
A veces es posible hacer que un programa lea un archivo codificado en un formato como si hubiera sido codificado en otro formato. Por ejemplo, uno puede reproducir un documento de Microsoft Word como si fuera una canción usando un programa de reproducción de música que acepte archivos de audio «sin cabecera». El resultado no suena muy melodioso, sin embargo. Esto es así porque una disposición sensata de bits en un formato casi nunca tiene sentido en otro.
COMPRENSION DE ARCHIVOS.
En ciencias de la computación la compresión de datos es la reducción del volumen de datos tratables para representar una determinada información empleando una menor cantidad de espacio. Al acto de compresión de datos se denomina compresión, y al contrario descompresión.
El espacio que ocupa una información codificada (datos, señal digital, etc.) sin compresión es el cociente entre la frecuencia de muestreo y la resolución. Por tanto, cuantos másbits se empleen mayor será el tamaño del archivo. No obstante, la resolución viene impuesta por el sistema digital con que se trabaja y no se puede alterar el número de bits a voluntad; por ello, se utiliza la compresión, para transmitir la misma cantidad de información que ocuparía una gran resolución en un número inferior de bits.
La compresión es un caso particular de la codificación, cuya característica principal es que el código resultante tiene menor tamaño que el original.
La compresión de datos se basa fundamentalmente en buscar repeticiones en series de datos para después almacenar solo el dato junto al número de veces que se repite. Así, por ejemplo, si en un fichero aparece una secuencia como "AAAAAA", ocupando 6 bytes se podría almacenar simplemente "6A" que ocupa solo 2 bytes, en algoritmo RLE.
En realidad, el proceso es mucho más complejo, ya que raramente se consigue encontrar patrones de repetición tan exactos (salvo en algunas imágenes). Se utilizan algoritmos de compresión:
- Por un lado, algunos buscan series largas que luego codifican en formas más breves.
- Por otro lado, algunos algoritmos, como el algoritmo de Huffman, examinan los caracteres más repetidos para luego codificar de forma más corta los que más se repiten.
- Otros, como el LZW, construyen un diccionario con los patrones encontrados, a los cuales se hace referencia de manera posterior.
- La codificación de los bytes pares es otro sencillo algoritmo de compresión muy fácil de entender.
A la hora de hablar de compresión hay que tener presentes dos conceptos:
- Redundancia: Datos que son repetitivos o previsibles
- Entropía: La información nueva o esencial que se define como la diferencia entre la cantidad total de datos de un mensaje y su redundancia.
La información que transmiten los datos puede ser de tres tipos:
- Redundante: información repetitiva o predecible.
- Irrelevante: información que no podemos apreciar y cuya eliminación por tanto no afecta al contenido del mensaje. Por ejemplo, si las frecuencias que es capaz de captar el oído humano están entre 16/20 Hz y 16.000/20.000 Hz, serían irrelevantes aquellas frecuencias que estuvieran por debajo o por encima de estos valores.
- Básica: la relevante. La que no es ni redundante ni irrelevante. La que debe ser transmitida para que se pueda reconstruir la señal.
Teniendo en cuenta estos tres tipos de información, se establecen tres tipologías de compresión de la información:
- Sin pérdidas reales: es decir, transmitiendo toda la entropía del mensaje (toda la información básica e irrelevante, pero eliminando la redundante).
- Subjetivamente sin pérdidas: es decir, además de eliminar la información redundante se elimina también la irrelevante.
- Subjetivamente con pérdidas: se elimina cierta cantidad de información básica, por lo que el mensaje se reconstruirá con errores perceptibles pero tolerables (por ejemplo: la videoconferencia).
FORMATO DE ARCHIVOS.
Algunos archivos pueden servir para almacenar tipos de datos muy particulares: el formato JPEG, también llamado JPG, por ejemplo, está diseñado para almacenar solamente [imágenes] estáticas. Otros formatos de archivo, sin embargo, están diseñados para almacenar varios tipos diferentes de datos: el formato GIF admite almacenar imágenes estáticas y animaciones simples, y el formato QuickTime puede actuar como un contenedor para muchos tipos diferentes de multimedia. Un archivo de texto es simplemente uno que almacena cualquier texto, en un formato como ASCII o Unicode, con pocos o ninguno caracteres de control. Algunos formatos de archivo, como HTML, o el código fuente de algún lenguaje de programación particular, también son de hecho archivos de texto, pero se adhieren a reglas más específicas que les permiten ser usados para propósitos específicos.
A veces es posible hacer que un programa lea un archivo codificado en un formato como si hubiera sido codificado en otro formato. Por ejemplo, uno puede reproducir un documento de Microsoft Word como si fuera una canción usando un programa de reproducción de música que acepte archivos de audio «sin cabecera». El resultado no suena muy melodioso, sin embargo. Esto es así porque una disposición sensata de bits en un formato casi nunca tiene sentido en otro.
FORMATOS MAS COMUNES.
Para ayudarte a entender
mejor estos tipos de
archivos aquí te dejamos
un breve glosario con los
formatos más comunes:
1. DOC y DOCX: Archivo
de texto de Microsoft
Office Word.
2. ODT: Archivo de texto
de OpenOffice.org.
3. PPT y PPTX:
Presentación multimedia
de Microsoft Office
PowerPoint.
4. ODP: Presentación
multimedia de
OpenOffice.org
5. XLS y XLSX: Hoja de
cálculo de Microsoft Office
Excel.
6. ODS: Hoja de cálculo
de OpenOffice.org.
7. JPG: Imagen de
calidad variable.
8. GIF: Imagen baja
calidad pero puede
contener animaciones.
9. PNG: Imagen de
calidad variable
desarrollada
especialmente para
Internet.
10. BMP: Imagen en
"mapa de bits" suelen ser
archivos muy grandes.
11. ZIP: Archivo
comprimido, debe abrirse
con algún programa
auxiliar como WinZip.
Aunque los Sistemas
Operativos más nuevos ya
lo hacen
automáticamente.
12. TAR: Archivo
comprimido, debe abrirse
con algún programa
auxiliar como WinTar, suele
ser más eficiente que el
Zip, permite proteger con
contraseña, pero es menos
común.
13. EXE: Programa
ejecutable, si recibes
alguno por internet,
asegúrate de su
procedencia porque
podrá ser un virus.
Suscribirse a:
Comentarios (Atom)

