miércoles, 20 de octubre de 2010

Codigos

Códigos
Código: Combinación de signos que tiene un determinado valor dentro de un sistema establecido y que obedeciendo a un conjunto de reglas permite formular y comprender un mensaje.
Códigos ASCII y UNICODE
ASCII, acrónimo de American Standard Code for Information Interchange (Código Normalizado Americano para el Intercambio de Información). En computación, un esquema de codificación que asigna valores numéricos a las letras, números, signos de puntuación y algunos otros caracteres. Al normalizar los valores utilizados para dichos caracteres, ASCII permite que los ordenadores o computadoras y programas informáticos intercambien información evitando problemas de compatibilidad.
ASCII incluye 256 caracteres divididos en dos conjuntos, estándar y extendido, de 128 caracteres cada uno. Estos conjuntos representan todas las combinaciones posibles de 7 u 8 bits, siendo esta última el número de bits en un byte. El conjunto ASCII básico, o estándar, utiliza 7 bits para cada código, lo que da como resultado 128 códigos de caracteres desde 0 hasta 127 (00 hasta 7F hexadecimal). El conjunto ASCII extendido utiliza 8 bits para cada código, dando como resultado 128 códigos adicionales, numerados desde el 128 hasta el 255 (80 hasta FF hexadecimal).
El código ASCII reserva los primeros 32 elementos para control, son elementos no pensados originalmente para representar información imprimible, sino para controlar dispositivos como las impresoras.
Sin embargo, aun el ASCII extendido con sus 256 caracteres es insuficiente para representar los símbolos propios de muchos idiomas, así que se propuso un nuevo código que utiliza 16 bits, el UNICODE, con el cual es posible representar 65536 caracteres distintos y que es compatible con el código ASCII extendido.


UNICODE
Unicode proporciona un número único para cada carácter, sin importar la plataforma, ni el programa, ni el idioma, permitiendo un fácil traspaso entre distintos sistemas de codificación y plataformas.
Las computadoras sólo trabajan con números. Almacenan letras y otros caracteres mediante la asignación de un número a cada uno. Antes de que se inventara Unicode, existían cientos de sistemas de codificación distintos para asignar estos números. Ninguna codificación específica podía contener caracteres suficientes: por ejemplo, la Unión Europea, por sí sola, necesita varios sistemas de codificación distintos para cubrir todos sus idiomas. Incluso para un solo idioma como el inglés, no había un único sistema de codificación que se adecuara a todas las letras, signos de puntuación y símbolos técnicos de uso común.
Además, estos sistemas de codificación presentan problemas entre ellos. Es decir, dos sistemas de codificación pueden utilizar el mismo número para dos caracteres distintos o bien utilizar números distintos para el mismo carácter. Toda computadora (especialmente los servidores) necesita ser compatible con muchos sistemas de codificación distintos; sin embargo, cada vez que los datos se traspasan entre distintos sistemas de codificación o plataformas, dichos datos siempre corren el riesgo de sufrir daños.
Unicode proporciona un número único para cada carácter, sin importar la plataforma, ni el programa, ni el idioma.
Para ello, este método utiliza dos bytes por cada carácter. Cómo referencia, en el formato ASCII clásico es suficiente un solo byte para representar cada carácter. Esta mayor cantidad de espacio, normalmente está prevista por los programas y sistemas operativos que soportan esta codificación, y no debería representar un problema en circunstancias normales. 


La computadora

La computadora
Computadora: Sistema que recibe instrucciones en forma de programas para resolver diferentes tareas, que en general consisten en recibir datos, procesarlos y entregar resultados en una forma deseada.
Hardware: Componentes mecánicos, magnéticos, eléctricos y electrónicos de una computadora. Es la parte física de la computadora.
Equipo central: Es el hardware constituido por la Unidad Central de Proceso, la Memoria Principal y las los Sistemas de Entrada/Salida. Este equipo central es descrito por medio del modelo o arquitectura de Von Neumann.
Arquitectura de Von Neumann: Es una familia de arquitecturas de computadoras que utilizan el mismo dispositivo de almacenamiento tanto para las instrucciones como para los datos.


Clasificación de software

Software de sistema: El software de sistema, denominado también software de base, consiste en programas necesarios para controlar e interactuar con la computadora, proporcionando control sobre el hardware y dando soporte a otros programas. Dicho de otra forma. Son los programas básicos para hacer funcionar la computadora. Entre este tipo de software están los sistemas operativos y los controladores de dispositivos.
Software de aplicación: Son programas que el usuario utiliza para realizar tareas propias de la actividad cotidiana, en las cuales el interés recae en los resultados obtenidos más que en el funcionamiento intrínseco de la computadora.Software comercial: Son programas o conjuntos de programas de venta masiva destinados a realizar las tareas más comunes de los usuarios de una computadora.
Software sobre diseño: Son programas que han sido diseñados para satisfacer necesidades específicas de un usuario, y que por esas características no tienen aplicación directa para otros usuarios.
Virus: Programa que puede insertar copias ejecutables de sí mismo en otros programas, alterando la estructura del software de la computadora sin autorización y conocimiento del usuario.
Antivirus: Programa que sirve para detectar y eliminar virus de computadoras.


Unidad 2: Aritmética binaria

Una de las principales aplicaciones de la electrónica digital es el diseño de dispositivos capaces de efectuar cálculos aritméticos, ya sea como principal objetivo (calculadoras, computadoras, máquinas registradoras, etc.) o bien, como una subfunción que les permita realizar su cometido principal (medidores, controladores, registradores, etc.) Por ello, y dado que los sistemas digitales sólo pueden manejar información binaria, es necesario entender las operaciones aritméticas fundamentales en términos del sistema de numeración binario. En este capítulo se tratan las operaciones fundamentales en el sistema binario solamente para números enteros. Un tratamiento más general debe contener un tratamiento de números fraccionarios, es decir, la aritmética de punto fijo y la de punto flotante. La primera de estas dos es una extensión casi inmediata del la aritmética entera.
Notación En este capítulo cuando no se anote el subíndice de un número que sólo contiene unos y ceros se sobreentenderá que está en binario.

2.1.- ADICIÓN O SUMA BINARIA

En forma similar a como realizamos las sumas en decimal, para realizarlas en otros sistemas es necesario aprender de memoria algunas sumas básicas, especialmente las sumas de dígito con dígito; en decimal éstas son 100 sumas (tablas de sumar), mientras que en binario son sólo 4, puesto que en binario sólo hay dos dígitos:
Notación En este capítulo cuando no se anote el subíndice de un número que sólo contiene unos y ceros se sobreentenderá que está en binario.



Tipos de computadoras

Computadoras Personales
A estos tipos de computadoras se les conocen como microcomputadoras, computadoras personales o computadoras PC ya que están diseñadas para ser utilizadas por una sola persona a la vez. Estas computadoras utilizan un microprocesador como CPU.
Las computadoras PC se usan por lo general en la casa, la escuela o en un negocio. Sus aplicaciones más populares son procesamiento de textos, navegación de internet, correo electrónico, hojas de cálculo, administración de bases de datos, edición de fotografías, creación de gráficos, juegos y música.


PDA's y Computadoras de Mano
Los tipos de computadoras PDA (Personal Digital Assistant) o "palmtop" son microcomputadoras muy pequeñas que sacrifican poder por tamaño y portabilidad. Normalmente utilizan una pantalla de LCD sensible al tacto para la entrada/salida de datos. Las PDA's se pueden comunicar con computadoras portátiles o de escritorio por medio de cables, por rayos infrarojos (IR) o por radio frecuencias. Algunos usos de las PDA's son el manejo de agenda, lista de pendientes, directorios y como cuaderno de notas.Una computadora "handheld" o computadora de mano es una computadora pequeña que también sacrifica poder por tamaño y portabilidad. Estos aparatos parecen más una laptop pequeña que un PDA por su pantalla movible y su teclado. Pueden utilizar Windows CE o un sistema operativo similar.


Estaciones de Trabajo y Servidores
Los tipos de computadoras conocidos como estaciones de trabajo son computadoras de alto nivel y contienen uno o más microprocesadores. Pueden ser utilizadas por un solo usuario en aplicaciones que requieren más poder de cómputo que una computadora PC típica, por ejemplo la ejecución de cálculos científicos intensivos o el trazo de gráficos complejos.
Alternativamente, estas computadoras pueden usarse como servidores de archivos y servidores de impresión a usuarios en una red de computadoras típica. Estos tipos de computadoras también se utilizan para manejar los procesamientos de datos de muchos usuarios simultáneos conectados vía terminales tontas. En este aspecto, las estaciones de trabajo de alto nivel han substituido a las minicomputadoras.
El término "estación de trabajo" tiene otro significado. En una red, cualquier computadora cliente conectada a la red que accesa los recursos del servidor, puede llamarse estación de trabajo. Dicha estación de trabajo puede ser una computadora personal o una verdadera "estación de trabajo" como se definió mas arriba.
Las terminales tontas no se consideran estaciones de trabajo de una red. Las estaciones de trabajo clientes, son capaces de correr programas independientemente del servidor; pero una terminal no es capaz de procesamiento independiente.


Minicomputadoras
Las minicomputadoras son verdaderas computadoras multiusuario, pero con menos capacidad que las computadoras mainframe. Estos tipos de computadoras aparecieron en los años 1960's cuando los circuitos integrados de grande escala hicieron posible la fabricación de una computadora mucho más barata que las computadoras mainframe existentes. Su costo se redujo en el orden de 10 veces.
Hoy en día, el nicho de las minicomputadoras ha sido ocupado por las estaciones de trabajo de alto nivel, atendiendo a usuarios múltiples.


Computadoras Mainframe
Una computadora mainframe es una computadora grande y poderosa que maneja el procesamiento para muchos usuarios simultáneamente (Hasta varios cientos de usuarios). El nombre mainframe se originó después de que las minicomputadoras aparecieron en los 1960's para distinguir los sistemas grandes de dichas minicomputadoras.
Los usuarios se conectan a la computadora mainframe utilizando terminales que someten sus tareas de procesamiento a la computadora central. Una terminal es un aparato que tiene pantalla y teclado para la entrada / salida, pero que no tiene capacidad de cómputo. También se conocen estas como terminales tontas.
La capacidad de procesamiento de la mainframe se comparte en tiempo entre todos los usuarios. Una computadora PC puede "emular" a una terminal tonta para conectarse a una minicomputadora o a una mainframe. Esto se logra mediante un software especial.
Las computadoras mainframe cuestan varios cientos de miles de dólares. Se usan en situaciones en que las empresas requieren tener centralizados en un lugar tanto el poder de cómputo como el almacenamiento de la información. Las mainframe también se usan como servidores de alta capacidad para redes con muchas estaciones de trabajo clientes.


Supercomputadoras
Una supercomputadora es una computadora mainframe optimizada en velocidad y capacidad de procesamiento. Las supercomputadoras más famosas fueron diseñadas por la empresa Cray Inc., fundada por Seymour Cray. La cray-1 se construyó en 1976 y se instaló en el laboratorio Los Alamos National Laboratory.
Estos tipos de computadoras se usan en tareas exigentes de cálculo intensivo, tales como la simulación de la detonación de una bomba atómica, flujos dinámicos y modelos de comportamiento climático global. El costo de una supercomputadora es de varios millones de dólares.


Componentes de la arquitectura de Von Neumann

Memoria principal: La memoria principal es el área de almacenamiento, donde los programas y los datos se resguardan durante el funcionamiento de la computadora. Entre sus características está que es muy veloz, que no es permanente y que tiene un tamaño reducido. Se le conoce también como Memoria de Acceso Aleatorio o RAM.
Unidad central de procesamiento (CPU): Es el lugar donde se ejecutan las instrucciones del programa, se realiza el procesamiento de datos y se controla el resto de los componentes de la computadora. Contiene a la Unidad de Control y a la Unidad Lógica y Aritmética.
Unidad lógica y aritmética (ALU): Es donde el cálculo aritmético y las operaciones lógicas se realizan.
Unidad de control: La unidad de control determina las operaciones de la memoria, de la ALU y de los sistemas de entrada/salida.
Sistemas de entrada/salida: Son las interfaces elementales que permiten que la computadora se comunique con el mundo exterior. Por medio de estas interfaces recibe y envía datos desde y hacia el exterior del sistema. Al decir elemental se hace referencia a terminales a través de las cuales se envían y reciben señales eléctricas que pueden ser interpretadas en forma binaria.
Equipo periférico: Son todos aquellos dispositivos que pueden ser conectados a los sistemas de entrada y salida, como el monitor, el teclado y la impresora.
Memoria secundaria: Es un tipo de memoria que viene a resolver los problemas de la memoria principal en cuanto a tamaño y permanencia, pues entre sus características está que es muy grande y que no es volátil, aunque es mucho más lenta. Está representada típicamente por el disco duro.
Software: Programas o conjuntos ordenado de instrucciones que indican a la computadora qué hacer y cuándo hacerlo. Es la parte lógica de la computadora.Desarrollo de software: Ninguna computadora, por más circuitos, procesadores, o elementos electromecánicos que contenga, podrá realizar algún proceso sino cuenta con los programas adecuados. La programación ha tenido que avanzar a la par del desarrollo de las computadoras para que estas realicen adecuadamente las tareas para las que han sido creadas, y todas esas tareas se crean por medio de los llamados lenguajes de programación.
Lenguaje de programación: Lenguaje artificial que puede ser usado para controlar el comportamiento de una máquina, especialmente una computadora. Estos se componen de un conjunto de reglas sintácticas y semánticas que permiten expresar instrucciones que luego serán interpretadas.
Programación: Proceso por el cual se escribe, se prueba, se depura, se compila y se mantiene el código fuente de un programa.
Programa: Es un conjunto de instrucciones que una vez ejecutadas realizarán una o varias tareas en una computadora.
Lenguaje máquina: El lenguaje máquina es el único lenguaje que puede ejecutar una computadora y consta únicamente de unos y ceros. El lenguaje máquina es un código que es interpretado directamente por el microprocesador. Un lenguaje máquina es específico de cada arquitectura de computadora. Todo código fuente en última instancia debe llevarse a un lenguaje máquina mediante el proceso de compilación o interpretación para que la computadora pueda ejecutarlo.
Lenguaje de bajo nivel: Un lenguaje de programación de bajo nivel es el que proporciona un conjunto de instrucciones aritméticas y lógicas sin la capacidad de encapsular dichas instrucciones en funciones que no estén ya contempladas en la arquitectura del hardware. Este lenguaje es expresado por medio de mnemónicos y muy diferente al lenguaje cotidiano de los humanos.
Lenguaje de alto nivel: Un lenguaje de programación de alto nivel es aquel que expresa una sucesión de instrucciones de una manera adecuada a la capacidad cognitiva humana, en lugar de a la capacidad ejecutora de las máquinas, es decir, es un lenguaje que se asemeja más al lenguaje cotidiano de los humanos.
Lenguaje ensamblador: El lenguaje ensamblador es un tipo de lenguaje de bajo nivel utilizado para escribir programas de computadoras y constituye la representación más directa del código máquina específico para cada arquitectura de computadoras legible por un programador. El propósito para el que se crearon este tipo de lenguajes es la de facilitar la escritura de programas, ya que escribir directamente en código binario, que es el único código entendible por la computadora, es en la práctica imposible. El lenguaje ensamblador sustituye las instrucciones en código máquina por mnemónicos que son más fáciles de recordar.
Compilador: Un compilador es un programa que permite traducir el código fuente de un programa en lenguaje de alto nivel, a otro lenguaje de nivel inferior, típicamente lenguaje máquina. De esta manera un programador puede diseñar un programa en un lenguaje mucho más cercano a como piensa un ser humano, para luego compilarlo a un programa más manejable por una computadora
Interprete: Un intérprete es un programa capaz de analizar y ejecutar otros programas, escritos en un lenguaje de alto nivel en una computadora. Los intérpretes se diferencian de los compiladores en que mientras los compiladores traducen totalmente un programa desde su descripción en un lenguaje de programación al código de máquina del sistema, los intérpretes sólo realizan la traducción a medida que sea necesaria, típicamente, instrucción por instrucción, y normalmente no guardan el resultado de dicha traducción.


lunes, 18 de octubre de 2010

Programa del curso de Técnico en Computación.

1.- Introducción a la Computación
2.- Sistemas Operativos
3.- Metodología y técnicas de resolución de problemas
4.- Programación Estructurada
5.- Aplicaciones de uso general

Computación

La Computación:  
Dísciplina que contempla el estudio de todos los fenómenos asociados a las computadoras. No solo se enfoca en las máquinas o hardware de las computadoras, si no que ademas incluye los procedimientos y programas que las hacen funcionar.   
La Computación NO es:
  • conocer que computad
  • ora comprar
  • arreglar computadoras
  • edición y procesamiento de textos
  • instalación de software
  • navegar por la web
  • uso de paquetes de software comercial
  • diseñar paginas web
  • conocer mas de 6 diferentes lenguajes de programacion
  • administrar cabinas de internet
  • administrar empresas
  • llenar libros de contabilidad
  • diseño grafico publicitario
  • secretariado computarizado
    Definicion: Computación e Informática  (¿Que es la Computacion?) 

    La informática:La palabra informática proviene de la contracción de inforación y automática. Es el cojunto de conocimientos científicos y técnicos que hacen posible el procesamiento automático de infotmación empleando algún medio, que en la actualidad son las computadoras digitales.
    • La Computación es la disciplina que busca establecer una base científica para resolver problemas mediante el uso de dispositivos electrónicos y sistemas computacionales.
    • La Computación es el estudio de métodos algorítmicos para representar y transformar la información, incluyendo su teoría, diseño, implementación, aplicación y eficiencia. Las raíces de la computacion e informatica se extienden profundamente en la matemática y la ingeniería. La matemática imparte el análisis del campo y la ingeniería imparte el diseño.
    • La Computacion se define como el conjunto de conocimientos científicos y técnicos (bases teóricas, métodos, metodologías, técnicas, y tecnologías) que hacen posible el procesamiento automático de los datos mediante el uso de computadores, para producir información útil y significativa para el usuario.
    • La Computación e Informática es la ciencia del tratamiento automático de la información mediante un computador (llamado también ordenador o computadora).
    • El concepto fundamental de la Computación es el concepto de ALGORITMO.
      Diferencia entre Computación e Informática
      Informática es un vocablo inspirado en el francés informatique, formado a su vez por la conjunción de las palabras information y automatique, para dar idea de la automatización de la información que se logra con los sistemas computacionales. Esta palabra (Informatica) se usa principalmente en España y Europa. Computación se usa sobre todo en América y proviene de cómputo (o cálculo).

      Principales areas de estudio
      • Algoritmos y Estructuras de Datos: Esta area estudia algoritmos específicos y las estructuras de datos asociadas para solucionar problemas específicos. La parte de esto implica análisis matemático para analizar la eficacia del algoritmo en el uso de tiempo y memoria.
      • Teoria de la Computación: En esta area se categorizan los problemas segun la naturaleza de los algoritmos para resolverlos, algunos problemas tienen algoritmos rapidos, alguno solamente tienen algoritmos muy lentos (tales problemas se consideran a veces dificilmente insuperables), algunos no tienen ningún algoritmo.
      • Lenguajes de Programacion: La meta del área de lenguajes de programacion es diseñar bien los lenguajes de programación mejores y mas naturales y los compiladores más rapidos y eficientes.
      • Sistemas Operativos: Esta area implica el diseño y implementacion de nuevos y mejores sistemas operativos.
      • Arquitectura del Computador: La meta de esta area es diseñar y construir computadoras mejores y mas rapidas, esto incluye el CPU, memorias, dispositivos de entrada y salida.
      Adicionales areas de estudio
      • Inteligencia Computacional
      • Computación Grafica
      • Sistemas de Bases de Datos
      • Redes de Computadoras
      • Matematica Computacional
      • Ingenieria de Software
      • Ingenieria de Computacion
      • Robotica
      • Computación Cientifica
      • Computación Simbolica
      • Sistemas de Informacion
      • Ingenieria Web
      • Recuperacion de Informacion
      • Vision Computacional
      • Bioinformatica
      • Biologia Computacional
      • Linguistica Computacional
      • Computación Acustica
        Aplicaciones en nuestra sociedad:
        • Reconocimiento de Voz
        • Reconocimiento de Imagenes
        • Reconocimiento Facial
        • Reconocimiento de Huellas Digitales
        • Procesamiento de Imagenes Medicas
        • Procesamiento Automático de Textos
        • Simulacion de Trafico Vehicular
        • Generacion de Animaciones
        • Entre Otros.

          Conversión de Hexadecimal a Binario y a Decimal

          CONVERSIÓN DE HEXADECIMAL A DECIMAL

          La conversión del número 200 a su equivalente decimal
           se separan los numeros que integran el 200 en 2...0...0... el primer numero (2) se multiplica por 16 al cuadrado mas el segundo numero (0) por 16 a la primera potencia mas el tercer numero (0) por 16 a la cero y esto da un igual de 512
          por lo tanto (200)10 = (512)10

          CONVERSIÓN HEXADECIMAL A BINARIO

          La conversón entre hexadecimal y binario se realiza por substituciñon directa debido a que la base 16 es una potencia de la base 2
          conversion del ·200 hexadecimal a su equivalente binario
           El número (200)16 esta formado por trescifras que tienen equivalente binario en forma de nibbles 
          (0)16 = (0000)2
          (0)16 = (0000)2
          (2)16 = (0010)2
           (200)16 = (001000000000)2 = (1000000000)2

          Conversión de decimal a binario y viceversa

          DECIMAL A BINARIO

          Consiste en un método parecido a la factorización en números primos. Es relativamente fácil dividir cualquier número entre 2. Este método consiste básicamente en divisiones sucesivas. Dependiendo de si el número es par o impar, colocaremos un cero o un uno en la columna de la derecha.
          Si es impar, le restaremos uno y seguiremos dividiendo entre dos (y podremos un 1 en el lado derecho como anteriormente expongo), hasta llegar al resultado final que debe ser siempre 1.
          Después, sólo nos queda tomar los resultados de la columna de la derecha y ordenar los dígitos de abajo para arriba, y tendremos nuestro número convertido en binario.
          Ejemplo:
          150|0
          75|1*
          37|1
          18|0
          9|1
          4|0
          2|0
          1|1
          El resultado para 150 en base decimal es: 10010110 en base binaria.
          *Aquí ponemos 1 al lado derecho y restamos 1 de 75 para poder seguir dividiéndolo entre 2, el resultado lo ponemos debajo, y así sucesivamente.
          BINARIO A DECIMAL

          Para realizar la conversión de binario a decimal, realice lo siguiente:
          1. Inicie por el lado derecho del número en binario, cada cifra multiplíquela por 2 elevado a la potencia consecutiva (comenzando por la potencia 0, 20).
          2. Después de realizar cada una de las multiplicaciones, sume todas y el número resultante será el equivalente al sistema decimal.
          Ejemplos:
          • (Los números de arriba indican la potencia a la que hay que elevar 2) 

          También se puede optar por utilizar los valores que presenta cada posición del número binario a ser transformado, comenzando de derecha a izquierda, y sumando los valores de las posiciones que tienen un 1.
          Ejemplo
          El número binario 1010010 corresponde en decimal al 82. Se puede representar de la siguiente manera:


          Entonces se suman los números 64, 16 y 2:


          Para cambiar de binario con decimales a decimal se hace exactamente igual, salvo que la posición cero (en la que el dos es elevado a la cero) es la que está a la izquierda de la coma y se cuenta hacia la derecha a partir de -1:

          Bit, Byte, Kilobyte, Megabyte, Gigabyte, Terabyte, Petabyte, Exabyte, Zettabyte, Yottabyte




          1 bit
          1 Byte = 8 bits 

          Nibble: 4 bits                     
          1 KiloByte (KB) = 1,000 Bytes o 10 a la tercera potencia bytes
          1 MegaByte (MB) = 1,000 KB, 1,000,000 bytes o 10 a la sexta potencia bytes
          1 GigaByte (GB) = 1,000 MB, 1,000,000,000 bytes o 10 a la novena potencia bytes
          1 TeraByte (TB) = 1,000 GB,
          1,000,000,000,000 bytes o 10 a la doceava potencia
                                     bytes
          1 PetaByte (PB) = 1,000 TB (TeraBytes),
          1,000,000,000,000,000 bytes o 10 a la 
                                     doceava potencia bytes
          1 ExaByte (EB) = 1,000 PB (PetaBytes), 1,000,000,000,000,000,000 bytes
                                    o 10 a la quinceava potencia bytes
          1 ZettaByte (ZB) = 1,000 EB (ExaBytes), 1,000,000,000,000,000,000,000 bytes

                                     o 10 a la decimo-octava potencia bytes
          1 YottaByte (YB) = 1,000 ZB (ZettaBytes), 1,000,000,000,000,000,000,000,000 byes

                                     o 10 a la vigesima potencia bytes

          Y adicionalmente:

          1 bit
          1 Nibble = 4 bits
          1 Byte = 2 Nibles = 8 bits
          1 Word = 2 Bytes = 16 bits
          1 Long Word = 4 Bytes = 32 bits

          Dato e Información.

          Dato:
          Elemento básico de la información que puede ser procesado o producido por una(s) computadora(s). El dato se caracteriza por no contener ninguna información.
          Información:
          Conjunto organizado de datos, que constituyen un mensaje sobre un determinado ente o fenómenos, es decir, que tienen significado.
          Diferencia entre dato e información:
          Los datos pueden asociarse dentro de un contexto para convertirse en información. Para ser útiles, los datos deben convertirse en información y ofrecer así un significado, conocimiento, ideas o conclusiones. Por sí mismos los datos no tienen la capacidad de comunicar un significado.