miércoles, 20 de octubre de 2010

Codigos

Códigos
Código: Combinación de signos que tiene un determinado valor dentro de un sistema establecido y que obedeciendo a un conjunto de reglas permite formular y comprender un mensaje.
Códigos ASCII y UNICODE
ASCII, acrónimo de American Standard Code for Information Interchange (Código Normalizado Americano para el Intercambio de Información). En computación, un esquema de codificación que asigna valores numéricos a las letras, números, signos de puntuación y algunos otros caracteres. Al normalizar los valores utilizados para dichos caracteres, ASCII permite que los ordenadores o computadoras y programas informáticos intercambien información evitando problemas de compatibilidad.
ASCII incluye 256 caracteres divididos en dos conjuntos, estándar y extendido, de 128 caracteres cada uno. Estos conjuntos representan todas las combinaciones posibles de 7 u 8 bits, siendo esta última el número de bits en un byte. El conjunto ASCII básico, o estándar, utiliza 7 bits para cada código, lo que da como resultado 128 códigos de caracteres desde 0 hasta 127 (00 hasta 7F hexadecimal). El conjunto ASCII extendido utiliza 8 bits para cada código, dando como resultado 128 códigos adicionales, numerados desde el 128 hasta el 255 (80 hasta FF hexadecimal).
El código ASCII reserva los primeros 32 elementos para control, son elementos no pensados originalmente para representar información imprimible, sino para controlar dispositivos como las impresoras.
Sin embargo, aun el ASCII extendido con sus 256 caracteres es insuficiente para representar los símbolos propios de muchos idiomas, así que se propuso un nuevo código que utiliza 16 bits, el UNICODE, con el cual es posible representar 65536 caracteres distintos y que es compatible con el código ASCII extendido.


UNICODE
Unicode proporciona un número único para cada carácter, sin importar la plataforma, ni el programa, ni el idioma, permitiendo un fácil traspaso entre distintos sistemas de codificación y plataformas.
Las computadoras sólo trabajan con números. Almacenan letras y otros caracteres mediante la asignación de un número a cada uno. Antes de que se inventara Unicode, existían cientos de sistemas de codificación distintos para asignar estos números. Ninguna codificación específica podía contener caracteres suficientes: por ejemplo, la Unión Europea, por sí sola, necesita varios sistemas de codificación distintos para cubrir todos sus idiomas. Incluso para un solo idioma como el inglés, no había un único sistema de codificación que se adecuara a todas las letras, signos de puntuación y símbolos técnicos de uso común.
Además, estos sistemas de codificación presentan problemas entre ellos. Es decir, dos sistemas de codificación pueden utilizar el mismo número para dos caracteres distintos o bien utilizar números distintos para el mismo carácter. Toda computadora (especialmente los servidores) necesita ser compatible con muchos sistemas de codificación distintos; sin embargo, cada vez que los datos se traspasan entre distintos sistemas de codificación o plataformas, dichos datos siempre corren el riesgo de sufrir daños.
Unicode proporciona un número único para cada carácter, sin importar la plataforma, ni el programa, ni el idioma.
Para ello, este método utiliza dos bytes por cada carácter. Cómo referencia, en el formato ASCII clásico es suficiente un solo byte para representar cada carácter. Esta mayor cantidad de espacio, normalmente está prevista por los programas y sistemas operativos que soportan esta codificación, y no debería representar un problema en circunstancias normales. 


No hay comentarios:

Publicar un comentario