Breve introducción
- regisvazquez
- 31 may 2019
- 2 Min. de lectura
¿Alguna vez te has preguntado cómo las computadoras representan los textos en un formato entendible para los humanos? O aún mejor, ¿qué es un emoji para una computadora? Y ¿por qué en un mensaje de texto un emoji reduce en tanta magnitud el número de caracteres disponibles? Si la respuesta a estas preguntas es afirmativa, este post es para ti.
Los textos que vemos en nuestras computadoras y teléfonos se pueden representar asignando a cada símbolo y letra un patrón de bits (ceros y unos). Como existen millones de maneras de asignar estos patrones a cada símbolo, el ANSI, Instituto Nacional Estadounidense de Estandarización, adoptó el Código estándar americano para el intercambio de información, ASCII. Este fabuloso código fue extendido para representar por medio de 8 ceros y unos cada letra del alfabeto inglés, números, signos de puntuación y otros símbolos fuera de este alfabeto. Por ejemplo, la letra “H” se representa por medio de patrón “01001000”. Sin embargo, este código fue insuficiente para representar los alfabetos de muchos idiomas complejos.
El código Unicode llegó a resolver este problema. Este código representa por medio de 16 ceros y unos cada símbolo. Por lo tanto, es suficiente para escribir textos en idiomas como el chino, el japonés y el hebreo. Además, es por medio de este código que representamos a cada emoji. Su desventaja es que cada carácter en Unicode ocupa el doble de memoria (16 ceros y unos en lugar de 8) que en ASCII. Por esta razón, en un mensaje de texto un emoji, representado con Unicode, ocupa más espacio que una letra, representada por medio de ASCII.
En conclusión, hay distintas formas de representar letras, números, signos y símbolos y cada una de estas formas tiene sus ventajas y desventajas.

Comentarios