O que são padrões de codificação de caracteres ?
Uma codificação de caracteres é um padrão de relacionamento
entre um conjunto de caracteres com um
conjunto de outra coisa, como por exemplo números com o objetivo de facilitar o
armazenamento de texto em computadores e sua transmissão através de redes de
telecomunicação. Exemplos comuns são o código Morse que codifica as letras do
alfabeto latino , o ASCII que codifica os mesmos grafemas do código Morse além
de outros símbolos através de números inteiros e da representação binária em
sete bits destes mesmos números.
Em que consiste a tabela de código ASCII e a de código Unicode ?
O que é o código ASCII ?
A memória do computador conserva todos os dados sob a forma
numérica. Não existe um método para armazenar directamente os caracteres. Cada
caracter possui por conseguinte o seu equivalente em código numérico: é o
código ASCII (American Standard Code for Information Interchange - traduz-se
por "Código Americano Standard para a Troca de Informações"). O
código ASCII básico representava os caracteres em 7 bits (quer dizer 128
caracteres possíveis, de 0 a 127).
Unicode
O código Unicode é um sistema de codificação dos
caracteres em 16 bits postas inventado em 1991. O sistema Unicode permite
representar qualquer caracter por um código em 16 bits, independentemente de
qualquer sistema de exploração ou linguagem de programação.
Agrupa assim a quase totalidade dos alfabetos existentes (árabe, arménio, cirílico, grego, hebreu, latino,...) e é compatível com o código ASCII.
Agrupa assim a quase totalidade dos alfabetos existentes (árabe, arménio, cirílico, grego, hebreu, latino,...) e é compatível com o código ASCII.