Что такое цифровое кодирование?
Цифровое кодирование — это процесс использования двоичных цифр для представления букв, символов и других символов в цифровом формате. Сегодня широко используются несколько типов цифровых кодов, но они используют один и тот же принцип объединения двоичных чисел для представления символа.
Цифровое и двоичное кодирование
Компьютеры и электронные устройства нуждаются в систематическом и точном алгоритме для чтения информации. Эта система требует, чтобы каждый символ, буква или символ были уникальными и легко отличались от других символов. Для этого требуется цифровое кодирование. В цифровом кодировании буквы или символы представлены определенными наборами двоичных чисел или символов. Например, числа 01000001 представляют собой символ «А» в двоичном коде. Двоичный код, хотя и не является конкретной техникой цифрового кодирования, предлагает простейшее объяснение для понимания цифрового кодирования.
Базовая техника кодирования
Как следует из самого термина, цифровое кодирование превращает информацию в цифры, легко распознаваемые компьютерами и другими электронными устройствами. Эти цифры представляют собой наборы информации, разделенные на очень маленькие части, известные как биты. Бит — сокращение от двоичной цифры — является наименьшим назначенным измерением. Наиболее распространенные методы цифрового кодирования используют от 8 до 16 бит на символ. Это означает, что каждый символ имеет по крайней мере восемь буквенно-цифровых символов, установленных в отдельной последовательности.
Часто используемые цифровые коды
Сегодня в компьютерах используется несколько типов цифровых кодов, но наиболее широко используются три из них:американский стандартный код обмена информацией, расширенный двоично-десятичный код обмена и Unicode. ASCII содержит около 128 различных кодов, представляющих американские буквы, символы и цифры. Например, буква «М» представлена в ASCII как «077» в цифровом коде. EBCDIC и Unicode используют один и тот же процесс кодирования, но назначают разные наборы символов для каждого символа.
Буквенно-цифровое кодирование
В наиболее распространенной практике создания цифровых кодов используются буквенно-цифровые символы. Буквенно-цифровое кодирование объединяет буквы и цифры для создания определенного представления символа в компьютерной программе. Например, код «U+0041», который представляет «A» в Юникоде, состоит из букв, цифр и символа «+».