Оглавление:
Терминология, которая идет с пониманием самых основных понятий в компьютерных технологиях, может стать настоящим прорывом для многих технологических новичков. Областью, которая часто вводит людей в заблуждение, являются те термины, которые используются для измерения компьютерных данных. Да, мы говорим о битах, байтах и всех их многочисленных кратных. Это важная концепция для тех, кто углубленно работает с компьютером, потому что эти измерения используются для описания хранения, вычислительной мощности и скорости передачи данных.
Вот простое объяснение того, что означают эти измерения.
Что немного?
Любое базовое объяснение вычислительной техники или телекоммуникаций должно начинаться с двоичной или двоичной цифры. Это наименьшее количество цифровых данных, которые могут передаваться по сетевому соединению. Это самый крошечный строительный блок каждого полученного вами электронного письма и текстового сообщения. Бит представляет собой единицу цифровой информации и представляет собой ноль или единицу. Использование битов для кодирования данных восходит к старым системам перфокарт, которые позволяли первым механическим компьютерам выполнять вычисления. Двоичная информация, которая когда-то хранилась в механическом положении рычага или механизма компьютера, теперь представлена электрическим напряжением или импульсом тока. Добро пожаловать в цифровую эпоху! (Узнайте больше о старых днях в «Пионерах компьютерного программирования».)
