Кодирование данных двоичным кодом. Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления для этого обычно используется прием кодирования, то есть выражение данных одного типа через данные другого типа. Естественные человеческие языки это не что иное, как системы кодирования понятий для выражения мыслей посредством речи. К языкам близко примыкают азбуки системы кодирования компонентов языка графическими символами. Системы универсального кодирования существуют в отдельных отраслях науки и техники. Например, система записи математических выражений, телеграфная азбука, морская флажковая азбука, система Брайля для слепых и многое другое.
Своя система существует и в вычислительной технике она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами.
Двоичная структура информации весьма просто реализуется на электронных схемах с двумя устойчивыми состояниями элементов: есть сигнал 1, нет сигнала 0, и поэтому именно бит принят как единица измерения хранимой информации.
Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, белое или черное, истина или ложь и т.д.). Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия: 00 01 10 11
Тремя битами можно закодировать восемь различных значений:
000 001 010 011 100 101 110 111
Единицы измерения информации. За минимальную единицу информации принят один бит (англ. bit BInary digiT двоичная цифра). Это минимальное количество информации, подлежащее рассмотрению, его смысл логическая «1» или «0».
Бит очень малая единица измерения информации, поэтому на практике используются составные, более крупные единицы, например байт, являющийся последовательностью из восьми бит. Байт сокращенное словосочетание от BinarY TErm, (терм выражение).
Широко используются еще более крупные производные единицы информации. Старшие производные единицы представляют собой соответствующие степени основания числа 2, названия их формируются по общим принципам формирования названий единиц (приставки кило, мега, гига и т.д.), при этом проявляется несоответствие «десятичных приставок» и степени основания.
Таблица 1.1.
Единицы информации
Информатика, ее предмет и структура
Термин «информатика» предложен Карлом Штейнбухом в 1957. В 1962 этот термин был введён во французский язык Ф. Дрейфусом. Отдельной наукой информатика была признана в 1970-х; до того она развивалась в составе математики и электроники. Сейчас информатика обладает собственными методами и терминологией.
Как наука, информатика изучает общие закономерности, свойственные информационным процессам. При разработке новых носителей информации, каналов связи, приёмов кодирования, визуального отображения информации и т.п., конкретная природа информации не имеет значения. Здесь важны общие принципы организации и эффективность поиска данных, а не то, какие конкретно данные будут заложены в базу пользователями.
Эти общие закономерности есть предмет информатики как науки.
Инфоpматика научная дисциплина с широким диапазоном применения. Её основные направления:
pазpаботка вычислительных систем и пpогpаммного обеспечения;
теоpия инфоpмации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;
методы искусственного интеллекта, позволяющие создавать программы для решения задач, требующих определённых интеллектуальных усилий при выполнении их человеком (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);
системный анализ, заключающийся в анализе назначения проектируемой системы и в установлении требований, которым она должна отвечать; методы машинной графики, анимации, средства мультимедиа;
средства телекоммуникации, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество; разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.
Информатика совокупность научных направлений, изучающих информацию, информационные процессы в природе, обществе, технике, формализацию и моделирование, методы познания, способы представления, накопления, обработки и передачи информации.
Способы получения, переработки, передачи, хранения и воспроизведения информации с помощью технических средств составляют сущность информационных технологий.
Теоретическую основу информатики образует группа фундаментальных наук, которую в равной степени можно отнести как к математике, так и к кибернетике: теория информации, теория алгоритмов, математическая логика, теория формальных языков и грамматик, комбинаторный анализ, теория вероятностей и математическая статистика и т. д.
Главная функция информатики заключается в разработке методов и средств преобразования информации и их использовании в организации технологического процесса переработки информации.
Сюда входит исследование информационных процессов любой природы; создание новейших технологий переработки информации на базе полученных результатов исследования информационных процессов; решение научных и инженерных проблем создания, внедрения и обеспечения эффективного использования компьютерной техники и технологии во всех сферах общественной жизни.
Предметная область науки «информатика» информационные процессы и системы, модели, языки их описания, технологии их актуализации, направленные как на получение знаний (это внутренняя сущность информатики), так и на применение знаний, принятие на их основе решений в различных предметных областях (это внешняя сущность информатики). Эти информационные процессы могут происходить в живых существах (организмах), автоматах (технических устройствах), обществе, в индивидуальном и общественном сознании.
Вопросы для самопроверки
Дайте определение сигнала, информации.
Какие свойства характеризуют информацию?
Какое свойство информации характеризует ее способность менять способ и форму своего существования?
Какое свойство информации характеризует ее независимость от чьего-либо мнения?
Какие операции могут производиться с данными?
Что такое двоичная цифра?
Для чего применяются дискретизация и квантование сигналов?
Какие единицы измерения информации вы знаете?
Перевести 1,5 MB в KB, 20 KB в bit.
Почему информация в ПК представлена в двоичном коде?
Что изучает информатика?
Какова главная функция информатики?
Глава 2. Системы счисления. Компьютерная арифметика
2.1. Системы счисления. Перевод чисел из одной системы счисления в другую
Системы счисления. Совокупность приемов записи и наименования чисел называется системой счисления. Системы счисления подразделяются на позиционные и непозиционные.
Если в записи числа значение цифры не зависит от ее положения в структуре числа и при записи может использоваться неограниченное множество символов, то система счисления называется непозиционной. Примером такой непозиционной системы является римская система.
В современном мире наиболее широко используются позиционные системы счисления. В позиционных системах счисления для записи чисел используют ограниченных набор символов, а значение числа зависит от позиции занимаемой цифрой. В повседневной жизни мы пользуемся десятичной позиционной системой счисления.