Теоретические основы современных ЭВМ. Клод Шеннон

Автор работы: Пользователь скрыл имя, 06 Мая 2014 в 10:13, реферат

Краткое описание

Теория информации является одним из курсов при подготовке инженеров, специализирующихся в области автоматизированных систем управления и обработки информации. Функционирование таких систем существенным образом связано с получением, подготовкой, передачей, хранением и обработкой информации, поскольку без осуществления этих этапов невозможно принять правильное решение и осуществить требуемое управляющее воздействие, которое является конечной целью функционирования любой системы.

Содержание

Введение 3
Теоретические основы современных ЭВМ 4
Информация и ее представления 4
Системы счисления 4
Логические операции 8
Единицы измерения информации 9
Клод Элвуд Шеннон 9
Теория информации 13
Формула Шеннона 14
«Математическая теория связи» 15
Теория связи в секретных системах 17
Заключение 17
Список используемой литературы: 19

Прикрепленные файлы: 1 файл

Теоретические основы современных ЭВМ..docx

— 50.55 Кб (Скачать документ)

Федеральное государственное автономное

образовательное учреждение

высшего профессионального образования

«СИБИРСКИЙ ФЕДЕРАЛЬНЫЙ УНИВЕРСИТЕТ»

Институт Педагогики, Психологии и Социологии

 

 

 

 

 

 

 

 

 

 

РЕФЕРАТ

 

по ИСТОРИИ ИНФОРМАТИКИ

 

на тему: «Теоретические основы современных ЭВМ.

Клод Шеннон»

 

 

 

 

 

 

 

 

 

 

 

Преподаватель                                                                        Олейников Б.В.

                                                               подпись, дата                           инициалы, фамилия

 

Студент     ПП13-02Б-1                    ________                       Падюков А.В.

                                                                                                                              Морозов А.Д.

                          номер группы                          подпись, дата                          инициалы, фамилия

 

 

 

Красноярск 2014 
Оглавление

 

 

 

 

Введение

Теория информации является одним из курсов при подготовке инженеров, специализирующихся в области автоматизированных систем управления и обработки информации. Функционирование таких систем существенным образом связано с получением, подготовкой, передачей, хранением и обработкой информации, поскольку без осуществления этих этапов невозможно принять правильное решение и осуществить требуемое управляющее воздействие, которое является конечной целью функционирования любой системы.

Возникновение теории информации связывают обычно с появлением фундаментальной работы американского ученого К. Шеннона «Математическая теория связи» (1948). К теории информации, в ее узкой классической постановке, относят результаты решения ряда фундаментальных теоретических вопросов. Это в первую очередь: анализ вопросов оценки «количества информации»; анализ информационных характеристик источников сообщений и каналов связи и обоснование принципиальной возможности кодирования и декодирования сообщений, обеспечивающих предельно допустимую скорость передачи сообщений по каналу связи, как при отсутствии, так и при наличии помех.

Если рассматривают проблемы разработки конкретных методов и средств кодирования сообщений, то совокупность излагаемых вопросов называют теорией информации и кодирования или прикладной теорией информации.

Попытки широкого использования идей теории информации в различных областях науки связаны с тем, что в основе своей эта теория математическая. Основные ее понятия (энтропия, количество информации, пропускная способность) определяются только через вероятности событий, которым может быть приписано самое различное физическое содержание. Подход к исследованиям в других областях науки с позиций использования основных идей теории информации получил название теоретико-информационного подхода. Его применение в ряде случаев позволило получить новые теоретические результаты и ценные практические рекомендации.

Теоретические основы современных ЭВМ

Информация и ее представления

Информатика — научное направление, занимающееся изучением законов, методов и способов накапливания, обработки и передачи информации с помощью ЭВМ (электронно-вычислительных машин, или компьютеров) и других технических средств.

Информация — сведения об окружающем мире, повышающие уровень осведомленности человека.

До тех пор, пока информации было сравнительно немного, люди могли получать и обрабатывать ее без посредников. Увеличение объема информации привело к необходимости ускорения ее обработки. Для этого были разработаны механизмы, которые автоматизировали обработку информации. В настоящее время самым совершенным устройством переработки и хранения информации является компьютер.

Для машинной обработки информацию нужно записывать, обозначая буквы числами, т. е. кодировать ее. Поэтому необходимо знать способы записи числа.

Системы счисления

Системой счисления называют правила записи чисел с помощью некоторого набора знаков. В зависимости от способа использования этих знаков системы счисления делятся на позиционные и непозиционные.

В непозиционных системах счисления каждый знак обозначает всегда одно и то же число, и значения знаков в записи обычно суммируются. Поэтому для записи больших чисел приходится вводить все новые и новые знаки. Непозиционные системы неудобны для записи больших чисел и для выполнения арифметических действий.

Одна из непозиционных систем счисления используется до сих пор — это римская система счисления.

В римской системе счисления для небольших чисел используются такие знаки: I — один; V — пять; X — десять; L — пятьдесят; С — сто; D — пятьсот; М — тысяча.

В позиционных системах счисления один и тот же символ имеет разное количественное значение в зависимости от его позиции относительно других символов.

Поэтому в позиционных системах для записи любых чисел используется ограниченный набор знаков — цифр.

Наиболее распространенным способом записи чисел является десятичная система счисления. Каждое число записывается сочетанием десяти цифр, в котором вклад конкретной цифры зависит от ее позиции — разряда. Разряды отсчитываются справа налево. Первый разряд называется разрядом единиц, второй — десятков, третий — сотен и т. д.

Число в десятичной системе счисления можно представить с помощью операций сложения, умножения и возведения в степень. Например,

4321 = 4 • 103 + 3 • 102 + 2 • 101 + 1 • 10°.

Помимо десятичной системы счисления есть и другие позиционные системы: двоичная, троичная, четверичная, восьмеричная, шестнадцатеричная и т. д. Их названия соответствуют основаниям систем счисления.

Основание системы счисления — число цифр, допустимых в записи числа. Если число записано в позиционной системе счисления, отличной от десятичной, то основание указывается нижним индексом.

Например,

43218 = 4 • 83 + 3 • 82 + 2 • 81 + 1 • 8°.

Если основание системы счисления больше 10, то числа, которые больше 9, обозначают последовательно буквами латинского алфавита. Например,

AD2F16 = 10 • 163 + 13 • 162 + 2 • 161 + 15 • 16° = 4433510.

В компьютерах используется двоичном, система счисления.

Поскольку запись числа в двоичной системе получается достаточно длинной, в целях уменьшения ее длины часто используют восьмеричную или шестнадцатеричную системы счисления.

Для перевода числа из двоичной системы в десятичную достаточно записать его в виде суммы произведений и подсчитать результат. Например,

111001012 = 1 • 27 + 1 • 26 + 1 • 25 + 0 • 24 + 0 • 23 + 1 • 22 + 0 • 21 + 1 • 2° = 22910.

Аналогично осуществляется перевод из любой другой позиционной системы счисления в десятичную.

Правило перевода чисел из позиционной системы с основанием а10 в десятичную систему:

 

 

Перевод чисел из десятичной системы в систему с произвольным основанием. Метод перевода состоит в нахождении остатков от деления числа на степени основания той системы, в которую нужно перевести число. Последовательность этих остатков и есть запись числа в новой системе. Разряды отсчитываются справа налево. Делить надо до тех пор, пока не получен окончательный остаток.

 

Пример 1. Перевести из десятичной в двоичную систему число 123.

12310= 11110112.

Пример 2. Перевести число 475 из десятичной системы в шестнадцатеричную.

 

 

Логические операции

В основе всех действий с информацией лежат так называемые логические операции.

Логические переменные — переменные, которые могут принимать только два значения: ИСТИНА или ЛОЖЬ. Часто эти значения обозначают цифрами 1 и 0 (1 — ИСТИНА, 0 —ЛОЖЬ).

Логическая операция — действие, выполняемое над логическими переменными, его результат также либо ИСТИНА, либо ЛОЖЬ.

Базовые логические операции: логическое сложение (операция ИЛИ), логическое умножение (операция И) и отрицание (операция НЕ).

Логическое сложение (ИЛИ) — логическая операция, результатом выполнения которой является значение ИСТИНА, если хотя бы одна из логических переменных имеет значение ИСТИНА. Записывается с помощью знака «Ъ»: A Ъ В.

Логическое умножение (И) — логическая операция, результатом выполнения которой является ИСТИНА, если все логические переменные имеют значение ИСТИНА, во всех остальных случаях результат — ЛОЖЬ. Записывается с помощью знака «Щ»: А Щ В.

Отрицание (НЕ) — логическая операция, которая выполняется над одной логической переменной, ее результатом является значение ИСТИНА, если исходным значением было ЛОЖЬ, и ЛОЖЬ, если было ИСТИНА. Записывается двумя способами: ША или .

Из логических переменных с помощью логических операций и скобок (для указания порядка действий) строятся логические выражения.

Например, (А Щ В) Ъ Ъ (В Щ С).

Единицы измерения информации

Поскольку в компьютерах используется запись информации в двоичной системе счисления, то количество информации измеряют, подсчитывая число двоичных разрядов (ячеек), необходимых для ее записи. Для удобства приняты следующие единицы измерения информации:

1 бит — одна ячейка, может хранить только значения 0 или 1;

1 байт = 8 бит;

1 килобайт = 1024 байта;

1 мегабайт = 1024 килобайта;

1 гигабайт = 1024 мегабайта.

Обратите внимание на то, что единицы измерения информации основываются на степенях числа 2. Десятичные приставки (кило, мега и т. д.) дописываются только условно, так как 210 = 1024 — число, близкое к 1000.

Клод Элвуд Шеннон

Клод Э́лвуд Ше́ннон (англ. Claude Elwood Shannon; 30 апреля 1916, Петоцки (англ.)русск., Мичиган, США — 24 февраля 2001, Медфорд, Массачусетс, США) — американский инженер и математик, его работы являются синтезом математических идей с конкретным анализом чрезвычайно сложных проблем их технической реализации.

Является основателем теории информации, нашедшей применение в современных высокотехнологических системах связи. Шеннон внес огромный вклад в теорию вероятностных схем, теорию автоматов и теорию систем управления — области наук, входящие в понятие «кибернетика». В 1948 году предложил использовать слово «бит» для обозначения наименьшей единицы информации (в статье «Математическая теория связи»).

Клод Шеннон родился 30 апреля 1916 года в городе Петоцки, штат Мичиган, США. Первые шестнадцать лет своей жизни Клод провел в Гэйлорде, Мичиган, где в 1932 году он закончил общеобразовательную среднюю школу Гэйлорда. В юности он работал курьером службы Western Union. Отец его был адвокатом и в течение некоторого времени судьей. Его мать была преподавателем иностранных языков и впоследствии стала директором Гэйлордской средней школы. Молодой Клод увлекался конструированием механических и автоматических устройств. Он собирал модели самолетов и радиотехнические цепи, создал радиоуправляемую лодку и телеграфную систему между домом друга и своим домом. Временами ему приходилось исправлять радиостанции для местного универмага. Томас Эдисон был его дальним родственником.

В 1932 году Шеннон был зачислен в Мичиганский университет, где выбрал курс, посещая который начинающий ученый познакомился с работами Джорджа Буля. В 1936 году Клод оканчивает Мичиганский университет, получив степень бакалавра по двум специальностям математика и электротехника, и устраивается в Массачусетский технологический институт (MIT), где он работал ассистентом-исследователем на дифференциальном анализаторе Ванневара Буша — аналоговом компьютере. Изучая сложные, узкоспециализированные электросхемы дифференциального анализатора, Шеннон увидел, что концепции Буля могут получить достойное применение. Статья, написанная с его магистерской работы 1937 года «Символьный анализ реле и коммутаторов», была опубликована в 1938 году в издании Американского института инженеров-электриков (англ.)русск. (AIEE). Она также стала причиной вручения Шеннону Премии имени Альфреда Нобеля Американского института инженеров-электриков в 1940 году. Цифровые цепи — это основа современной вычислительной техники, таким образом, результаты его работ являются одними из наиболее важных научных результатов ХХ столетия. Говард Гарднер из Гарвардского университета отозвался о работе Шеннона, как о «возможно, самой важной, а также самой известной магистерской работе столетия».

По совету Буша Шеннон решил работать над докторской диссертацией по математике в MIT. Идея его будущей работы родилась у него летом 1939 года, когда он работал в лаборатории в Колд-Спринг-Харбор (штат Нью-Йорк). Буш был назначен президентом Института Карнеги в Вашингтоне и предложил Шеннону принять участие в работе, которую делала Барбара Беркс по генетике. Именно генетика, по мнению Буша, могла послужить предметом приложения усилий Шеннона. Докторская диссертация Шеннона, получившая название «Алгебра для теоретической генетики», была завершена весной 1940 года. Шеннон получает докторскую степень по математике и степень магистра по электротехнике.

В период с 1941 по 1956 гг. Шеннон преподает в Мичиганском университете и работает в компании Белл (Bell Labs). В лаборатории Белл Шеннон, исследуя переключающие цепи, обнаруживает новый метод их организации, который позволяет уменьшить количество контактов реле, необходимых для реализации сложных логических функций. Он опубликовал доклад, названный «Организация двухполюсных переключающих цепей». Шеннон занимался проблемами создания схем переключения, развил метод, впервые упоминавшийся фон Нейманом и позволяющий создавать схемы, которые были надежнее, чем реле, из которых они были составлены. В конце 1940 года Шеннон получил Национальную научно-исследовательскую премию. Весной 1941 года он вернулся в компанию Белл. Со вступлением США во Вторую мировую войну Т. Фрай возглавил работу над программой для систем управления огнем для противовоздушной обороны. Шеннон присоединился к группе Фрая и работал над устройствами обнаружения самолетов противника и наведения на них зенитных установок, также он разрабатывал криптографические системы, в том числе и правительственную связь, которая обеспечивала переговоры Черчилля и Рузвельта через океан. Как говорил сам Шеннон, работа в области криптографии подтолкнула его к созданию теории информации.

Информация о работе Теоретические основы современных ЭВМ. Клод Шеннон