Философия компьютерной науки

Автор работы: Пользователь скрыл имя, 18 Июня 2014 в 20:12, реферат

Краткое описание

Концепция и развитие информатики. Философия методом Чернавского.

Содержание

Введение 3
Концепции информации 5
Развитие информатики 13
Эпистемология кибернетики 20
Философия Чернавского 27
Вывод 29
Список литературы 31

Прикрепленные файлы: 1 файл

Реферат по Философии Науки Курцев Юрий Владимирович.doc

— 161.00 Кб (Скачать документ)

МИНИСТЕРСТВО НАУКИ И ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ


 

 

 

 

Государственное образовательное учреждение высшего профессионального образования

НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ

ТОМСКИЙ ПОЛИТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ

 

Институт кибернетики

Кафедра «Автоматики и Компьютерных Систем»

 

 

 

Реферат по философии науки на тему:

«Философия компьютерной науки»

 

 

 

 

 

 

 

Выполнил   _________________________ аспирант

Ю.В. Курцев

 

 

 

Томск – 2013

Оглавление

 

 

 

 

 

Введение

 

В 1945 году в Пенсильванском университете (США) было создано первое электронно-вычислительное устройство, получившие название ENIAC - Electronic Numerical Integrator And Computer. Последнее слово этого названия и дало имя одному из величайших изобретений нашего века - компьютеру. Сам ENIAC применялся для баллистических расчетов, предсказаний погоды и некоторых научных вычислений. Сегодня, 50 лет спустя, трудно найти область человеческой деятельности, где компьютер не нашел бы применения. Однако, не только скорость прогресса в области компьютерной техники достойна внимания. Едва ли найдется другое достижение технологии, которое вызывало бы столь обширный, настойчивый интерес у рядового обывателя, далекого от знания глубин компьютерной науки. Хотя по сути своей компьютер - не более чем инструмент, лишь сложностью отличающийся от пишущей машинки, в глазах многих, чтобы не сказать - большинства, неспециалистов компьютер скорее не средство, а цель. “Он работает на компьютере” представляется вполне адекватным ответом на вопрос о чьем-либо роде занятий, в то время как ответ “он работает на пишущей машинке” звучит по крайней мере странно. Более того, компьютер представляется чуть ли не одушевленным существом. “Он не хочет печатать!” - восклицает в отчаянии пользователь. Конечно, в нашей стране такое отношение к ЭВМ частично связано с тем, что это чудо техники для нас пока еще в новинку, и мы привыкли к нему куда меньше, чем к телевизору (тоже отнюдь не простое устройство).

Но это не единственная причина, да и на Западе, где компьютер давно уже прижился на каждом канцелярском столе, подобное отношение существует. О компьютерной революции рассуждают журналисты, философы и политики. Практически все прогнозы будущего человечества, сделанные как писателями-фантастами, так и профессиональными футурологами, так или иначе подразумевают существенную роль компьютеров. Причем, хотя в одних прогнозах “отбившиеся от рук” злонамеренные ЭВМ захватывают власть над людьми, а в других добрые “умные помощники” превращают жизнь человеческую в рай, в обоих сценариях компьютеру приписывается какая-то собственная воля, злая или добрая. Поневоле задумаешься - почему тема компьютеров столь притягательна и почему мы склонны одушевлять компьютер?

компьютерный техника интеллект знание

 

 

Концепции информации

 

Термин «информатика» происходит от французских слов «информация» и «автоматика». Формально так называется наука об автоматической обработке информации. Он используется в России и Восточной Европе. В Западной Европе и США вместо него используют термин «компьютерная наука» (Computer science). Содержательные определения информатики многочисленные и многообразные. Тем не менее, почти во всех из них фигурирует ее фундаментальное понятие «информация». Оно толкуется также неоднозначно.

Становление информатики как науки началось с разработки теории информации. При этом были выделены три основных, относительно независимых ее аспекта: синтаксис, семантика и прагматика. Все дальнейшие исследования в этой области, их направления и подходы к пониманию сущности информации и её использованию опирались на внутреннее единство решаемых в них задач. Изначально они имели преимущественно прикладной характер.

Этимология слова «информация» восходит к латинскому informatio – ознакомление, разъяснение, представление, понятие. К XX веку оно обычно использовалось как синоним «осведомленности», «сведения», «сообщения».

Важной проблемой было количественное описание информации. Одними из первых успехов достигли американцы Х. Найквист (1924 г.) и Р. Хартли (1928 г.). Они определили логарифмическую меру информации для сообщений, состоящих из символов. Английский математик Р. Фишер (1938 г.) ввел аналогичную точную меру для нужд прикладной статистики. Однако наиболее важный шаг в разработке основ теории информации был сделан в 1948 году выдающимся американским инженером и математиком Клодом Шенноном [2].

Обобщая и расширяя учения своих предшественников, в частности теорию Р. Хартли, К. Шеннон в своей работе «Математическая теория связи» использовал теоретико-вероятностный подход. Понятие информации он определял формально через энтропию, содержащуюся в передаваемых сообщениях. За единицу информации Шеннон принял то, что впоследствии окрестили «битом» (слово было предложено Тьюки). Учет вероятностей символов позволил ему получить более точную формулу для количества информации в реальных сообщениях, примерно вдвое сокращавшую время их передачи.

Шеннон предложил общую схему системы связи, состоящую из пяти элементов (источника информации, передатчика, канала передачи сигнала, приемника и адресата), сформулировал теоремы о пропускной способности, помехоустойчивости, кодировании и др. Его идеи быстро распространяли свое влияние на самые различные области знаний.

Осознание ограниченности теории информации Шеннона привело к возникновению других подходов в её исследовании. Наряду с энтропийным, наиболее употребительными среди них являются: алгоритмический, комбинаторный, структурный, семантический и прагматический. Последние два определяют качественные характеристики информации.

Семантическая концепция информации возникла как попытка измерения смысла сообщений в форме суждений, являющихся носителями знания и понимаемых человеком. Для нее наиболее важным оказывается анализ содержательных характеристик информации. При этом «семантическая информация высказывания определенного языка исключает некоторые “возможные миры”, альтернативы, выражаемые средствами данного языка: чем больше альтернатив исключает высказывание, тем более оно семантически информативно» [3, с. 195].

Развитие семантических теорий информации во многом было обусловлено прогрессом теории «значения» языковых выражений, прежде всего их логико-семантических вариантов. Первой такой попыткой стала теория Р. Карнапа и И. Бар-Хиллела (1952 г.). Большинство последующих семантических интерпретаций понятия информации исходят из нее. Наиболее важную роль у них играют понятия «описание возможного состояния» предмета рассуждения и «индуктивная вероятность». Абсолютное информационное содержание предложения они определяли логической вероятностью его истинности [3, с. 196–217].

Вскоре, однако, было замечено, что проблема определения вероятностных мер и мер информации не могут решаться на чисто логических основаниях. Финский философ и логик Я. Хинтикка (1968 г.) предложил её решение на основе различения понятий «поверхностная» и «глубинная» информация, обращающихся друг в друга в процессе познания. Это позволило объяснить каким образом логические и математические доказательства дают приращение поверхностной информации (знания), измерять его даже в случаях их частичного выполнения. Однако сказать тоже самое о глубинной информации подход Хинтикки не позволил [3, с. 218–223].                                                                                     

Интересный вариант семантической теории информации выдвинул наш соотечественник Ю. А. Шрейдер [5, 6] (кстати, защитивший докторскую диссертацию по философии). Он определил, что количество информации в сообщении зависит от развитости тезауруса получателя, т.е. от его минимального запаса знаний. Е. С. Вентцель проиллюстрировала ее простым примером: книга по квантовой физике для четырехлетнего ребенка будет нести нулевую информацию. Школьник старших классов уже может что-то понять, и для него данная книга будет иметь больше информации. Максимальную отдачу о книги получит студент, обучающийся по данной специалности. Но по мере дальнейшего развития тезауруса получатель будет узнавать все меньше нового (для профессора математики он будет нести значительно меньше содержательной информации). Однако вычислить эту зависимость непротиворечивым образом не удалось.

Суть прагматических концепций информации состоит в том, чтобы, опираясь на результаты синтаксической и семантической теорий информации, выявить её ценность (полезность). Она обладает полезностью и ценностью для получателя потому, что может быть использована. В этом случае ее измерение основывается на понятии цели.

Существует несколько подходов к измерению ценности информации. Они разрабатываются в теории принятия решений, в теории игр, в исследовании операций, других теориях. Одним из первых на эту процедуру обратил внимание также отечественный ученый А. А. Харкевич [7]. Он считал, что величину ценности информации можно выразить как приращение вероятности достигнуть желаемого результата после получения информации. Для уточнения её прагматического аспекта начали применять также понятие субъективной вероятности (в смысле разумной уверенности, убеждения). Было вполне очевидно, поскольку субъект может иметь самые разные цели, ценность (полезность) информации является относительной. А в случае дезинформации она вообще становится отрицательной.

Прагматические концепции информации вносят существенный вклад в анализ роли субъектного фактора и его возможностей в ситуациях неопределённости. Ценность оказывается таким свойством, которое определяет принятие решения ее приемником.

В этом пункте предмет информатики пересекается с предметной областью кибернетики. Кибернетика толкует и использует информацию в качестве средства управления системами живой и неживой природы. Поскольку оперативные свойства информации выражаются в процессуальных формах, здесь речь идет о процессах приема, хранения, обработки и передачи информации. С другой стороны, саму кибернетику можно рассматривать как прикладную информатику в смысле информационной технологии создания и использования автоматических или автоматизированных систем управления разной степени сложности. Конечная цель, её идеал в таком случае представляется в форме «искусственного интеллекта» [8, с. 184].

Кибернетика междисциплинарна, поскольку ее основы заложены целым рядом самых различных наук. Среди них математика, логика, лингвистика, психология, психиатрия, физиология, социология, педагогика, физика, электротехника, вычислительная техника и др. Существенный вклад в ее становление внесла и философия, в частности, философия науки. К основоположникам кибернетики относятся Н. Винер, Р. Эшби, У. Мак-Каллок, А. Тьюринг, Дж. Бигелоу, Дж. фон Нейман, Г. Бэйтсон, М. Мид, А. Розенблют, У. Питтс, С. Бир. Ее развитие в нашей стране связывают с именами А. И. Берга, П. К. Анохина, С. А. Лебедева, А. А. Ляпунова, В. М. Глушкова, других ученых.

Зарождение кибернетики ознаменовано выходом в свет в 1948 году книги «Кибернетика, или управление и связь в животном и машине» [9]. Автор этой книги Норберт Винер в восемнадцать лет стал доктором философии по специальности «математическая логика». С целью углубить свои знания в области философии математики он уезжал из Америки в Европу. В Кембриджском университете один из его руководителей Б. Рассел дал ему совет более серьезно изучить саму математику. В 40 лет Винер обрел авторитет среди ведущих математиков ХХ века. Обладая философским складом ума, он стремился решать математическими методами сложные прикладные задачи в различных областях знаний – физики, техники, биологии, общественной жизни. Работая вместе с физиологом  А. Розенблютом, например, он пытался таким образом исследовать вопросы кардиологии, нервной проводимости и энцефалографии.

Из этой же предпосылки логично следует и основополагающая идея кибернетики Винера – о подобии процессов управления и связи в машинах, живых организмах и обществах. Эти процессы заключаются в приеме, хранении, переработке и передачи информации. Система, принимая информацию, использует ее для выбора оптимального способа поведения, которое может регулироваться лишь с помощью обратной связи. При этом, почти одновременно с Фишером и Шенноном, Винер разрабатывал статистическую теорию количества информации. Отождествляя информацию с отрицательной энтропией, он характеризовал ее наряду с веществом и энергией как фундаментальное явление природы.

Кибернетика Винера быстро разнообразилась по формам. Общие принципы построения и функционирования управляющих систем, положение о решающей роли информации в таких системах нашли поддержку ученых из разных областей. Появились различные виды кибернетики, такие как техническая, биологическая, медицинская, экономическая, лингвистическая и т. д.

Английский психиатр Уильям Росс Эшби не так известен как Норберт Винер. Однако он также является пионером в исследовании кибернетических систем. Ему принадлежит изобретение гомеостата (1948 г.). Он ввел в научный оборот понятие самоорганизации, которое стало широко использоваться с 1960-х годов в теории систем.

Важный вклад в формирование кибернетики представляет работа Эшби «Конструкция мозга» (1952 г.). Его основное внимание посвящено вопросам философии предмета, которые затрагивают особые свойства, присущие только кибернетическим системам, таким как : что такое обучение, должна ли способность к обучению вкладываться в машину посредством некоторой специфической организации или явление обучения может обнаруживать машина с организацией в значительной мере случайной, может ли машина быть умнее своего создателя и т.д. По мнению Эшби, их можно ставить в двух планах: в биологическом и механическом.

Системы, рассматриваемые Эшби, имеют каналы получения информации из внешней среды. По своему внутреннему строению они приближаются к автоматам, но очень далеки от них по своему внешнему энтропийному или информационному балансу. Поэтому равновесие к которому они стремятся характеризуется как состояние частичного гомеостаза.

Эшби конструировал машины, реализующие эту идею. Оказалось, они действительно способны к обучению, но они не умнее своих создателей. Тем не менее, он полагал, что в будущем будет возможно создать такие машины, которые будут умнее своих создателей.

Ключевой фигурой в расширении сферы исследования кибернетики был американский ученый Уоррен Мак-Каллок. Психиатр по образованию, он сочетал свои знания с нейрофизиологией, математикой и философией. Мак-Каллок верил, что функционирование нервной системы человека может быть описано на точном языке математики. Он понял глубокую связь существующую между нейрофизиологией и философской эпистемологией, предметом которой являются знания. Мак-Каллок считал, что разум есть место встречи между мозгом и идеей, между физическим и абстрактным, между наукой и философией. По его мнению, на пересечении физического и философского есть область исследования знаний посредством нейрофизиологии, – область «экспериментальной эпистемологии». Ее цель объяснить, как активность нервной сети проявляется в том, что мы знаем как чувства и идеи.

Информация о работе Философия компьютерной науки