Добро пожаловать в Университет Бекмана

Здесь каждый может учиться и/или принять участие в создании свободных интерактивных обучающих материалов и открытых научных проектов.

engl

К оглавлению 1 лекции

И.Н. Бекман

ИНФОРМАЦИЯ, ИНФОРМАТИКА И ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ

Лекция 1. ИНФОРМАЦИЯ И НАУКИ О НЕЙ

6. История информатики

Историю развития человеком информационных инструментов можно разделить на три этапа:
1. 5 тыс. лет до н.э. – изобретение письменности;
2. 15 век н.э. – книгопечатанье;
3. Середина 20 века – изобретение компьютера и создание на базе компьютеров информационных сетей.

Понятие информации рассматривалось ещё античными философами. До начала промышленной революции, определение сути информации оставалось прерогативой философов. С развитием электроники, рассматривать вопросы теории информации стала кибернетика. В начале 21-го века возникли специалисты по информатике.

Хотя термин «информация» никогда не был точно определён, сама информация существовала всегда подобно веществу, энергии, пространству и времени. Биота с момента своего возникновения переносит и перерабатывает информацию, носителем которой является ДНК. Эффективным носителем информации является мозг человека, в форме его памяти. Эта память ненадёжна, поэтому достаточно давно человечество придумало записывать мысли во всех видах и на различных носителях. Примерами техногенными носителей являются бумага, USB-Flash память, глиняная табличка и т.п. Информация тоже бывает разная: текст, звук, видео, запах, вкус...

Исторические эпохи, с точки зрения освоения идей информатики, следует характеризовать по таким параметрам, как организация передачи информации в пространстве, т.е. распространение информации между удалёнными людьми в относительно небольшой временной интервал; организация передачи информации во времени, т.е. накопление и хранение информации; и организация обработки информации, т.е. преобразование её с целью использования в практических целях – управление, образование, создание новой информации (наука)

Все эти показатели развивались очень неравномерно, что привело к возникновению, а затем и преодолению информационных барьеров, образующихся в результате противоречий между информационными запросами общества и техническими возможностями их обеспечения.

Их три:
1. V тысячелетие до нашей эры. Противоречие из-за необходимости сохранения и передачи накопленного опыта и знания, при отсутствии инструментов для этого. После создания письменности носителями информации стали камни, глиняные таблички, папирус, пергамент, а во II веке до н.э. появилась бумага. Теперь хранилищем информации стал не только человеческий мозг.
2. XV век – развитие производства (появление цехов. мануфактур и т.п.) – как следствие потребность в большом числе образованных людей, способных всем этим управлять. Рукописных книг стало не достаточно. Было изобретено книгопечатание (XV век Гуттенберг). Основной носитель информации – бумага. Скорость передачи её = скорости передачи бумажного носителя. Затем – к началу XX века изменилась ситуация со СКОРОСТЬЮ распространения информации – сначала почта, потом телеграф, телефон, 1905-радио, в 30 гг. 20-го века – телевидение. Появились и устройства для ХРАНЕНИЯ информации – фотография, кинолента, магнитная запись. Не изменилась только ПЕРЕРАБОТКА информации – по-прежнему эту функцию выполнял только человек.
3. Середина XX столетия. Общие объёмы информации настолько возросли, что человеческий мозг не был в силах с ними справиться. Ещё толчок – II мировая война. И был изобретен компьютер. Его основная роль – хранитель информации, самой информацией по-прежнему занимается человек, ибо искусственный разум создать не удалось.

История носителей информации началась давно.

Первыми носителями информации были стены пещер и поверхности скал. Наскальные изображения и петроглифы (палеолит 40 - 10 тыс. лет до нашей эры) изображали животных, охоту и бытовые сцены. Неизвестно предназначались ли они для передачи информации, служили простым украшением, совмещали эти функции или нужны были для чего-то ещё. Носителями информации выступали глиняные таблички – (7-й век до нашей эры) на базе которых была устроена первая библиотека, восковые таблички, папирус, пергамент, бумага, береста, и др. Перфокарты появились в 1804 (задание рисунка ткани для ткацкого станка), хотя запатентованы лишь в 1884. Впервые применены Г.Холлеритом для переписи населения США в 1890. Перфолента появилась в 1846 и использовалась при посылке телеграммы. С 1952 магнитная лента используется для хранения, записи и считывания информации в компьютере. Она получила огромное признание и распространённость в форме компакт-кассет. Магнитный диск был изобретён в компании IBM в начале 50-х годов. Первый гибкий диск представлен в 1969, жёсткий диск – в 1956, Compact Disk, DVD - в конце 20-го века, Flash – в начале 21-го века.

В XX в. бурное развитие получили всевозможные средства связи (телефон, телеграф, радио), назначение которых заключалось в передаче сообщений. Однако эксплуатация их выдвинула ряд проблем: как обеспечить надежность связи при наличии помех, какой способ кодирования сообщения применять в том, или ином случае, как закодировать сообщение, чтобы при минимальной его длине обеспечить передачу смысла с определенной степенью надежности. Эти проблемы требовали разработки теории передачи сообщений, иными словами, теории информации. Одним из основных вопросов этой теории был вопрос о возможности измерения количества информации.

Попытки количественного измерения информации предпринимались неоднократно. Первые предложения об общих способах измерения количества информации были сделаны Р.Фишером (1921) в процессе решения вопросов математической статистики. Проблемами хранения информации, передачи её по каналам связи и задачами определения количества информации занимались Р.Хартли (1928) и X. Найквист (1924). Р.Хартли заложил основы теории информации, определив меру количества информации для некоторых задач.

Р. Хартли в своей работе «Передача информации» ввёл в теорию передачи информации методологию измерения количества информации и предложил математический аппарат для расчёта этого количества. При этом под информацией он понимал «… группу физических символов – слов, точек, тире и т.п., имеющих по общему соглашению известный смысл для корреспондирующих сторон». Таким образом, Хартли попытался ввести какую-то меру для измерения кодированной информации, а точнее последовательности символов, используемых для кодирования вторичной информации. Ещё в 1927 Хартли отмечал, что количество информации, заключенной в любом сообщении, тесно связано с количеством возможностей, данным сообщением исключающихся. Фраза «яблоки красные» несёт намного больше информации, чем фразы «фрукты красные» или «яблоки цветные», так как первая фраза исключает все фрукты, кроме яблок, и все цвета, кроме красного. Исключение других возможностей повышает информационное содержание.

Наиболее убедительно эти вопросы были разработаны и обобщены американским инженером Клодом Шенноном в 1948, опиравшимся на математический аппарат Хартли. В 1949 Шеннон и Уивер представили формулу вычисления количества информации, в которой информация возрастала с уменьшением вероятности отдельного сообщения. В их представлении информация определяется как мера свободы чьего-либо (или какой-либо системы) выбора в выделении сообщения. После публикации этой работы началось интенсивное развитие теории информации и углубленное исследование вопроса об измерении её количества (не любой информации, а только кодированной!). Шеннон также предложил абстрактную схему связи, состоящую из пяти элементов (источника информации, передатчика, линии связи, приёмника и адресата), и сформулировал теоремы о пропускной способности, помехоустойчивости, кодировании и т.д.

В результате развития теории информации, идеи Шеннона быстро распространились на самые различные области знаний. Было замечено, что формула Шеннона очень похожа на формулу энтропии, выведенную Больцманом. В этой связи напомним, что впервые понятие энтропии было введено Клаузиусом в 1865 как функция термодинамического состояния системы. Им же дана эмпирическая формула, связывающая энтропию с теплотой и работой. Л.Больцман (1872) методами статистической физики установил связь между энтропией и термодинамической вероятностью (знаменитую формулу Больцмана написал не он, а Планк), под которой он понимал количество перестановок молекул идеального газа, не влияющее на макросостояние системы. Энтропия Больцмана выведена для идеального газа и трактуется как мера беспорядка, мера хаоса системы. Для идеального газа энтропии Больцмана и Клаузиуса тождественны, поэтому и эмпирическая функция Клаузиуса стала объясняться как мера вероятности состояния молекулярной системы.

Классики не связывали энтропию с информацией.

Энтропия - степень неупорядоченности статистических форм движения молекул.

Энтропия максимальна при равновероятном распределении параметров движения молекул (направлении, скорости и пространственном положении). Значение энтропии уменьшается, если движение молекул упорядочить. По мере увеличения упорядоченности движения энтропия стремится к нулю (например, когда возможно только одно значение и направление скорости). При составлении какого-либо текста с помощью энтропии можно характеризовать степень неупорядоченности чередования символов. Энтропию, например, можно использовать для анализа текста этой лекции. При составлении какого-либо текста с помощью энтропии можно характеризовать степень неупорядоченности чередования символов.

Используя различие формул количества информации Шеннона и энтропии Больцмана (формулы различались только знаками), Л. Бриллюэн охарактеризовал информацию как отрицательную энтропию, или негэнтропию. Так как энтропия является мерой неупорядоченности, то информация может быть определена как мера упорядоченности материальных систем. В связи с тем, что внешний вид формул совпадает, можно предположить, что понятие информация ничего не добавляет к понятию энтропии. Однако это не так. Если понятие энтропии применялось ранее только для систем, стремящихся к термодинамическому равновесию, т.е. к максимальному беспорядку в движении её составляющих, к увеличению энтропии, то понятие информации применимо к системам, которые не увеличивают энтропию, а наоборот, находясь в состоянии с небольшими значениями энтропии, стремятся к её дальнейшему уменьшению.

Замечание. В настоящее время известно четыре основных типа энтропий. В термодинамике – это функция состояния (Клаузиус) и мера беспорядка (Больцман). В теории информации – мера достоверности информации, передаваемой по каналу связи (Шеннон). При этом следует понимать, что энтропия Больцмана является мерой беспорядка, хаотичности, однородности молекулярных систем, тогда как энтропия Клаузиуса пропорциональна количеству связанной энергии, находящейся в системе, которую нельзя превратить в работу, а энтропия Шеннона количественно характеризует достоверность передаваемого сигнала и используется для расчёта количества кодированной информации. Четвёртый тип энтропии – e-энтропия Колмогорова (и К-энтропия Колмогорова-Синая), используется для анализа таких объектов, как географическая карта.

Теория информации «переросла» рамки поставленных первоначально перед ней задач. Её начали применять к более широкому кругу явлений. Увеличение количества информации стали связывать с повышением сложности системы, с её прогрессивным развитием. Так, по данным некоторых исследований, при переходе от атомного уровня к молекулярному, количество информации увеличивается в 103 раза. Количество информации, относящейся к организму человека, примерно в 1011 раз больше информации, содержащейся в одноклеточном организме.

Теория информации основана на вероятностных, статистических закономерностях явлений. Она даёт полезный, но не универсальный аппарат. Поэтому множество ситуаций не укладываются в информационную модель Шеннона. Не всегда представляется возможным заранее установить перечень всех состояний системы и вычислить их вероятности. Кроме того, в теории информации рассматривается только формальная сторона сообщения, в то время как смысл его остается в стороне.

В 1948 вышла знаменитая монография Н.Винера «Кибернетика», в которой был провозглашён тезис: «Информация – это информация, а не материя (вещество) и не энергия». Объединяющим началом для всех видов управления в живой и неживой природе Винер считал информацию, существующую в двух видах. Он же ввёл понятие «бит», характеризующее единицу информации.

Н. Винер определил информацию как обозначение содержания, полученного из внешнего мира в процессе приспособления к нему наших чувств. Вводя понятие о семантически значимой информации, он отметил количественное и качественное отличие ЭВМ от человека: машины могут правильно работать в том случае, если получают от человека необходимую им информацию и в самой точной форме. Следовательно, характер информации, вводимой в машину, должен быть точно определён и заранее известен человеку. А живые организмы получают необходимую им информацию благодаря постоянному взаимодействию с природой. Возникновение способности перерабатывать информацию в живых организмах есть исторически развивающийся процесс. Винер показал, что сущность информации заключается в способности систем с памятью к саморазвитию, т.е. процессами развития управляет не только внешнее воздействие, но и память. По своей сути память о прошлом представляет собой информацию, записанную в определенных структурах, которые могут передаваться, запоминаться, воспроизводиться.

В рассуждениях Винера познание – это часть жизни, более того – самая её суть. «Действенно жить – значит жить, располагая правильной информацией». При этом процесс познания, накопления информации непрерывен и бесконечен. «Я никогда не представлял себе логику, знания и всю умственную деятельность как завершенную замкнутую картину. Я мог понять эти явления только как процесс, с помощью которого человек организует свою жизнь таким образом, чтобы она протекала в соответствии с внешней средой. Важна битва за знание, а не победа. За каждой победой, т. е. за всем, что достигает апогея своего, сразу же наступают сумерки богов, в которых само понятие победы растворяется в тот самый момент, когда она достигнута».

В середине 50-х годов 20-го века, используя материал статистической теории информации, У.Эшби изложил концепцию необходимого разнообразия, согласно которой под разнообразием следует подразумевать характеристику элементов множества, заключающуюся в их несовпадении. Так, множество, в котором все элементы одинаковы, не имеет «никакого» разнообразия, ибо все его элементы одного типа. Если разнообразие его измерить логарифмически, то получим логарифм единицы (единица означает однотипность элементов множества) – нуль. Множество с таким разнообразием соответствует единичной вероятности выбора элемента, т.е. какой элемент множества не был бы выбран, он будет одного и того же типа. Закон необходимого разнообразия Эшби, так же, как закон Шеннона для процессов связи, – общий для процессов управления. Для управления состоянием кибернетической системы нужен регулятор, ограничивающий разнообразие возмущений, которые могут разрушить систему. При этом регулятор допускает такое их разнообразие, которое необходимо и полезно для системы. Закон необходимого разнообразия – один из основных в кибернетике – науке об управлении. Закон относится к процессам передачи сообщений по каналам связи, причём «информация не может передаваться в большем количестве, чем это позволяет количество разнообразия». Кстати Эшби предостерегал против попыток рассматривать информацию как «материальную или индивидуальную вещь»: «Всякая попытка трактовать информацию как вещь, которая может содержаться в другой вещи, обычно ведёт к трудным проблемам, которые никогда не должны были бы возникать».

Закон необходимого разнообразия – разнообразие управляющей системы должно быть не меньше разнообразия управляемого объекта. На практике это означает, что чем сложнее объект управления, тем сложнее должен быть и орган, который им управляет.

Впитав всевозможные взгляды и концепции, понятие информации доросло до уровня философской категории: если причиной существующего в природе разнообразия является неоднородность в распределении энергии (или вещества) в пространстве и во времени, то информация – мера этой неоднородности. Информация существует постольку, поскольку существуют сами материальные тела и, следовательно, созданные ими неоднородности. Всякая неоднородность несёт с собой какую-то информацию.

С понятием информации в кибернетике не связано свойство её осмысленности в обычном житейском понимании. Информация охватывает как сведения, которыми люди обмениваются между собой, так и сведения, существующие независимо от людей. Например, звёзды существуют независимо от того, имеют люди информацию о них или нет. Существуя объективно, они создают неоднородность в распределении вещества и поэтому являются источниками информации.

В данном случае понятие информации определяется уже на уровне таких изначальных понятий философии, как материя и энергия. Информация независима от нашего сознания. Её объективный характер основан на объективности существования её источника – разнообразия. Для того чтобы построить строгую теорию информации, К.Шеннону пришлось отвлечься от её смысла.

Очень близка к «разнообразностной» трактовке информации идея алгоритмического измерения её количества, выдвинутая в 1965 А.Н.Колмогоровым. Суть её заключается в том, что количество информации определяется как минимальная длина программы, позволяющей преобразовать один объект (множество) в другой (множество). Чем больше различаются два объекта между собой, тем сложнее (длиннее) программа перехода от одного объекта к другому. Длина программы при этом измеряется количеством команд (операций), требуемых для воспроизводства последовательности. Этот подход, в отличие от подхода Шеннона, не базируется на понятии вероятности, что позволяет, например, определить прирост количества информации, содержащейся в результатах расчёта, по сравнению с исходными данными. Вероятностная теория информации на этот вопрос не даёт удовлетворительного ответа.

До сих пор мы рассматривали подходы, связанные с количественным аспектом понятия информации без учёта смысловой стороны информации. Эти подходы позволили привлечь к изучению информации точные математические методы. В результате были созданы всевозможные кибернетические устройства, вычислительные машины и пр. Всё это стало возможным благодаря достижениям теории информации. Человек научился её преобразовывать, кодировать и передавать на огромные расстояния с хорошей точностью.

Классическая теория информации Шеннона, значительно дополненная и обогащенная новыми подходами, всё же не может охватить всего многообразия понятия информации и, в первую очередь, её содержательного аспекта. Теория информации К.Шеннона также не занимается определением ценности информации. Количество информации её интересует лишь с точки зрения возможности передачи данных сообщении оптимальным образом.

В 1968 Урсул указал на то, что информация неоднородна, она обладает качественными характеристиками, и два разных типа информации не могут сравниваться. Каждый уровень природы обладает собственной информацией. При этом «человеческая», или «социальная», информация составляют один тип информации, и в рамках которой выделяются два аспекта: семантический (содержание) и прагматический (ценность).

Попытки оценить не только количественную, но и содержательную сторону информации дали толчок к развитию смысловой теории информации. Исследования в этой области связаны с семиотикой – теорией знаковых систем. Одним из важнейших свойств информации является её неотделимость от носителя: во всех случаях, когда мы сталкиваемся с любыми сообщениями, эти сообщения выражены некоторыми знаками, словами, языками. Семиотика исследует знаки как особый вид носителей информации. При этом знак – условное изображение элемента сообщения, слово – совокупность знаков, имеющих смысловое значение, язык – словарь и правила пользования им. Рассуждая о количестве, содержании и ценности информации, содержащейся в сообщении, исходят из возможностей анализа знаковых структур.

В качестве знаковых систем используются естественные и искусственные языки, в том числе информационные и языки программирования, различные системы сигнализации, логические, математические и химические символы. Они служат средством обмена информацией между высокоорганизованными системами (способными к обучению и самоорганизации). Примером могут быть живые организмы, машины с определенными свойствами.

Рассматривая знаковые системы, выделяют три основных аспекта их изучения: синтактику, семантику и прагматику. Синтактика изучает синтаксис знаковых структур, т.е. способы сочетаний знаков, правила образования этих сочетаний и их преобразований безотносительно к их значениям. Семантика изучает знаковые системы как средства выражения смысла, определенного содержания, т.е. правила интерпретации знаков и их сочетаний, смысловую сторону языка. Прагматика рассматривает соотношение между знаковыми системами и их пользователями, или приёмниками-интерпретаторами сообщений. К ней относится изучение практической полезности знаков, слов и, следовательно, сообщений, т.е. потребительской стороны языка.

Основная идея семантической концепции информации заключается в возможности измерения содержания суждений. Но содержание всегда связано с формой, поэтому синтаксические и семантические свойства информации взаимосвязаны, хотя и различны. Содержание можно измерить через форму, т.е. семантические свойства информации выразить через синтаксические. Поэтому исследования семантики базируются на понятии информации как уменьшении или устранении неопределенности.

Семантическая концепция преодолевает чисто вероятностный подход. Здесь количество информации, содержащейся в суждении по некоторой проблеме, определяется тем, насколько доказательство истинности этого суждения уменьшает энтропию, дезорганизованность системы. При прагматическом подходе устанавливается зависимость между информацией и целью переработки информации. Ценностный подход к информации важен в социальном управлении, где необходима не всякая информация, а лишь та, которая способствует достижению цели, стоящей перед системой. Ценность информации определяется через разность между вероятностями достижения цели до и после получения информации. В соответствии с этим определением информация измеряется всегда положительной величиной, а ценность её может быть и отрицательной.

Первую попытку построения теории семантической информации предприняли Р.Карнап и И.Бар-Хиллел. Они применили идеи и методы символической логики и логической семантики к анализу информационного содержания языка науки. Было предложено определять величину семантической информации посредством логической вероятности, представляющей собой степень подтверждения той или иной гипотезы. При этом количество семантической информации, содержащейся в сообщении, возрастает по мере уменьшения степени подтверждения априорной гипотезы. Если вся гипотеза построена на эмпирических данных, полностью подтверждаемых сообщением, то такое сообщение не приносит получателю никаких новых сведений. Логическая вероятность гипотезы при этом равна единице, а семантическая информация оказывается равной нулю. И, наоборот, по мере уменьшения степени подтверждения гипотезы, или запаса знаний, количество семантической информации, доставляемой сообщением, возрастает. Чем больше логическая вероятность высказывания, тем меньше мера его содержания, т.е. чем больше описаний состояния «разрешает» то или иное высказывание, тем меньше должна быть его семантическая информативность и, наоборот, чем больше описаний состояния им исключается, тем больше должна быть его информативность. Семантико-информационное содержание высказывания определяется не тем, что содержит данное высказывание, а тем, что оно исключает.

Финский ученый Я.Хинтикка распространил основные идеи семантической теории информации на логику высказываний. Для многих ситуаций (наблюдения, измерения, подтверждения гипотезы, научного предсказания, объяснения) он предложил метод определения уменьшения неопределенности, которое, например, претерпевает гипотеза g после получения того или иного эмпирического факта h или вообще изменения информационного содержания высказывания g при получении высказывания h.

Задача – связать понятие прагматической информации с целью, целенаправленным поведением, а также и выдвинуть те или иные количественные меры ценности информации.

Логик Д.Харрах поставил перед собой цель показать, как символическая логика и теория семантической информации могут быть использованы для анализа некоторых аспектов человеческой коммуникации. Он создал «модель того, как разумный получатель оценивает последовательность сообщений на основе определенных семантических и прагматических свойств». Харрах предложил обеспечить получателя «программой обработки сообщений», с помощью которой извлекается из получаемых сообщений «годная к употреблению сумма сообщений». Именно к этому результату переработки сообщений, а не к сообщениям в их первоначальной форме применимы количественные меры информации. Логическая модель коммуникации служит тем языковым каркасом, в рамках которого программа может быть образована и применена.

Коммуникационная деятельность – особый вид общения – деятельность по передаче информации от источника (коммуникатора) к получателю (реципиенту) посредством определенного канала. Между коммуникатором и реципиентом может осуществляться «обратная связь», т. е. процесс, с помощью которого коммуникатор получает информацию о том, в какой мере и с каким качеством реципиент получил информацию.

Появление вычислительных машин в 50-х гг. 20-го века создало до становления информатики необходимую ей аппаратную поддержку, нужную для хранения и переработки информации. Но, конечно, с информацией люди оперировали задолго до появления компьютеров. Начиная с древнего абака, дожившего до наших дней в виде конторских счётов, создавались приспособления для обработки числовой информации. Механические устройства типа арифмометров, счётные электрические клавишные машины, счётно-аналитическая техника и многие другие приборы были нацелены на решение тех же задач, которые затем стали реализовываться в компьютерах.

Кроме числовой информации, в поле зрения специалистов была и символьная информация, например, тексты на естественном языке: от приключенческих повестей до отчетов о проделанной работе, справок из учреждений, писем и т. п. Для хранения и переработки такой информации также создавали различные приспособления и устройства. Простейшим примером может служить стойка с ящиками, в которых хранятся карточки, несущие информацию. Такие каталоги – непременный атрибут библиотек. Но на карточках можно хранить в систематизированном виде и любую другую информацию, записанную на некотором естественном или специальном языке. Стремление как-то автоматизировать процедуры, связанные с поиском нужной информации в каталоге, привело к появлению приёмов, вошедших в арсенал науки – документалистики, продуктом которой стали ручные и автоматизированные информационно-поисковые системы.

Компьютер в одной системе объединил хранение и обработку как числовой, так и текстовой (символьной) информации. Именно поэтому его появление знаменовало начало новой науки.

Информатика является комплексной, междисциплинарной отраслью научного знания.

Важное направление информатики – изучение информационных процессов, протекающих в биологических системах, и использование накопленных знаний при организации и управлении природными системами. Примером является – биокибернетика. В сферу её интересов входят проблемы, связанные с анализом информационно-управляющих процессов, протекающих в живых организмах, диагностика заболеваний и поиск путей их лечения. Сюда же относятся системы, предназначенные для оценки биологической активности тех или иных химических соединений, без которых уже не может существовать фармакология, а также исследования моделей внутриклеточных процессов, лежащих в основе всего живого.

Вторая наука, входящая в это научное направление, – бионика.

Третья наука – биогеоценология – нацелена на решение проблем, относящихся к системно-информационным моделям поддержания и сохранения равновесия природных систем и поиска таких воздействий на них, которые стабилизируют разрушающее воздействие человеческой цивилизации на биомассу Земли.

Как наука, информатика изучает общие закономерности, свойственные информационным процессам и именно эти общие закономерности есть предмет информатики как науки. Объектом приложений информатики являются самые различные науки и области практической деятельности, для которых она стала непрерывным источником самых современных технологий.

Цель информатики состоит в поиске нового знания. Информатика – технология обработки накопленного знания и построения нового знания. Информатика изучает методы анализа знания о методах построения нового знания как своего собственного, так и знания других наук.

Сделать бесплатный сайт с uCoz