Феномен информации

Феномен информации

Гончаренко Е.А., Знаменский В.С.

Рассматриваются вопросы определения понятия “информация”

Содержание
Введение
1. Феномен информации
1.1. Определение информации
1.2. Количественная мера информации (- Что такое величина или количество информации; - Формула Шеннона; - Бит и байт; - Экспертные методы оценки информации и становление новых мер информации)
1.3. Классификация информации (- По способу кодирования; - По сфере возникновения; - По способу передачи и восприятия; - По общественному назначению)
1.4. Свойства информации (- Атрибутивные свойства информации; - Прагматические свойства информации; - Динамические свойства информации)
2. Что такое информатика
2.1. Определение информатики
2.2. Основные составляющие (- Теоретическая информатика; - Симеотика; - Кибернетика; - Аналоговая и цифровая обработка информации)
2.3. Некоторые определения.

Введение


Проблема обучения информатике на начальном этапе как в старших классах среднеобразовательных школ, так и на первых курсах высшей школы вызывает многочисленные споры. До последнего времени считалось одной из основных задач общее знакомство с компьютерной техникой и умение программировать на одном из простейших языков (как правило “Школьный алгоритмический язык”, “Бейсик” или “Паскаль”). Такая ориентация наметила уклон в сторону программирования. У обучаемого появилась ассоциация слова “информатика” со словом “программирование”. В данной методическом пособии сделана попытка раскрыть понятия информатики и информации с целью использования их специалистами гуманитарных направлений. Обучаемые должны получить возможность оперировать с информацией любого вида: лингвистической, изобразительной, музыкальной. Пособие поможет им приступит к получению навыков обработки и систематизации информации, ориентации в информационных сетях.


1. Феномен информации


1.1. Определение информации


Понятие “Информация” достаточно широко используется в обычной жизни современного человека, поэтому каждый имеет интуитивное представление, что это такое. Но когда наука начинает применять общеизвестные понятия, она уточняет их, приспосабливая к своим целям, ограничивает использование термина строгими рамками его применения в конкретной научной области. Так физика определила понятие силы, и физический термин силы это уже совсем не то, что имеется в виду, когда говорят: сила воли, или сила разума. В то же время наука, занимаясь изучением явления, расширяет представление человека о нем. Поэтому, например, для физика понятие силы, даже ограниченное его строгим физическим значением, гораздо более богаче и содержательнее, чем для несведущих в физике. Так понятие информации, становясь предметом изучения многих наук, в каждой из них конкретизируется и обогащается. Понятие информация является одним из основных в современной науке и поэтому не может быть строго определено через более простые понятия. Можно лишь, обращаясь к различным аспектам этого понятия, пояснять, иллюстрировать его смысл [8]. Деятельность людей связана с переработкой и использованием материалов, энергии и информации. Соответственно развивались научные и технические дисциплины, отражающие вопросы материаловедения, энергетики и информатики. Значение информации в жизни общества стремительно растет, меняются методы работы с информацией, расширяются сферы применения новых информационных технологий. Сложность явления информации, его многоплановость, широта сферы применения и быстрое развитие отражается в постоянном появлении новых толкований понятий информатики и информации. Поэтому имеется много определений понятия информации, от наиболее общего философского - “Информация есть отражение реального мира”[1] до узкого, практического - “Информация есть все сведения, являющееся объектом хранения, передачи и преобразования”[2].


Приведем для сопоставления также некоторые другие определения и характеристики:



  1. Информация (Information)- содержание сообщения или сигнала; сведения, рассматриваемые в процессе их передачи или восприятия, позволяющие расширить знания об интересующем объекте [7].

  2. Информация - является одной из фундаментальных сущностей окружающего нас мира (акад. Поспелов).

  3. Информация - первоначально - сведения, передаваемые одними людьми другим людям устным, письменным или каким - нибудь другим способом (БСЭ).

  4. Информация - отраженное разнообразие, то есть нарушение однообразия [1].

  5. Информация - является одним из основных универсальных свойств материи [1].


Под информацией необходимо понимать не сами предметы и процессы, а их отражение или отображение в виде чисел, формул, описаний, чертежей, символов, образов. Сама по себе информация может быть отнесена к области абстрактных категорий, подобных, например, математическим формулам, однако работа с ней всегда связана с использованием каких-нибудь материалов и затратами энергии. Информация хранится в наскальных рисунках древних людей в камне, в текстах книг на бумаге, в картинах на холсте, в музыкальных магнитофонных записях на магнитной ленте, в данных оперативной памяти компьютера, в наследственном коде ДНК в каждой живой клетке, в памяти человека в его мозгу и т.д. Для ее записи, хранения, обработки, распространения нужны материалы (камень, бумага, холст, магнитная лента, электронные носители данных и пр.), а также энергия, например, чтобы приводить в действие печатающие машины, создавать искусственный климат для хранения шедевров изобразительного искусства, питать электричеством электронные схемы калькулятора, поддерживать работу передатчиков на радио и телевизионных станциях. Успехи в современном развити информационных технологий в первую очередь связаны с созданием новых материалов, лежащих в основе электронных компонентов вычислительных машин и линий связи.


1.2. Количественная мера информации


Что такое величина или количество информации


Каждый предмет или явление человек пытается охарактеризовать, для сравнения с подобными, его величиной. Не всегда это можно просто и однозначно сделать. Даже величины физических предметов можно оценивать по-разному: по объему, весу, массе, количеству составляющих его элементов, стоимости. Поэтому, например, понятно, что даже на простой вопрос: ”Что больше, килограммовая гиря или детский воздушный шарик?”- можно ответить по разному. Чем явление более сложно и многопланово и чем больше характеристик у этого явления, тем труднее подобрать для него удовлетворяющее всех, кто занимается этим явлением, определение его величины. Так и количество информации можно мерить по-разному: в количествах книг, страниц, знаков, метрах кинопленки, тоннах архивных материалов, килобайтах оперативной памяти ЭВМ, а также оценивать по эмоциональному восприятию человека, по полученной пользе от обладания информацией, по необходимым затратам на обработку, систематизацию информации и т.д. Попробуйте оценить, где больше информации: в формуле Энштейна E=mc2, лежащей в основе физики водородной бомбы, в картине Айвазовского “Девятый вал” или в ежедневной телевизионной передаче “Новости”. Видимо проще всего оценить количество информации по тому, сколько необходимо места для ее хранения, выбрав какой-нибудь единый способ представления и хранения информации. С развитием ЭВМ таким единым способом стало кодирование информации с помощью цифр 1 и 0. Кодированием мы здесь называем перезапись информации из одного способа представления в другой. Количество позиций (называемых двоичными), в которых находятся только цифры 1 или 0, необходимое для прямой записи сообщения, является одним из критериев количества информации и называется объемом информации в битах. Для записи одного символа (буквы, цифры, пробела между словами, знаков препинания) в ЭВМ чаще всего используют 8 двоичных позиций, и это называется байтом. Таким образом фраза: ”белоснежка и семь гномов” состоит из 21 буквы (без кавычек) и двух пробелов между словами и будет занимать в памяти ЭВМ 23 байта или 184 бита. Возможна не прямая, а сжатая запись информации, т.е. кодирование его меньшим количеством бит. Это производится за счет специальной обработки и анализа частоты появления, расположения и количества символов в сообщении. На практике человек применяет также сжатие сообщение, исходя из его смысла. Например длинное сообщение объемом в 37 байт “тысяча девятисот девяносто шестой год” можно сжать до четырех символов “1996” Впервые, как научное понятие, информация стала применяться в библиотековедении, теории журналистики. Затем еe стала рассматривать наука об оптимальном кодировании сообщений и передаче информации по техническим каналам связи.


Формула Шеннона


Клод Элвуд Шеннон предложил в 1948 году теорию информации [2], которая дала вероятностно-статистическое определение понятия количества информации. Каждому сигналу в теории Шеннона приписывается вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя. Шеннон предложил следующую формулу для измерения количества информации:


N


I = -S pi log2 pi


i=1,N


где I - количество информации; p i - вероятность появления i-го сигнала;


N - количество возможных сигналов.


Формула показывает зависимость количества информации от числа событий и от вероятности появления этих событий. Информация равна нулю, если возможно только одно событие. С ростом числа событий информация увеличивается. I=1 - единица информации, называемая “бит”. Бит - основная единица измерения информации.


Бит и байт


В технике возможны два исхода, которые кодируются следующим образом: цифрой один “1” - “да”, “включено”, “ток идет” ... цифрой ноль “0” - “нет”, “выключено”, “ток не идет”. Цифры 1 и 0 являются символами простейшей знаковой системы исчисления. В каждом знаке или символе двоичной системы исчисления содержится один бит информации. Особое значение для измерения объемов символьной информации имеет специальная единица - байт. 1 байт = 8 битов, что соответствует восьми разрядам двоичного числа. Почему именно 8? Так сложилось исторически. Объем информации измеряется также в производных от байта единицах: Кбайтах, Мбайтах и Гбайтах, только приставки “К”, “М” и “Г” не означают, как в физике “кило”, “мега” и “гига”, хотя их часто так и называют. В физика “кило” означает 1000 , а в информатике “К” означает 1024, так как это число более естественно для вычислительных машин. Они в основе своей арифметики используют число 2, как человек в основе своей арифметики применяет число 10. Поэтому числа 10, 100, 100 и т.д. удобны для человека, а числа 2, 4, 8, 16 и наконец число 1024, получающееся перемножением двойки десять раз, “удобны” для ЭВМ.


1 Кбайт (КБ) = 1024 байта = 8192 бита


1 Мбайт (МБ) = 1024 Кбайта = 2 20 байта = 2 23 бита


1 Гбайт (МБ) = 1024 Мбайта = 2 20 Кбайта = 2 30 байта = 2 33 бита.


Введенное таким образом понятие количество информации не совпадает с общепринятым понятием количества информации, как важности полученных сведений, но оно с успехом используется в вычислительной технике и связи.


Экспертные методы оценки информации и становление новых мер информации


Поскольку у информации имеются разнообразные характеристики, практическое значение которых в различных приложениях информатики различно, то не может быть единой меры количества информации, удобной во всех случаях. Например, количеством меры информации может служить сложность вычисления при помощи некоторого универсального алгоритма. Следует ожидать, что дальнейшее проникновение информатики в те направления человеческой деятельности, где она еще слабо применяется, в том числе в искусство, приведет к разработке новых научных определений количества информации. Так восприятие произведения искусства, которое нравится нам, приносит ощущение наполнения новой, неизведанной ранее информацией. Не даром часто эффект, произведенный на человека великим музыкальным произведением, полотном художника, а иногда просто созерцанием природы: живописных гор, глубокого неба, - характеризуют словом “откровение”. Поэтому могут появиться характеристики количества информации, характеризующие ее эстетическое и художественное значение. Пока не созданы простые, математически выраженные определения меры количества того или иного свойства информации, для оценки его величины служат так называемые экспертные оценки, т.е. заключения специалистов в данной области. Они свои оценки дают на основании личного, часто очень субъективного опыта. Профессиональное общение между экспертами и творческое обсуждение предмета анализа приводит к выработке более или менее общепринятых критериев оценки, которые могут в конечном счете стать основой для создания формальной меры, однозначной, как международный эталон метра. Примерами становления будущих мер информации, в ее разных проявлениях, могут служить следующие экспертные оценки и другие уже применяемые показатели:



баллы,даваемые судьями соревнований за художественность исполнения, например, по фигурному катанию;
обзоры кинофильмов в прессе с проставлением балов по степени их интереса кинозрителю;

стоимость произведений живописи;

оценка работы ученого по количеству опубликованных статей;

оценка работы ученого по количеству ссылок на его работы в работах других ученых (индекс реферируемости);

индексы популярности музыкальных произведений и их исполнителей, публикуемые в прессе;

оценки студентов, выставляемые преподавателями колледжа.



Кроме измерения объема памяти в битах и байтах, в технике применяются и другие единицы измерения, характеризующие работу с информацией:



количество операций в секунду, характеризующее скорость обработки информации вычислительной машиной;

количество байт или бит в секунду, характеризующее скорость передачи информации;

количество знаков в секунду, характеризующие скорость чтения, набора за компьютером текстов или быстродействие печатающего устройства.



1.3. Классификация информации


Информацию можно условно делить на различные виды, основываясь на том или ионом ее свойстве или характеристике, например по способу кодирования, сфере возникновения, способу передачи и восприятия и общественному назначению и т.д..


По способу кодирования


По способу кодирования сигала информацию можно разделить на аналоговую и цифровую. Аналоговый сигнал информацию о величине исходного параметра, о котором сообщается в информации, представляет в виде величины другого параметра, являющегося физической основой сигнала, его физическим носителем. Например, величины углов наклона стрелок часов - это основа для аналогового отображения времени. Высота ртутного столбика в термометре - это тот параметр, который дает аналоговую информацию о температуре. Чем больше длина столика в термометре, тем больше температура. Для отображения информации в аналоговом сигнале используются все промежуточные значения параметра от минимального до максимального, т.е. теоретически бесконечно большое их число. Цифровой сигнал использует в качестве физической основы для записи и передачи информации только минимальное количество таких значений, чаще всего только два. Например, в основе записи информации в ЭВМ применяются два состояния физического носителя сигнала - электрического напряжения. Одно состояние - есть электрическое напряжение, условно обозначаемое единицей (1), другое - нет электрического напряжения, условно обозначаемое нулем (0). Поэтому для передачи информации о величине исходного параметра необходимо использовать представление данных в виде комбинации нулей и единиц, т.е. цифровое представление. Интересно, что одно время были разработаны и использовались вычислительные машины, в основе которых стояла троичная арифметика, так как в качестве основных состояний электрического напряжения естественно взять три следующие: 1) напряжение отрицательно, 2) напряжение равно нулю, 3)напряжение положительно. До сих пор выходят научные работы, посвященные таким машинам и описывающие преимущества троичной арифметики. Сейчас в конкурентной борьбе победили производители двоичных машин. Будет ли так всегда? Приведем некоторые примеры бытовых цифровых устройств. Электронные часы с цифровой индикацией дают цифровую информацию о времени. Калькулятор производит вычисления с цифровыми данными. Механический замок с цифровым кодом тоже можно назвать примитивным цифровым устройством.


По сфере возникновения


По сфере возникновения информацию можно классифицировать следующим образом. Информацию, возникшую в неживой природе называют элементарной, в мире животных и растений - биологической, в человеческом обществе - социальной. В природе, живой и неживой, информацию несут: цвет, свет, тень, звуки и запахи. В результате сочетания цвета, света и тени, звуков и запахов возникает эстетическая информация. Наряду с естественной эстетической информацией, как результат творческой деятельности людей возникла другая разновидность информации - произведения искусств. Кроме эстетической информации в человеческом обществе создается семантическая информация, как результат познания законов природы, общества, мышления. Деление информации на эстетическую и семантическую очевидно очень условно, просто необходимо понимать, что в одной информации может преобладать ее семантическая часть, а в другой эстетическая.


По способу передачи и восприятия


По способу передачи и восприятия информацию принято классифицировать следующим образом. Информация, передаваемая в виде видимых образов и символов называется визуальной; передаваемая звуками - аудиальной; ощущениями - тактильной; запахами - вкусовой. Информация, воспринимаемая оргтехникой и компьютерами называется машинно-ориентированной информацией. Количество машинно-ориентированной информации постоянно увеличивается в связи с непрерывно возрастающим использованием новых информационных технологий в различных сферах человеческой жизни.


По общественному назначению


По общественному назначению информацию можно подразделять на массовую, специальную и личную. Массовая информация подразделяется в свою очередь на общественно-политическую, обыденную и научно-популярную. Специальная информация подразделяется на производственную, техническую, управленческую и научную. Техническая информация имеет следующие градации:

станкостроительная,

машиностроительная,

инструментальная...

Научная информация подразделяется на биологическую, математическую, физическую...


1.4. Свойства информации


Информация имеет следующие свойства:

- атрибутивные;

- прагматические;

- динамические.

Атрибутивные - это те свойства, без которых информация не существует. Прагматические свойства характеризуют степень полезности информации для пользователя, потребителя и практики. Динамические свойства характеризуют изменение информации во времени.


Атрибутивные свойства информации


Неотрывность информации от физического носителя и языковая природа информации


Важнейшими атрибутивными свойствами информации являются свойства неотрывности информации от физического носителя и языковая природа информации. Одно из важнейших направлений информатики как науки является изучение особенностей различных носителей и языков информации, разработка новых, более совершенных и современных. Необходимо отметить, что хотя информация и неотрывна от физического носителя и имеет языковую природу она не связана жестко ни с конкретным языком, ни с конкретным носителем.


Дискретность


Следующим атрибутивным свойствам информации, на которое необходимо обратить внимание, является свойство дискретности. Содержащиеся в информации сведения, знания - дискретны, т.е. характеризуют отдельные фактические данные, закономерности и свойства изучаемых объектов, которые распространяются в виде различных сообщений, состоящих из линии, составного цвета, буквы, цифры, символа, знака.


Непрерывность


Информация имеет свойство сливаться с уже зафиксированной и накопленной ранее, тем самым способствуя поступательному развитию и накоплению. В этом находит свое подтверждение еще одно атрибутивное свойство информации - непрерывность.


Прагматические свойства информации


Смысла и новизна


Прагматические свойства информации проявляются в процессе использования информации. В первую очередь к данной категории свойств отнесем наличие смысла и новизны информации, которое характеризует перемещение информации в социальных коммуникациях и выделяет ту ее часть, которая нова для потребителя.


Полезность


Полезной называется информация, уменьшающей неопределенность сведений об объекте. Дезинформация расценивается как отрицательные значения полезной информации. Встречается применение термина полезности информации для описания, какое влияние на внутреннее состояние человека, его настроение, самочувствие, наконец здоровье, оказывает поступающая информация. В этом смысле полезная или положительная информация - это та, которая радостно воспринимается человеком, способствует улучшению его самочувствия, а отрицательная информация угнетающе действует на психику и самочувствие человека, может привести к ухудшению здоровья, инфаркту, например.


Ценность


Следующим прагматическим свойством информации является ее ценность. Необходимо обратить внимание, что ценность информации различна для различных потребителей и пользователей.


Кумулятивность


Свойство кумулятивности характеризует накопление и хранение информации.


Динамические свойства информации


Динамические свойства информации, как следует из самого названия, характеризуют динамику развития информации во времени.


Рост информации


Прежде всего необходимо отметить свойство роста информации. Движение информации в информационных коммуникациях и постоянное ее распространение и рост определяют свойство многократного распространения или повторяемости. Хотя информация и зависима от конкретного языка и конкретного носителя, она не связана жестко ни с конкретным языком ни с конкретным носителем. Благодаря этому информация может быть получена и использована несколькими потребителями. Это свойство многократной используемости и проявление свойства рассеивания информации по различным источникам.


Старение


Среди динамических свойств необходимо также отметить свойство старения информации.


2. Что такое информатика


2.1. Определение информатики


Еще не очень давно под информатикой понимали научную дисциплину, изучающей структуру и общие свойства научной информации, а также закономерности всех процессов научной коммуникации - от неформальных процессов обмена научной информацией при непосредственном устном и письменном общении ученых и специалистов до формальных процессов обмена путем научной литературы [9]. Это понимание было близко к таким, как “библиотековедение”, “книговедение”. Синонимом понятия “информатика” иногда служил термин “документация” Стремительное развитие вычислительной техники изменило понятие “информатика”, придав ему значительно более направленный на вычислительную технику смысл. Поэтому имеются до сих пор различные толкования этого термина. В Америке, как аналогичный европейскому пониманию информатики, применяется термин “Computer Science” - наука о компьютерах. Близким к понятию информатика является термин “системотехника”, для которого также часто словари дают перевод “Computer Science”. Информатика - это наука, изучающая все аспекты получения, хранения, преобразования, передачи и использования информации.


2.2. Основные составляющие


Составляющие данной науки являются: теоретическая информатика, симеотика, кибернетика. Практически информатика реализуется в программировании ивычислительной технике.


Теоретическая информатика


Теоретическая информатика является фундаментом для построения общей информатики. Данная дисциплина занимается построением моделей, построением дискретных множеств, которые описывают эти модели. Неотъемлемой частью теоретической информатики является логика. Логика - совокупность правил, которым подчиняется процесс мышления. Математическая логика изучает логические связи и отношения, лежащие в основе дедуктивного (логического) вывода.


Симеотика


Симеотика исследует знаковые системы, составляющие которых - знаки - могут иметь самую разнообразную природу, лишь бы в них можно было выделить три составляющие, связанные между собой договорными отношениями: синтаксис (или план выражения), семантику (или план значения) и прагматику (или план использования). Симеотика позволяет установить аналогии в функционировании различных систем как естественного, так и искусственного происхождения. Ее результаты используются в компьютерной лингвистике, искусственном интеллекте, психологии и других науках.


Кибернетика


Кибернетика возникла в конце 40-х годов, когда Н.Винер выдвинул идею, что правила управления живыми, неживыми и искусственными системами имеют много общих черт. Актуальность выводов Н.Винера была подкреплена появлением первых компьютеров. Кибернетика сегодня может рассматриваться как направление информатики, рассматривающее создание и использование автоматизированных систем управления разной степени сложности.


Аналоговая и цифровая обработка информации


Информатика, как наука об обработке информации, реализуется в аналоговой и цифровой обработке информации. К аналоговой обработке информации можно отнести непосредственные действия с цветом, светом, формой, линией и т.д. Смотреть на мир через розовые очки (буквально) - это аналоговая обработка визуальной информации. Возможны и аналоговые вычислительные устройства. Они широко применялись раньше в технике и автоматике. Простейшим примером такого устройства является логарифмическая линейка. Раньше в школах учили с ее помощью производить умножения и деления и она была всегда под рукой любого инженера. Сейчас ее заменили цифровые устройства - калькуляторы. Под цифровой обработкой информацией обычно понимают действия с информацией посредством цифровой вычислительной техники. В настоящее время традиционные аналоговые способы записи звуковой и телевизионной информации заменяются цифровыми способами, однако они еще не получили широкое распространение. Однако мы уже все чаще используем цифровые устройства для управления традиционными “аналоговыми” устройствами. Например, сигналы, подающиеся от переносного устройства управления телевизором или видеомагнитофоном являются цифровыми. Появившиеся в магазинах весы, выдающие на табло вес и стоимость покупки, также являются цифровыми. Естественные способы отображения и обработки информации в природе являются аналоговыми. Отпечаток следа животного является аналоговым сигналом о величине животного. Крик является аналоговым способом передать внутреннее состояние: чем громче - тем сильнее чувство. Физические процессы выполняют аналоговую обработку сигналов в органах чувств: фокусировку изображения на сетчатке глазного яблока, спектральный анализ звуков в ушной улитке. Системы аналоговой обработки сигналов более быстродействующие, чем цифровые, но выполняют узкие функции, плохо перестраиваются на выполнение новых операций. Поэтому сейчас так стремительно развились числовые ЭВМ. Они универсальны и позволяют обрабатывать не только численную, но и любую другую информацию: текстовую, графическую, звуковую. Цифровые ЭВМ способны принимать информацию от аналоговых источников, используя специальные устройства: аналогово-цифровые преобразователи. Также информация, после обработки на цифровой ЭВМ, может переводиться в аналоговую форму на специальных устройствах: цифро-аналоговых преобразователях. Поэтому современные цифровые ЭВМ могут говорить, синтезировать музыку, рисовать, управлять машиной или станком. Но может не так заметно для всех, как цифровые ЭВМ, но развиваются и аналоговые системы обработки информации. А некоторые устройства аналоговой обработки информации до сих пор не нашли и видимо в ближайшем будущем не найдут себе достойной цифровой замены. Таким устройством, например, является объектив фотоаппарата. Вероятно, что будущее техники за так называемыми аналогово-цифровыми устройствами, использующими преимущества тех и других. Повидимому органы чувств, нервная система и мышление также построены природой как на аналоговой, так и цифровой основе. При проектировании человеко-машинных сис тем важно учитывать характеристики человека по восприятию того или иного вида информации. При чтении текстов, например, человек воспринимает 16 бит в 1 сек, одновременно удерживая 160 бит [9]. Удобный дизайн в кабине самолета, на пульте управления сложной системой, значительно облегчает работу человека, повышает глубину его информированности о текущем состоянии управляемого объекта, влияет на быстроту и эффективность принимаемых решений.


2.3.Некоторые определения.


Наука - социальная сфера создания и использования информации как знания объективного мира человека.


Искусство - социальная деятельность по созданию и использованию источников информации, влияющих в первую очередь на чувства, во вторую на сознание.


Творчество - производство человеком новой информации. Педагогика - организация информационного процесса, связанного с максимальным усвоением информации.


Обучение - передача информации с целью приобретения знания и умения.


Литература

1. Информатика. Энциклопедический словарь для начинающих. под ред. Д.А.Поспелова - М. Педагогика-Пресс, 1994


2. Я.Л.Шрайберг, М.В.Гончаров - Справочное руководство по основам информатики и вычислительной техники - М.Финансы и статистика, 1995


3. Информатика и культура. Сборник научных трудов. - Новосибирск, Наука, Сибирское отделение, 1990


4. Д.И.Блюменау - Информация и информационный сервис - Ленинград, Наука, 1989


5. Информационная технология : Вопросы развития и применения. - Киев.:Наук.думка,1988


6. Концепция информатизации образования // Информатика и образование. - 1990 - N1


7. Терминологический словарь по основам информатики и вычислительной техники/ А.П.Ершов и др.; под ред. А.П.Ершова, Н.М.Шанского.- М.:Просвещение, 1991.-159 с.


8. Заварыкин В.М. и др. Основы информатики и вычислительной техники: Учеб. пособие для студентов пед. ин-тов по физ.-мат. спец.- М.: Просвещение, 1989.-207 с.


9. Энциклопедия кибернетики. - Главная редакция украинской советской энциклопедии. Киев, 1974.


ГОНЧАРЕНКО ЕЛЕНА АЛЕКСАНДРОВНА
ЗНАМЕНСКИЙ ВАСИЛИЙ СЕРАФИМОВИЧ


МНО КБР
НАЛЬЧИКСКИЙ КОЛЛЕДЖ ДИЗАЙНА
Нальчик-1996


Ресурс: Виртуальная школа БАКАЙ
Статья: Феномен информации
Опубликовано:
Автор:
Читателей:19636

Оценка статьи:
ОтвратительноУжасноПлохоСреднеХорошоПохвальноОтличноПревосходноПрекрасноВеликолепно!
[Голосов: 36]



 
История вычислительной техники 1890 произведена перепись населения с использованием "считающей машины" Германа Холлерита
1890
В США произведена перепись населения - впервые в этом участвовала "считающая машина", созданная Германом Холлеритом.
Словарь компьютерных терминов Загрузчик (loader).
Загрузчик
1. Программа загрузки. 2. Обрабатывающая программа, выполняющая редактирование связей и загрузку объектной программы в основную память. абсолютный ЗАГРУЗЧИК (absolute loader). Загрузчик,
Это интересно! ЛАМПА ШАХТЕРА
ЛАМПА ШАХТЕРА
В 1815 г. англичанин Гемфри Дэви (1778-1829) изобрел лампу с мелкой сеткой, которая препятствовала воспламенению газа от пламени. Применение лампы Дэви уменьшило количество взрывов в шахтах.
Личность в истории Ван Ань-Ши (1021-1086)
Ван Ань-Ши
Китайский реформатор, ученый, писатель, первый министр. К руководству страной пришел в1069 г., имея готовый план проведения реформ. Их цель состояла в преодолении финансовых затруднений, социального
Крылатые слова Аргонавты
Аргонавты
Так называют смельчаков в отважных путешественников, стремящихся к неизвестному. Слово "аргонавт" перешло в нашу речь из греческих мифов. Отважные мореплаватели под водительством героя Язона
Линия времени 1190 до н.э. Под напором коалиции средиземноморских племен ("народов мира") прекратило свое существование Хеттское царство.
1190 до н.э.
Во второй половине XIII в. до н.э. начинается постепенный упадок Хеттского царства. Правитель Аххиявы, отношения с которой складывались у хеттов по-разному, всё чаще опустошает территории стран,