Информационные и коммуникационные технологии в построении открытой системы образования

Общие сведения об информации. Виды информации. Основные характеристики и свойства информации. Общие сведения об информации

Общие сведения об информации

Понятие информации, часто используемое в последние десятилетия XX начале XXI веков в различных отраслях науки, в том числе и в психологии и педагогике, до настоящего времени остается весьма неконкретным и не имеет строгого научного определения. В разных словарях оно определяется по-разному: сообщения о чем-либо, сведения о чем-либо, содержание связи между материальными объектами и т. п. Отдельную тему представляют разнообразные определения, используемые в узких специальных областях знаний. Важно отметить, что крупные российские ученые-психологи, такие как К.К. Платонов' [31] еще в 70-е годы XX века поняли роль информации в психологии вообще и в образовании в частности и попытались связать понятие информации с психологией.

Одно из удачных определений понятия информации, впитавшее в себя многообразие других определений и успешно претендующее на энциклопедическую всеохватность, выглядит следующим образом [22]. «ИНФОРМАЦИЯ (от лат. informatio — разъяснение, изложение) — сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и так далее). С середины XX века общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом: обмен сигналами в животном и растительном мире, передачу признаков от клетки к клетке, от организма к организму,..., одно из основных понятий кибернетики».

1 Платонов К.К. (1906 - 1984) видный отечественный психолог.

Простой лингвистический анализ латинского INFORMATIO (INFORMATIA)[5] показывает, что информация (informatio) означает — абстрактная сущность, заключенная в некоторой материальной форме. При этом термин «информация» используется тогда, когда хотят подчеркнуть, что речь идет о некоторых сущностях, заключенных и, зачастую, скрытых некоей формой, когда важным является содержание, а не форма, в которую оно обличено [44].

Анализ различных используемых определений информации позволяет выделить две основные характеристики, так или иначе присутствующие в них:

  • • Главный определяющий термин понятия ИНФОРМАЦИЯ так или иначе связан с понятием знание (сведения — корень вед / ведать/, то есть старославянское — знать; изложение — корень лог /логос/ то есть греческое — знание; разъяснение, то еесть улучшение понимания (см. слова, характеризующие в НЛП визуальную информационную систему), расширение области знания; и т.п.
  • • Для определений понятия ИНФОРМАЦИЯ также характерна процедура обмена, то есть явная или неявная причастность к нему, по крайней мере, двух субъектов, участвующих в обмене; сравните: сообщение, то есть передача от одного (источника информации) к другому (получателю информации).

Эти два основных свойства информации органично укладываются в описание процесса познания мира человеком:

  • - познание происходит в результате постоянных контактов человека с окружающим его миром и получения информации о нем, то есть постоянной передачи информации от объектов этого мира к человеку.
  • - переработка полученной информации и накопление ее в некотором систематизированном виде, что и составляет суть процесса познания, а его результат и есть знания человека.
  • 1 Нейролингвистическое программирование (НЛП) (от англ. Neurolinguistic programming) — современное направление в психологии, объединяющее комплекс техник, аксиом и убеждений, применяемых главным образом как подход к личностному развитию человека.

Таким образом, информация — это то, что связанно с общением, а также с накоплением и переработкой знаний, то есть с самыми разнообразными процессами, которые существовали, существуют и будут существовать в человеческом обществе.

На наш взгляд, наиболее близко отражает понятие информации — следующее современное определение. Информация — «некоторое качество, присущее всем материальным системам и отражающее разнообразие их свойств или степень упорядоченности этих свойств» [5].

Очевидно, что понятие информации неразрывно связано с понятиями знаний и их накоплением. Также как для информации, для понятия «знания» нет единого определения. Дадим определение на основе теории систем, предложенной Людвигом фон Бер-таланфи[1]. Знания — совокупность образов и понятий, а также отношений между ними, формирующихся в процессе познания человечеством окружающего мира. При этом образы и отношения между ними формируются в результате чувственного познания мира, а понятия и отношения между ними — в результате абстрактного мышления.

Основной генератор и носитель знаний — человек. В результате общения между людьми (обмена информацией) возникли, накапливаются и существуют знания всего человечества, как совокупность знаний, полученных отдельными индивидуумами. Совокупность знаний, накопленных в мире за тысячелетия существования человечества, называется тезаурусом мира (от греч. thesauros — сокровище, сокровищница). В науке широко используются и другие тезаурусы, носящие более формализованный характер, например, тезаурусы информационных систем, информационно-поисковые тезаурусы и т д.

Виды информации

Успехи науки и техники конца прошлого начала XXI веков в области создания средств переработки информации и развития

на их основе современных информационных технологий привели к возникновению самых разнообразных систем классификации информации.

На наш взгляд, в педагогике и психологии для правильного понимания процессов, связанных с использованием современных информационных технологий, наиболее применима классификация информации на основе органов чувств человека: зрения, слуха, осязания, обоняния и вкуса.

Известно, что большую часть сведений об окружающем мире (информации) человек воспринимает через зрение. По некоторым оценкам визуальная информация в жизни человека составляет 80-85%. Речь, конечно, идет о людях, с нормальным зрением, слухом, осязанием и т. д.

Второе место занимают сведения, воспринимаемые через слух, то есть аудиальная информация. Она составляет 10-15%.

На долю осязания, обоняния и вкуса приходится не более 5%.

Названия видов информации используются в соответствии с классификацией, принятой в психологии: визуальная (от англ, visual), аудиальная (от лат. audial слуховой). В психологии же принято объединять оставшиеся три вида восприятия единым термином — кинестетическая (от греч. kinesis — движение).

Таким образом, львиная доля информации (более 90%), используемой в познавательной деятельности человека принадлежит к визуальной и аудиальной, иногда ее объединяют термином аудиовизуальной информации. На долю кинестетической информации приходится, как уже было сказано, менее 5% от общего объема информации. Вместе с тем, нельзя не отметить, что ребенок в раннем возрасте, познавая окружающий мир, стремится прикоснуться к новым предметам, потрогать или даже лизнуть их: на раннем этапе чувственного познания мира кинестетическая информация для ребенка очень важна. С возрастом этот канал познания мира ослабевает.

В современных информационных и коммуникационных технологиях широко рассматриваются первые два вида информации, кинестетическую же информацию относят к узкоспециальной сфере изучения и в данном пособии она не рассматривается.

Структура информации, распределенная по ее видам, приведена на рисунке 1.

Виды информации и ее структура (по видам)

Рис. 1. Виды информации и ее структура (по видам)

Визуальная информация — информация, воспринимаемая нашим зрением.

Визуальную информацию можно разделить на образную и вербальную.

К образной визуальной информации относятся любые изображения, коме цифр и текстовых символов. К такой информации относится и воспринимаемый нами пейзаж, или отдельные деревья в лесу или саду, яблоки или другие фрукты — реальные или нарисованные и. так далее Для более строго определения визуального образа в визуальной информации рекомендуем самостоятельно воспользоваться определением образа восприятия, используемым в психологии [53].

К вербальной визуальной информации относится письменная речь, использующая различные языки, включая язык математики, позволяющий записывать арифметические действия. Вербальную образную информацию (письменную речь), в свою очередь, можно разделить на числовую и текстовую или символьную. Выделение числовой информации из письменной речи диктуется существенными особенностями математики, коренным образом отличающими её от всех других видов письменной речи: строгостью и однозначностью как действий над числами, так и их математической записи.

Аудиалъная информация — информация, воспринимаемая нашим слухом. Основой аудиальной информации — физическим раздражителем для слуховой системы служит звук [51].

Аудиалъная информация подразделяется на образную (звуковые образы) и вербальную (устная речь). Кроме того, в аудиальной информации выделяется третий её вид — музыкальная информация (музыка).

Основные характеристики и свойства информации

К основным характеристикам информации относят её количество и объем.

Для измерения количества информации используется вероятностный подход, предложенный К. Шенноном[2]. Единицей измерения количества информации выбран бит, который происходит от англ, binary — двоичный и digit — знак, цифра и обозначает ситуацию, когда событие может принять лишь два исхода — ноль или единицу, что было характерным для двоичного счисления, используемого в работе вычислительных машин.

Наряду с битом в настоящее время для характеристики количества информации широко используется другая единица — байт (от англ, byte), равная восьми битам. Выбор такой единицы также связан с развитием вычислительной техники, как средства работы с информацией. По мере развития вычислительной техники, когда компьютеры стали не только вычислять, но и обрабатывать текст, выраженный в их памяти в двоичных кодах, то оказалось, что для того, чтобы закодировать все цифры, буквы латинского и других (национальных) алфавитов, например, кириллицы и всевозможные символы, используемые при письме, необходимо и достаточно 256 кодов, то есть 8 двоичных знаков, или 8 бит. Так

появилась и стала широко использоваться еще одна единица количества информации — байт. Одного байта достаточно, чтобы представить большинство символов, используемых в письменной речи на английском, русском или других языках.

Когда же компьютеры настолько усовершенствовались, что стали работать с большими текстами размером в тысячи символов, а также стали работать с изображениями и другими видами информации, то оказалось, что размеры этих данных в битах и даже в байтах значительно превосходят единицы, десятки и сотни байт. Тогда стали использовать единицу сначала в тысячу' байт равную 1 килобайту, а затем в миллион байт — 1 мегабайт и так далее.

Использование бита, а затем байта и так далее в качестве единиц информации при её (информации) обработке на вычислительных машинах привело к тому результату, что битами и байтами фактически стали измерять не количество, а объем информации.

Первоначально и до настоящего времени количество информации неразрывно связывалось и связывается с устранением неопределенности после получения этой информации. Однако, использование этих единиц информации для формального подсчета количества информации в памяти компьютера, разрыв между семантическим значением (содержанием) информации и тем воздействием, которое она окажет на получателя, привели к утрате изначального смысла этих единиц, как измерителей количества информации, и превратили их в измерители объема информации. Поясним разницу между объемом и количеством информации на примерах.

Человек, находящийся в лесу, на полянке, в ясный солнечный день по радиоприемнику слышит сообщение о том, что надвигаются сильный порывистый ветер, дождь, гроза (штормовое предупреждение). Очевидно, что количество информации для этого человека будет большим, так как в соответствии с сообщением человек приготовится к надвигающемуся ненастью и примет все меры, чтобы избежать его пагубных последствий. «Количество» информации этого сообщения по сложившейся методике подсчетов будет равно количеству символов текста, содержащего это сообщение, выраженному в байтах (1 символ = 1 байт). А теперь предположим, что сообщение (штормовое предупреждение) передано по радио на мордовском языке, а человек — русскоязычный турист в Мордовии, не знает мордовского языка. Какое количество информации получит этот турист, прослушав сообщение на неизвестном ему языке и не поняв ни одного слова? Очевидно, что количество информации для него равно нулю. Естественно, что другой человек, знающий мордовский язык и прослушавший то же самое сообщение, получит большое количество информации.

Другой пример. На улице холодно, порывистый ветер, идет проливной дождь. Человек стоит у окна, наблюдает эту печальную картину и слышит из радиоприемника сообщение о погоде: «холодно, порывистый ветер, проливной дождь». Какое количество информации он получил, прослушав сообщение? Формально, количество информации равно количеству символов, использованных в сообщении; фактически оно опять будет равно нулю — человек все и так знает, и никакой неопределенности сообщение по радио не устраняет.

Это свойство количества информации, называемое субъективностью, то есть зависимостью количества информации от субъективных знаний воспринимающего информацию, играет колоссальную роль в учебно-воспитательном процессе.

Следствием из этого свойства выступает тот факт, что при подаче учебного материала нужно учитывать уровень знаний ученика. Учитель должен находить золотую середину между двумя крайностями: учебный материал на 100% новый и учебный материал уже полностью известен учащемуся, то есть ученику ничего не известно из материала урока, и ученику уже все известно. И в первом и во втором случае количество информации, сообщаемой ученику, будет близко к нулю, и смысл обучения будет отсутствовать. Новые сведения, новая информация, передаваемая ученику на уроке должна рационально сочетаться с уже усвоенными или частично усвоенными ранее знаниями. Очевидно, что с точки зрения количества передаваемой информации, здесь можно говорить о поиске оптимума передаваемых на каждом уроке знаний: мало новых сведений так же плохо, как и слишком много нового. С другой стороны, абсолютно ясна проблема обучения детей в группе: каждый ребенок обладает различными усвоенными знаниями, а следовательно, каждый на одном и том же уроке получит различное количество информации: средний ученик — нормальное для усвоения количество, слабый — чересчур много, то есть ничего, и ничего не усвоит, а сильный, наоборот, очень мало или почти ничего (он уже все это и так знает).

Еще одно важное свойство информации — это то, что она (информация) не подчиняется привычным нам законам сохранения. Известна старая педагогическая байка. Учительница задает задачу Васе. «Вася, у тебя было три яблока. Одно яблоко ты отдал Маше. Сколько яблок у тебя осталось?» Вася отвечает — «Три». Учительница просит подумать, но ответ Васи опять — «три». И так несколько раз. «Ну почему же три?» — спрашивает учительница. «А я Маше яблоко не дам» — заявляет Вася.

Для материальных объектов действует закон сохранения: если отдаёте, то у Вас убывает, а если получаете, то у Вас прибывает. Для информации этот закон не применим. Тот, кто отдает информацию, её не теряет, а у того, кто её получает (воспринимает), ее количество увеличивается. На этом свойстве основана вся система обучения, и на этом же свойстве информации возникла проблема авторского права. По существу, авторское право — право на информацию, которую нельзя украсть так, как после того, как ею (информацией) «завладеет» кто-то другой, она у первоначального владельца все равно остается.

Это свойство информации неразрывно связано с философским вопросом: «Материальна ли информация?». Не вдаваясь в долгие споры по этому вопросу [42], следует сказать, что в настоящее время наиболее справедливым является ответ: Носитель информации всегда материален, а что из себя представляет информация без носителя — пока неизвестно. Информацию в чистом виде, то есть без материального носителя науке пока выделить не удалось.

И еще об одном чрезвычайно важном свойстве информации. Это свойство определяется как информационная энтропия. Термин «энтропия» заимствован из термодинамики (XIX век) и статистической физики (XX век) и связан с хаотичностью движения молекул в материальных телах. Доказано, что термодинамическая энтропия в замкнутых системах возрастает и это ведет к «тепловой смерти». Если Вселенную рассматривать как замкнутую систему, то согласно второму закону термодинамики для неё рано или позже должна наступить «тепловая смерть». Понятие информационной энтропии возникло по аналогии с термодинамической энтропией и означает меру внутренней неупорядоченности информационной системы. Возрастание информационной энтропии сопряжено с нарастанием хаоса и также ведет к смерти Вселенной. Вместе с тем, информационная энтропия будет тем меньше, чем больше упорядоченность информационных ресурсов в системе, она уменьшается при упорядочении информационных потоков и систематизации информации, то есть получении и накоплении знаний. Замечено, что основное свойство всего живого вещества — создавать и поддерживать свою упорядоченную структуру, по существу антиэнтропийно, то есть снижающее энтропию. Очевидно, что процесс человеческого познания, сопряженный с познанием окружающего мира, накоплением знаний, их упорядочением и систематизацией также снижает информационную энтропию. Человек, по существу, своею познавательною деятельностью создает отрицательную энтропию (негэнтропию). При таком подходе информация принимается в качестве меры порядка Вселенной, а весь познавательный процесс, неразрывно связанный с получением информации, служит инструментом упорядочения различных хаотических потоков во Вселенной. Таким образом, роль познавательных процессов (с точки зрения современной философии и информатики), осуществляемых человеком, выходит далеко за рамки решения частных задач человеческого общества и принимает вселенски значимые масштабы.

  • [1] Берталанфи (Bertalanffy) Людвиг фон (1901-1972), биолог-теоретик, создатель «общей теории систем».
  • [2] Шеннон (Shannon) Клод Элвуд (1916-2001), американский учёный, математик и инженер, один из создателей математической теории информации.
 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ ОРИГИНАЛ   След >