вівторок, 28 березня 2017 р.

Історія розвитку теорії інформації




 Історія розвитку теорії інформації  Методологічні засади теорії інформації  Будова повідомлення  Концепції теорії інформації  Кодування інформації  Передача інформації  Носії інформації. Текст та інші носії інформації в ЗМК  Висновок.  Список використаної літератури. 1. Історія розвитку теорії інформації. Як ми зазначали у першій лекції, існує два якісно різних види інформації — докібернетична і кібернетична. Підставою для цієї теорії служить твердження про різницю інформативної природи живої та неживої матерії. Докібернетичний період. 




Згідно з гіпотезою американського дослідника історії походження мови Г. Хьюза, запропонованій у 1973 р., звуковій мові людей передувала мова жестів, яка почала спонтанно виникати 3 млн. років до н. е. Потім мова жестів стала доповнюватися мовою 20…40 звуків. Лише за 100 тис. років до н. е. мова звуків остаточно витіснила мову жестів. Посилено розвиватися звукова мова почала лише останні 100…40 тис. років до н. е. Першим підтвердженням цієї гіпотези служить те, що мови жестів мавп (шимпанзе використовують 200 жестів, а горили — 1000) і дітей у домовний – «сенсомоторний» – період збігаються. Друге підтвердження гіпотези було отримано експериментально. Так, коли мавпу навчали мові жестів людини (її навчали так, як навчають глухоніму людину), вона засвоювала близько 500 слів і досягала рівня розвитку п’ятирічної дитини. Мавпа спілкувалася цією мовою з людьми й іншими родичами-мавпами. При цьому мавпа навіть уміла робити узагальнення (на зразок: цитрина й мандарин — цитрусові) та ще й лаятися (так, знаючи слово „сміття”, мавпа вилаяла чоловіка, який роздратував її: «You are a rubbish person» («Ти — сміттєвий (тобто «брудний») чоловік»). Писемну мову фіксували на камені, вузликами, на корі, на шкірі тощо. У найдавніші часи людська пам'ять була єдиним засобом збереження й передачі суспільного досвіду, інформації про події й людей. Історія знає безписемні цивілізації, де величезна кількість необхідної інформації запам'ятовувалася жерцями чи законниками, а на далекі відстані посилалися «живі листи» - гінці. Відомі розповіді мандрівників про племена, у яких старійшини раз у рік вели юнаків у джунглі чи в пустелю, і там із вуст у вуста передавали їм весь досвід племені, що мав був ними засвоєний («чоловіча таємниця»). Правда, досвід цей був досить примітивний, і первісні педагоги для кращого запам'ятовування супроводжували його засвоєння ритмічними танцями й співом. Так було протягом сотень століть. Якщо перегорнути історію світової літератури, то виявиться, що всі народи так чи інакше пройшли період «усної книги» перш, ніж почали фіксувати інформацію на якомусь матеріалі. Так, поеми «Іліада» і «Одиссея», в яких було втілено весь духовний і матеріальний світ древньої людини, включаючи, наприклад, військову тактику, технологію виготовлення бронзової зброї, вперше були записані в Афінах близько 510 р. до н.е. після того, як вони протягом століть поширювалися усно. Аеди та рапсоди співали їх на народних святах. Запам'ятовувати багатотисячні рядки було важко, і розповідачі використовували стрічечки чи вузлики, що допомагали їм. В індіанців Південної Америки це називалося квіпу (кіпу) – вузликове письмо. Подібним до нього було мушлеве письмо північноамериканських індійців. Носіями ідей і понять у мушлевому письмі і вузликовому служать колір, форма, взаємне розташування й кількість ниток, вузлів і мушлів. Вузликове письмо відноситься до так званого умовного чи речового письма, під яким мається на увазі спілкування людей за допомогою різних предметів. З розширенням кругозору древньої людини й ускладненням його діяльності, у людської пам'яті з'явилися інші помічники: різного роду зарубки, вузлики, нарешті, малюнки. Дослідники знаходять у печерах і на скелях зображення, зроблені рукою первісної людини, які зафіксували його знання про навколишній світ, життя та природу. Це були перші спроби передачі в малюнку певної інформації. Так, в Ірані на скелі Бегістун над караванним шляхом зображена картина: перський цар у короні, над ним розпростер крила бог Ормузд, у ніг царя тягнуться колони полонених із мотузками на шиях. Так було зображено перемогу Дарія I над заколотниками у 521 р. до н.е. Цар повелів висікти це над караванним шляхом для того, щоб каравани рознесли звістку про його перемогу по усьому світу. Це один із найяскравіших зразків піктографічного письма. В піктографічному (від лат. pictus – мальований та grapho – пишу) письмі інформація передається за допомогою зображень (малюнків) людей і предметів. Це письмо було широке поширене у народів Північної Америки, Західної Африки, Півночі СРСР. Для піктографії не потрібна абетка, потрібно лише досить схоже зображувати предмети та ситуації (людину, човен, полювання). Етап малюнково-смислових комбінацій пройшли мови багатьох найдавніших народів (шумери, єгиптяни, китайці, індіанці, майя), перш ніж знайшли писемність. Сьогодні піктографія існує, бо певна частина інформації передається засобами малюнкової символіки. Герби держав, міст, товариств, виробничі емблеми, рекламні та дорожні знаки, релігійні та наукові символи - усе це піктографія, що діє за принципом: один образ, одна думка. Так, якщо на вікні магазину зображено черевики – там продають чи ремонтують взуття. Деякі піктограми розраховані на іноземців, які не знають мови: якщо біля кнопки дзвінка зображено фігурку офіціанта – виклик офіціанта тощо. З часом у рабовласницькому суспільстві з його розвинутою політичною ієрархією, технікою обробки землі, ремісничим виробництвом піктографічне письмо вже не задовольняло потреби культури. Воно поступово трансформувалося в ідеографічне письмо, в якому кожен знак виражав окремі поняття й ідеї або міг розвивати, пояснювати зміст інших знаків. В ідеографічному письмі інформація передається за допомогою поєднання символів (ідеограм), кожний з яких позначає певне поняття чи слово. Ідеографічне письмо — це складна й розвинута система писемності, що виникла в державах стародавнього Сходу. Найвідомішими були: єгипетське письмо, шумерський й ассиро-вавилонський клинопис, хетські ієрогліфи, письмо ацтеків та майя. До ідеографічної системи письма належить китайська і японська ієрогліфічна писемність. У Шумері, Вавилоні, Ассирії писали тригранними гострими паличками на сирій глині. Кожен штрих був схожий на маленький цвях чи кілочок. Тому і писемність цих народів називається клинописом. Для того, щоб ідеографічне письмо було ефективним засобом передачі інформації, кожній його морфемі має відповідати індивідуальний письмовий знак. Досить легко вирішувалося питання з конкретними поняттями, які мали конкретні риси – гора, сонце, луна, людина тощо. Складності були при передачі абстрактних понять. Мистецтво письма, як і вся давня система знань Сходу, знаходилася в руках жерців. Недарма слово «ієрогліф» означає «різьблення жерців». Щоб стати освіченою людиною, потрібно було знати кілька сотень, а то й тисяч ієрогліфів, і грамоті вчилися багато років. З часом, із розвитком цивілізації та секуляризації культури ієрогліфічне письмо змінилося, відбулося спрощення знаків - «графем», що привело до створення демотичного (народного) письма, у якому кількість графем значно скоротилася. Знайдений у Єгипті в 1799 р. «Розетський камінь» із написом на честь царя Птоломея і його дружини Клеопатри дозволив французькому історикові Ф.Шампольону встановити, що текст, висічений єгипетськими ієрогліфічними та грецькими письменами, містив буквені знаки, що являли собою вже не окремі графеми, а єдиний алфавіт. У 1929 р. при розкопках зниклого в XIII ст. до н.е. древнього міста Угарит були знайдені рештки клинописного алфавіту з 22 знаків, що позначають окремі букви. Сам винахід угаритської писемності датується істориками XIV ст. до н.е. Це найперший відомий нам буквений алфавіт. Егейські племена, що знищили Угарит, запозичили ідею алфавіту і передали її кріто-мікенцям та грекам. На основі давньоєгипетського демотичного письма, універсального у вживанні, виник у X ст. до н.е. давньогрецький алфавіт, що став родоначальником усіх алфавітів світу. Від племен Ханаана, що були своєрідним центром цивілізацій (у їх копальнях страждали раби майже всіх національностей Близького Сходу, і на стінах збереглися надряпані письмена різноманітних систем), алфавіт при посередництві загальсемітської мови (арамейської) поширився на Аравійському півострові, де і виник більш простий і універсальний арабський алфавіт, яким і понині користуються араби. Алфавітне письмо виникло близько XII ст. до н.е. у Фінікії — торговельній рабовласницькій державі стародавнього Сходу, розвиток морської торгівлі та господарства якої поставив питання про створення писемності, якою можливо оволодіти в мінімальні терміни. Створенню алфавіту Фінікії передував, поза сумнівом, тривалий етап еволюції й взаємодії різних систем письма, окремі елементи якого увійшли до алфавіту Фінікії - єгипетських ієрогліфів (серед яких були й алфавітні знаки), клинопису Ассирії, складового кіпрського й крито-мікенського письма. Використавши окремі алфавітні знаки цих систем письма, фінікійці створили алфавітне письмо з 22 простих знаків. З алфавіту Фінікії з часом (VII ст. до н.е.) склався арамейський алфавіт, який не тільки сприяв створенню у сусідніх народів самостійних алфавітів: сірійський, староєврейський, арабський та ін., але й, тріумфально перетнувши гори й пустелі, з'явився на просторах Монголії й Маньчжурії, народи яких вирішили скористатися саме ним, відкинувши більш близькі китайські ієрогліфи. Від цього ж кореня походять, як припускають, і всі індійські алфавіти. Особливістю вимови в семітських мовах є відсутність голосних. Усі голосні в них замінялися одним «алеф». При переході алфавіту до народів, які мали повноголосся, для голосних звуків винаходилися спеціальні букви. В X ст. до н.е. алфавітне письмо з Фінікії було перенесено до Греції. Греки пристосували алфавіт Фінікії до звуків своєї мови та додали до нього кілька нових букв для передачі голосних. У VI ст. до н.е. через етрусків західногрецька система письма стала основою для створення латинського алфавіту. Давньогрецька, етруська, латинська мови мали вже алфавіти з 24 букв. У язичницькі часи слов'яни мали письмо, що отримало назву «черты и резы». Про це відомо з «Оповіді про письмена слов'янські», складеного в X ст. болгарським ученим ченцем Храбром, а також із цілого ряду свідоцтв арабських мандрівників X—XI ст. (Ібн-Ель-Неддіма, Аль-Массуді та ін.). У тексті договору Олега 911—912 рр. з греками вказується, що давня «дружба» між християнами-греками і язичницькою Руссю «неодноразово» була підтверджена «не тільки словом, але і писанням». Тому ми можемо сміливо припустити, що слов’яни тих часів (VI-VII ст. н. е.) уже мали певну форму писемності. З історичних джерел відомо про існування на слов'янській території двох слов'янських азбук — кирилиці й глаголиці. По накресленню літер глаголиця - більш складне письмо, ніж кирилиця і, як вважають вчені, більш давнє алфавітне письмо слов'ян, що виникло саме з оригінальних «черт и резов». Згодом, із прийняттям християнства, слов'яни почали використовувати для передачі звуків своєї мови букви латинського й грецького алфавітів. Проте за допомогою латинських і грецьких букв було досить складно, а то і неможливо передати більшість із слов'янських звуків, наприклад, шиплячі приголосні (ш, щ, ч), носові голосні («ять») тощо. Удосконалене слов'янське алфавітне письмо з'явилося в середині IX ст. Його творцями вважаються два грецьких ченці Кирило й Мефодій, які займалися розповсюдженням християнства в Моравії. Є підстави припускати, що Кирило і його брат скористалися для створення нового, більш зручного алфавіту, буквами глаголиці для позначення слов'янських звуків, відсутніх у грецькій мові (ж, ч, ш, у, ъ та ін.). В цілому ж, кирилиця близька по накресленню літер до букв грецького алфавітного письма. Як письмо достатньо просте й зручне, кирилиця незабаром скрізь витіснила глаголицю, що подекуди збереглася у слов'ян Далмації. Протягом усієї історії людства різні системи закріплення інформації на письмі співіснували і, розвиваючись, взаємно впливали одне на одне. Сьогодні народи світу вживають близько 8000 алфавітів та їх варіантів, пристосованих до різних мов і діалектів. Найрозповсюдженими вважаються алфавіти на латинській основі (26 букв). Вносяться різні пропозиції щодо створення всесвітнього алфавіту (есперанто). Дослідження інформації розпочалося з виникнення телеграфу й дослідження проблем передачі повідомлень у ньому. Сучасна теорія інформації виникла на основі математичної теорії зв’язку. Мандруючи в 1832 р. через океан, Самюель Морзе розпочав створення першого телеграфного апарата. У першому варіанті на паперову стрічку виводились крапки й тире, які позначали слова із заздалегідь складеної таблиці дозволених для передачі слів (1837 р.). Це був однополюсний телеграф (струм є або нема). У 1839 р. Морзе у сумісній роботі з Альфредом Вайлем відмовився від цього методу й запропонував той спосіб, який тепер називають азбукою Морзе. Тут букви позначають крапками, тире й паузами між ними (тире дорівнює тривалості трьох крапок). Пауза позначалася відсутністю струму, а крапки й тире — короткими й довгими імпульсами струму. Коди літер були нерівновеликі, тобто чим частішою була літера, тим коротшим був її код (це вело до скорочення часу передачі повідомлень). Частоти визначалися на основі кількості літер у набірних касах. У 1843 р. уряд США прийняв рішення про встановлення телеграфного зв’язку між Вашингтоном і Балтимором. Виявилося, що прокладання кабелю під землею та під водою веде до того, що сигнали можуть зливатися чи змінюватися (наприклад, крапка — на тире). Тому для прокладання було обрано стовпи, на які підвішували кабель. На кабель, як виявилося, впливає магнітне поле Землі, яке викликає в ньому певні „паразитні” струми. Такі струми було пізніше названо шумами. Пізніше телеграф удосконалили, а саме — його зробили двохполюсним: струму нема, стум іде в одному напрямі або в протилежному напрямі. У 1855 р. особливості передачі сигналів розрахував Вільям Томсон (лорд Кельвін). У 1874 р. Томас Едісон використав не тільки два різні напрями струму, а й додав до кожного напряму два різні значення. Але це вело до того, що ці значення стало важче розрізняти. Нова хвиля досліджень розпочалася після винаходу в 1875 р. Олександром Грехемом Беллом телефону. Великий вклад у проблему передачі сигналів зробив відомий математик Жозеф Фур’є, який запропонував математичний апарат для дослідження накладання сигналів один на одного (враховувалася амплітуда коливань, їх частота). Крім нього, проблемами передачі сигналів каналами електричного зв’язку займалися також відомі математики Анрі Пуанкаре, а також американський математик Гаррі Найквіст (у 1924 р. опублікував одну з базових статей, де показав, як залежить швидкість передачі від кількості значень у сигналі). Найквіст також встановив, як правильно визначити максимально можливу швидкість передачі сигналів по каналу за 1 с.; він вказав, як правильно одночасно передавати по одному каналу і телеграфні повідомлення, і телефонні розмови; вказав, як залежить швидкість передачі від ширини діапазону використовуваних частот; вказав на наявну надлишкову складову в сигналі. У 1928 р. американський дослідник Хартлі опублікував роботу „Передача інформації”. Він першим показав, що кількість інформації в повідомленні H дорівнює H = n log2 s, де n — кількість вибраних символів, а s — кількість різних символів у наборі, з яких роблять вибір. Ця формула справедлива тоді, якщо вибір символів рівноімовірний. Під час ІІ світової війни роботи в ділянці передачі інформації було перервано. Але з’явилася нова група задач: як по електричному сигналу від радіолокатора визначити, в якій точці через певний час буде літак, що зараз має якісь певні координати? Цю задачу вирішили російський математик А. Колмогоров і Н. Вінер (автор книги „Кібернетика”, 1948 р.). Кібернетичний період. Етап класичної імовірнісної теорії інформації К. Шеннона. У час війни проблемою передачі інформації зайнявся ще один відомий математик — Клод Шеннон. Він займався дослідженням того, якого типу сигнали потрібно посилати, щоби краще передати повідомлення певного типу по заданому каналу з шумами. Таким чином, було поставлено проблему ефективного кодування й надійного отримання повідомлення. Так виникла класична (імовірнісна) теорія інформації. У повному викладі основні положення цієї теорії було опубліковано в 1948 р. у двох статтях. Основні постулати теорії Шеннона такі. Повідомлення (точніше, їх коди) надходять з джерела інформації через канал зв’язку до приймача інформації. Ці повідомлення змінюють систему знань (тезаурус) приймача, зменшують рівень його розмаїття, невизначеності, який вимірюється ентропією. Ентропія системи повідомлень визначається їх вірогідностями як середнє значення логарифмів величин, які є зворотними до цих вірогідностей. Виміряти середню кількість інформації можна по зменшенню ентропії сприймача у результаті зміни його уявлень. До речі, звідси й приходить одиниця виміру інформації. Вона визначається кількістю інформації про те, яка з двох однаково вірогідних подій реалізувалася і називається “біт” (початок і кінець англійського словосполучення binary digit (бінарний розряд). Теорія інформації знайшла розвиток у кібернетиці. Саме за допомогою теорії інформації вдалося науково довести загальновідомий принцип кібернетики про те, що розмаїття системи управління має бути не нижче розмаїття об’єкта, який керується цією системою. Етап виникнення алгоритмічної та семантичної концепцій теорії інформації (А. Колмогорова, Р. Карнапа й І. Бар-Хіллела). Як виявилося, теорія інформації К. Шеннона фактично стосувалася лише передачі сигналів у технічних каналах зв’язку, а тому до другого значення слова інформація („знання”) вона мала доволі опосередковане відношення. Тому науковці вели дослідження для подолання вказаного недоліку. Результатом цих досліджень стало виникнення ще двох концепцій теорії інформації. Перша з цих двох концепцій була опублікована в 1953 р. дослідниками Р. Карнапом та І. Бар-Хіллелом. Ця концепція була названа семантичною, оскільки передбачала визначення кількості інформації у твердженнях — конструкціях математичної логіки. Друга концепція була опублікована в 1965 р. відомим російським математиком А. Колмогоровим. Вона отримала назву алгоритмічної, оскільки передбачала визначення кількості інформації на основі програми (і, відповідно, алгоритму), яка перетворює один об’єкт в інший. Етап застосування теорії інформації в різних галузях науки й мистецтва. У період 50–70-х років почалося широке застосування класичної теорії інформації в найрізноманітніших галузях науки й техніки. Якщо застосування класичної теорії інформації в техніці давало позитивні результати, то застосування її в науці (наприклад, лінгвістиці, психології, мистецтві тощо), як правило, давало негативні результати, оскільки не враховувалося основне — значення знаків (наприклад, слів). Результатом стало те, що сам автор імовірнісної теорії інформації К. Шеннон назвав роботи із застосування створеної ним концепції теорії інформації до мови, психіки людини, творів мистецтва — необґрунтованим, а дослідників, які намагалися це зробити — „бандвагоном”. Етап застосування теорії інформації в кібернетиці й промисловості (зв’язку). З 80-х років 20-го ст. починає широко розвиватися комп’ютерна (цифрова) мережа каналів зв’язку. На якісно новий рівень виходять канали телефонного зв’язку (вони також стають цифровими). Все це дає широке поле для застосування класичної теорії інформації К. Шеннона в техніці. Новітні концепції теорії інформації. Незважаючи на широке застосування класичної теорії інформації, проблема інформації як знань залишається невирішеною. Тому науковці продовжують свої дослідження. У цьому напрямі йде ціла низка досліджень, виконаних на основі алгоритмічної теорії інформації. 2. Методологічні засади теорії інформації. На сучасному етапі теорія інформації містить такі розділи як: аксіоматична база; принципи вимірювання кількості інформації; кодування інформації; передача інформації. Інформація пов’язана з процесами керування в кібернетичних системах. Найперше вкажемо, що інформація є лише там, де є процеси керування, а, отже, керуючі системи. Там, де керуючих систем нема (наприклад, у неживій природі), інформації не існує. Тому відбиток коліс автомобіля на ґрунтовій дорозі — це лише відображення, але не інформація (інформацією цей відбиток може бути лише для керуючих систем — живих істот, комп’ютерів тощо). Кібернетична система містить: керуючу підсистему й керовану підсистему. Керуюча підсистема передає керованій підсистемі певну інформацію, що реалізується у вигляді сигналу чи їх ланцюжків (повідомлення). Керована підсистема здійснює зворотний зв’язок, надсилаючи керованій підсистемі свою реакцію — інформацію (повідомлення) про свій стан (змінений чи такий, що й був до передачі інформації керуючою підсистемою). Відповідно, керуюча підсистема повинна враховувати інформацію, надіслану в зворотному зв’язку, й при потребі повинна вносити зміни в ті сигнали, що надсилаються керованій підсистемі. Кібернетична система містить: пристрої для збору інформації; пристрої для кодування/декодування інформації; пристрої для передачі інформації; пам’ять для зберігання інформації. Виділяють так основні види керуючих систем: механічні; електричні; електронні (комп’ютерні); біологічні (в тому числі людина); соціальні. Класична схема передачі повідомлення. Джерело інформації — безпосередньо генерує інформацію. Джерелом інформації може, наприклад, бути: людина, точніше — її мозок; комп’ютер космічного корабля, що посилає сигнали з поверхні Місяця; комп’ютер, що автоматично генерує листи-відповіді на серверах електронної пошти тощо. Передавачем інформації можуть бути органи мовлення людини (голосові зв’язки, ротова й носова порожнини, язик, зуби, губи тощо). Передавач інформації виконує функцію кодування інформації (перетворює інформацію в коливання повітря) й передає її в канал зв’язку. Передача інформації відбувається у формі окремих сигналів. Сигнал — це зміна стану речовини чи поля, що передається на певну віддаль. Сигнал може бути електричний, хімічний, механічний, аудіальний, візуальний, гравітаційний тощо. У порівняно простих кібернетичних системах ланцюжки сигналів безпосередньо утворюють повідомлення, а в складніших — об’єднуватися в образи, з яких складаються повідомлення. Образ — це множина вхідних сигналів, що відображають один фрагмент світу й записані в сенсорну пам’ять скануючого пристрою кібернетичної системи. Канал передачі інформації — це речовина або поле, які під впливом зовнішніх факторів можуть змінювати свої фізичні властивості в часі чи просторі. Канал зв’язку має вхід і вихід. У каналі зв’язку на сигнал впливають шуми, які частково спотворюють цей сигнал. Тому отримувач інформації може отримати не той сигнал, який передало джерело інформації. Приймач інформації виконує такі функції: отримує повідомлення, для чого потрібні певні запам’ятовуючі пристрої для нагромадження сигналів, та проводить її розкодування (наприклад, перетворює коливанням повітря в певні біофізичні сигнали, присвоює їм певні звуки мови, а звукам — слова тощо). Приймачем інформації в людини є, наприклад, органи слуху, зору, нюху, смаку, тактильні аналізатори. Отримувач, одержавши розкодоване повідомлення (слова), зіставляє сигнали з наявними у нього образами, групує ці образи й у такий спосіб отримує з них певну інформацію. У людини отримувачем інформації є мозок. Аксіоми, закони, визначення й одиниці вимірювання інформації. Аксіоми. Аксіоматична база сучасної теорії інформації поки що несформована. Річ у тім, що кожна її концепція може висунути свою множину таких аксіом. Проте, незважаючи на різні підходи до формування такої аксіоматичної бази, можна було б, на нашу думку, сформулювати такі аксіоми, що не залежать від різних концепцій. Аксіома 1: інформація має ідеальний характер. Проілюструвати цю аксіому можна в такий спосіб. Колись відомий письменник Б. Шоу наводив такий приклад: коли в когось є яблуко, й він передає його іншому, то після цього яблука в нього вже немає; коли в когось є якась думка [тобто інформація], й він повідомляє її іншому, то після цього ця інформація є вже у двох. Від себе додамо, цю думку можна повідомити не одному, а безконечній кількості отримувачів інформації. Якби інформація була матеріальним об’єктом, як яблуко, її можна було б передати лише одній людині; той факт, що інформацію можна передати безконечну кількість разів, підтверджує, що інформація має ідеальний характер. Аксіома 2: інформації зберігається і передається тільки на матеріальному носії. У наш час інформація передається або на матеріальних носіях (раніше — на камені, корі, вузликами тощо; зараз — на папері, дисках тощо) або коливаннями поля (електромагнітного, гравітаційного тощо). Наприклад, одна людина передає інформацію іншій у разі використання усної природної мови за допомогою коливань повітря. Іншого способу людство не виявило. Аксіома 3: інформація існує тільки в кібернетичних системах. Якщо немає процесу керування, а, отже, кібернетичної системи, то інформації не існує. Наприклад, сам по собі відбиток шини автомобіля на розмитій польовій дорозі є лише відображенням, а не інформацією. Інформацією це відображення може стати лише тоді, коли його сприйматиме якась кібернетична система, наприклад людина. Це зовсім не заперечує того, що в неживій природі не передається інформація, як наприклад, у різних видах механічних систем, тих же ж двигунах. Аксіома 4: чим менша імовірність якоїсь явища, тим більше інформації воно несе, і навпаки. Розглянемо два повідомлення: 1) громадянин N прокинувся о восьмій годині ранку й побачив поруч зі собою будильник; 2) громадянин N прокинувся о восьмій годині ранку й побачив поруч зі собою слона. Інтуїтивно зрозуміло, що друге повідомлення несе значно більше інформації, ніж перше, оскільки імовірність його появи вкрай мала. Ця аксіома лежить в основі такого добре відомого правила працівників ЗМІ, які всі найбільш сенсаційні події виносять або на початок передач, або на першу сторінку видань. Хоча описані нижче концепції теорії інформації базуються на зовсім різних принципах вимірювання кількості інформації в повідомленнях, проте всі вони враховують закономірність, сформульовану у четвертій аксіомі теорії інформації, вказаній вище. Закони. Закон 1: на отримання інформації кібернетична система повинна затратити певну кількість енергії. Для отримання інформації слід витрачати енергію, кількість якої для кожної керуючої системи є обмеженою. Так, за наявними даними, для отримання одного біта інформації теоретично потрібно затратити 0,693 kT дж енергії (на практиці ці затрати завжди значно більші) . Якби керуючі системи мали або надзвичайно довгі за місцем у пам’яті (як екстремум — безконечні) або довготривалі в часі (як екстремум — безконечні) програми розпізнавання, то вони або не змогли б функціонувати, або завжди опинялись би в стані поразки, що визначає саму можливість їх функціонування. У біологічних системах цьому протидіє інстинкт самозбереження. Сформульований принцип не заперечує того, що в різних системах програми розпізнавання одного й того ж образу можуть мати відмінні довжину та час виконання. Закон 2: будь-яка інформація впливає на її отримувача. Вплив може реалізуватися різними шляхами: а) шляхом запам’ятовування інформації і її використання у наступних діях кібернетичної системи в тому випадку, коли ця інформація стає цінною щодо життєдіяльності системи; б) шляхом забування цієї інформації (стирання з пам’яті). Якщо інформація не впливає в даний момент на отримувача, то вона обов’язково вплине тоді, коли виникне ситуація її недостатності (про недостатність див. нижче). Визначення інформації. Традиційно під інформацією (від латинського informatio — роз’яснення, виклад, обізнаність) розуміють “одне з найзагальніших понять науки, яке означає певні відомості, сукупність якихось даних, знань і т. ін.” Проте очевидно, що таке визначення не можна сприймати як наукове, оскільки воно містить явну логічну помилку (визначення невідомого через невідоме), визначення інформації через відомості, дані, знання, що також вимагають визначень (пов’язані з цим помилки див. у будь-яких тлумачних словниках). Даючи визначення інформації, найперше потрібно враховувати, що воно повинно охоплювати всі можливі типи кібернетичних систем. Тому запропонуємо визначення цього терміна, а далі перевіримо його на низці прикладів із різними кібернетичними системами — від найпримітивніших (механічних) до найскладніших (людини). Отже, враховуючи пов’язаність інформації з поняттям знятої невизначеності (ентропії), дамо їй таку дефініцію: інформація — це знята невизначеність, яку кібернетична система у своїй пам’яті декодує та зберігає. Тут невизначеність — це стан, коли кібернетична система повинна отримати інформацію (сигнал), але час його надходження або його зміст в цей момент часу є невідомими. Перевіримо це на прикладі з механічною системою (наприклад, паровий двигун). Справді, в керованій підсистемі приймач інформації перебуває в стані невизначеності й очікує надходження сигналу, що несе лише один біт інформації. Після надходження певного сигналу інформація про нього передається в керовану підсистему, невизначеність приймача зникає, і він знову переходить у стан невизначеності до моменту надходження нового сигналу. При цьому інформація зберігається в пам’яті підсистеми лише на час передачі інформації (після передачі інформації вона стирається). Отже, такі системи мають лише короткочасову пам’ять, в якій сигнал запам’ятовується лише на час передачі інформації. Складніші типи систем (наприклад, клітини, електронні мікросхеми — чіпи) можуть отримувати не тільки один конкретний сигнал, а й цілі їх ланцюжки (значно більшу, ніж біт кількість інформації — десятки чи сотні біт інформації). При цьому, оскільки такі системи вже володіють довгочасовою пам’яттю, то така невизначеність вже відображається, тобто з короткочасової може передаватися в довгочасову пам’ять. Тому стосовно таких систем можна вже говорити, що для них знята невизначеність (сигнал, що несе лише один біт інформації) фактично є групою сигналів, тобто відображеною різноманітністю. Отже, можна сказати, що для такого типу систем інформація — це відображена різноманітність, яку кібернетична система в своїй пам’яті декодує та зберігає. Ще складніші типи систем (наприклад, сучасні комп’ютери, біологічні системи — тварини, люди) можуть сприймати й опрацьовувати не тільки групи сигналів, а й цілі їх комплекси. Для таких систем сигналами (відображеною різноманітністю) стають образи, що містять уже тисячі, десятки чи сотні тисяч біт інформації. Такі сигнали (образи) опрацьовуються в спеціальному підвиді короткочасової пам’яті — сенсорній вже за зовсім іншим принципом (наприклад, як у нейрокомп’ютерах). При цьому процедура декодування сигналу перетворюється в значно складнішу процедуру — розпізнавання образу. Отже, для складних типів систем інформація — це відображені образи, які кібернетична система в своїй пам’яті розпізнала та зберігає. Звертаємо тут увагу на дві особливості. Перша та, що нерозпізнані образи інформацією не є (вони залишаються лише тлом (фоном) в органах сприйняття системи). Друга особливість та, що не всі образи мусять бути відображеними. Річ у тім, що складні системи, як наприклад людина, можуть самогенерувати образи, які можуть і не бути відображенням реального світу (наприклад, людини в стані галюцинацій може генерувати такі образи). Очевидно, що такі образи також несуть певну інформацію. Повертаючись до поданого вище псевдовизначення інформації як відомостей, даних, знань тощо, тепер можна сказати, що в отриманій інтерпретації (інформація як образ) вона вже збігається з поданим псевдовизначенням. Справді, відомості, дані й знання можна передати за допомогою ланцюжків образів, якими є, наприклад, знаки, хоча б ті ж лінгвістичні — слова. У наш час теорія інформації в основному займається тим значенням, яке базується на понятті „знята невизначеність”. На друге значення цього терміну („відомості, знання”) спрямовано багато сучасних досліджень, проте вагомих результатів у цьому напрямі поки що немає. Запропонований вище підхід може бути одним з можливих підходів до розв’язання цієї проблеми. Одиниці вимірювання кількості інформації. У літературі вказують, що одиницею вимірювання інформації є біт. При цьому йому дають таке визначення: біт — це кількість інформації, яку отримує кібернетична система на запитання, що передбачає лише два можливі варіанти відповіді [так (1) або ні (0)]. Типовим прикладом може служити запитання: “Ви вмієте їздити автомобілем”. Варіантів відповіді може бути лише два: так (1) або ні (0). У наш час в електроніці біти об’єднують у байти — елементи з восьми бітів, що зроблено суто з практичних міркувань, хоча кількість бітів у байтах може бути й зовсім іншою. Інші одиниці: кілобайти, мегабайти, гігабайти, терабайти. 3. Будова повідомлення Повідомлення — це ланцюжок сигналів визначеної довжини, що позначають (кодують) певну інформацію. Структуру повідомлення M можна записати як множину сигналів: M = Oi, де Oi — сигнал, а i — його порядковий номер (i = 0, 1, 2, 3 … n). Для випадку, коли i = 0, маємо порожнє повідомлення. Образи повідомлення можуть певним чином об’єднуватися й утворювати групи — слова, речення тощо. При потребі сигнали можуть об’єднувати в певні групи (наприклад, у байти — по 8 бітів). Такий метод використовують у комп’ютерній техніці. Структура незнакового повідомлення. Незнакова інформація не має конвенціонального характеру. Її структура відповідає тій, що вказана вище, тобто: M = Oi, Прикладом може служити генетична інформація, що передається певними видами клітин. Структура знакового (вербального) повідомлення з позиції логіки. Знакова інформація завжди є конвенціональною, тобто такою, що передбачає угоду між передавачем і приймачем інформації про способи позначення фрагментів світу певними кодовими образами. У структурі повідомлення доцільно виділити три рівні: слів (з позиції логіки — знаків, що позначають поняття), речень (простих без однорідних членів; з позиції логіки — тверджень) та сюжету (з позиції мови — надфразних єдностей, блоків, дискурсу; з позиції логіки — безпосередніх виводів, силогізмів, полісилогізмів). Таке виділення повністю відповідає рівням логічного аналізу тексту, де також виділяють три рівні (понять, тверджень та висновків). Для порівняння вкажемо, що з позицій лінгвістики в повідомленні виділяють вісім рівнів: фонем (літер), морфем, слів, словосполучень, речень, надфразних єдностей, блоків та дискурсу. Проте така ієрархія поки що не може бути використана для потреб теорії інформації, оскільки є надто складною. Кожне слово як будь-який вербальний знак включає чотири компоненти: 1) кодовий образ (код) номена — ланцюжок літер чи звуків; 2) еталонний образ фрагмента світу, тобто значення цього номена; 3) відображений образ фрагмента світу, тобто об’єкта чи їх групи, ознаки, процесу, відношення, часу, місця, кількості і т. д.; 4) посилання на фрагмент світу. Приклад. Скажімо, в українській письмовій мові існує номен, що має такий кодовий образ (код): [я, б, л, у, к, о]. Цей кодовий образ позначає об’єкт фрагмента світу, наприклад, якесь конкретне яблуко. Відображеним образом цього номена може бути “фотографія” такого конкретного яблука, що з’являється в пам’яті керуючої системи в момент сприймання номена. Еталонним образом цього номена буде зображення типового яблука (наприклад, зображення яблука в ілюстрованому словнику). На основі еталонного образу керуюча система може розпізнати відображений образ конкретного яблука на “фотографії”, що є в пам’яті системи. Приклад. Припустімо, існує злочинець Іваненко. Тоді фрагментом світу є сам Іваненко, кодовим образом — літери [І, в, а, н, е, н, к, о], відображеним образом — фотографія Іваненка, а еталонним образом — його фоторобот. Зовнішня структура слова визначається тим, у які відношення вступає кожне конкретне слово з іншими словами. Ці відношення задають такі словники, які називають тезаурусами. За однією з моделей структури тезауруси мають ієрархічну будову. На найвищому рівні такого словника (залежно від світогляду укладача) може стояти, наприклад, слово “Бог” чи “матерія”. Далі всі слова можуть бути поділені на назви: об’єктів, ознак, процесів, відношень, одиниць часу, місць, кількостей і т. д. Назви об’єктів, припустімо, можуть бути поділені на назви ідеальних об’єктів та матеріальних. Серед останніх може бути слово фрукти, а серед слів, що належать до фруктів, — слово яблуко. Структура типового простого речення Sj (j = 1, 2, 3 … m): Sj = Mj Tj Lj Kj [Pj(Xi1 … Xin, Yh1 … Yhp)], де Mj — квантор (логічний оператор, який переводить одну висловлювальну форму в іншу) світу (значення: реальність, псевдореальність (тобто імовірна реальність), ірреальність, невизначеність); Tj — квантор часу на однонапрямленій прямій (значення: завжди, на відрізку часу, в точці — моменті — часу, невизначеність); Lj — квантор місця в тривимірному просторі (значення: всюди, частина простору, точка простору, невизначеність); Kj — квантор кількості (значення: всі, деякі, один, невизначеність); Pj — предикат (присудок) твердження; Xi1 … Xin — змінні твердження (i = 1, 2, 3 … n), які в реченні відіграють роль підметів (суб’єктів дії). Yh1 … Yhp — змінні твердження (h = 1, 2, 3 … p), які в реченні відіграють роль прямих додатків (об’єктів дії). У цій структурі змінні (Xi, Yh) відтворюють іменники з прикметниками; R — предикат — дієслово з прислівниками; K — квантор кількості — числівники; L — обставину місця — найчастіше прислівники, іменники з прийменниками чи самі прийменники; T — обставину часу — найчастіше прислівники, рідше прислівники з іменниковими конструкціями; M — відношення до дійсності — найчастіше вставні слова. Приклад. Речення, яке відтворює структуру типового речення за формулою: Справді, вже два роки в нашому університеті двоє чудових хлопців безнадійно кохають смагляву темноволосу дівчину. Сучасна логіка предикатів часто використовує в твердженнях квантор кількості, якому найчастіше дають такі значення: всі, деякі (тут під словом “деякі” розуміють будь-яке число), один, невизначено. Найперше з модальних логік для моделювання структури простого речення — за аналогією до теорії можливих світів — використаємо вказаний квантор світу (M) зі значеннями: реальність, псевдореальність, ірреальність, невизначеність. Значення реальність описує реальний (дійсний) світ. Стосовно будь-якого твердження, яке описує цей світ, можна сказати, що воно є або істинним (істинність дорівнює 1), або хибним (істинність дорівнює 0). Значення псевдореальність описує псевдореальний (імовірно реальний), або фіктивний, світ . Кожне з таких тверджень стосовно реального світу, як правило, є хибним; проте, коли в ньому замість існуючих значень змінних підставити інші, то таке твердження може стати істинним у реальному світі. Щодо таких тверджень будемо вважати, що їх істинність стосовно реального світу перебуває в межах 0,0 … 1,0, тобто є імовірною, причому, чим менше підстановок слід робити у твердженні, тим ступінь цієї ймовірності вищий. Сюди ж слід віднести всі гіпотетичні щодо реального світу твердження. Значення ірреальність описує ірреальний світ. Такі твердження стосовно реального світу завжди є хибними, оскільки в реальному світі нема таких змінних і/чи предикатів, які вжиті в цих твердженнях. Стосовно реального світу істинність таких тверджень завжди дорівнює 0. Приклад ірреального світу — казки. Значення невизначеність описує невизначений світ. Стосовно будь-якого твердження невідомо, який зі згаданих вище трьох світів воно описує, а тому говорити про його істинність — безпідставно. Приклад. Невизначене повідомлення: Рятувальна команда розшукала в морі шхуну, яка ще годину тому подавала сигнали “SOS”. Проте екіпажу на кораблі рятівники не виявили. Рятівникам лише вдалося знайти пляшку з повідомленням про напад на екіпаж шхуни космічного корабля. Далі введемо з темпоральної логіки квантор часу (T) і запропонуємо такі його значення: завжди, упродовж (тобто відрізок часу), момент часу (тобто точка в часі), невизначено. Введемо з ситуативної логіки квантор місця (L) і запропонуємо такі його значення: всюди, частина простору, точка простору, невизначено. Для моделювання структури простого речення можна використовувати й інші модальні логіки. Наприклад, епістемічну логіку (значення квантора: доведено, спростовано, знаю, вірю…), деонтичну логіку, тобто логіку норм (значення квантора: дозволено, обов’язково, заборонено…), алетичну логіку (значення квантора: необхідно, можливо, випадково…), оцінювальну логіку (значення квантора: добре, посередньо, погано…), логіку бажань (значення квантора: хочу, можу, не хочу…), імовірнісну логіку (значення квантора вказує на ступінь істинності того, що стверджується предикатом, і перебуває в межах від 0,0 до 1,0) тощо. Приклад. Речення з переліченими модальностями: — з квантором епістемічної логіки: Вірю, що один чудовий хлопець одружиться зі смаглявою темноволосою дівчиною; — з квантором деонтичної логіки: Заборонено, щоби два хлопці одружувались із однією дівчиною; — з квантором оцінювальної логіки: Це прекрасно, що один чудовий хлопець одружився зі смаглявою темноволосою дівчиною. Структура сюжету. Для передавання більших, ніж речення, порцій інформації їх об’єднують спеціальними зв’язками (сполучниковими) у ланцюжок — сюжет. Сюжет фіксованої довжини утворює повідомлення. У мовознавстві повідомленню відповідає окремий текст, в програмному забезпеченні електронних керуючих систем — база даних чи окремий файл, у програмуванні — програма як єдине ціле. Щодо зв’язків, то їх є обмежена кількість. Наприклад, в логіці виділяють такі зв’язки (тут їх називають сполучниками): І, АБО, НЕ, ЯКЩО… ТО. Такі зв’язки можна задати як дескриптори (одиниця інформаційно-пошукової мови, що відповідає певному поняттю) на певній осі. В цьому випадку їх також можна розглядати як образи, що мають свою окрему сферу застосування. Останній сполучник вказує на кінець повідомлення. Подамо приклад структури повідомлення: Sm ○ , (8)Å … Å S3 Å S2 ÅM = S1 де M — повідомлення, Sj — j-е речення, — сполучники (логічні оператори); ○ — останній сполучник.Åа У реальних текстах найчастішим сполучником є І, причому, як правило, порожній. Роль такого порожнього сполучника на границях речень виконує крапка, знак оклику, знак запитання, всередині складнопідрядного речення — кома, а також інші лінгвістичні засоби (трикрапка тощо). Інші сполучники, як правило, задають явно. Останній сполучник (іноді він є порожнім) свідчить про кінець повідомлення (у лінгвістиці це кінець будь-якого тексту — оповідання, повісті роману, статті тощо, — а в програмному забезпеченні — кінець файла, програми чи бази даних). Структура знакового (вербального) повідомлення з позиції лінгвістики. Одиниці, що мають однакову будову й характеристики, утворюють один лінгвістичний рівень, як у мові, так і тексті. У мові маємо п’ять рівнів (фонемно-графемний, морфемний, лексемний, синтаксичних непредикативних і предикативних конструкцій). Можливо, у мові існують ще й вищі рівні, як у тексті, проте наукові дослідження одиниць на цих рівнях поки що не проводили. У текстах, крім вказаних, як у мові, п’яти рівнів, з’являються ще три додаткові, які утворюються внаслідок об’єднання (агрегації) речень у більші єдності (одиниці). Внаслідок цього утворюються рівні надфразних єдностей (НФЄ), блоків і дискурсу. Таким чином, у тексті виділяють вісім рівнів. 4. Концепції теорії інформації Імовірнісна (класична) концепція теорії інформації Класична теорія інформації Р. Хартлі та К. Шеннона базується на теорії ймовірностей (далі — імовірнісна ТІ). Кількість інформації для рівноймовірних завершень випробувань в цій теорії вимірюється як логарифм від кількості можливих варіантів (N) завершення випробування: I = log2 N = log2 mn = n log2 m, (1) де N — кількість можливих варіантів завершень випробування, тобто кількість можливих повідомлень; n — кількість розрядів у повідомленні (наприклад, 3); m — кількість символів в алфавіті (наприклад, два: 0 та 1). Одиницею вимірювання кількості інформації служить біт. Ця основна формула була вдосконалена К. Шенноном для випадку, коли завершення подій не є рівноймовірним: оскільки формула Р. Хартлі I = log N внаслідок звичайних математичних перетворень дорівнює I = - log (1/N), де (1/N) є ймовірністю (p) завершення випробовування, то можна записати, що I = - log p. Якщо ж завершення подій нерівноймовірне, то для варіанту завершення i кількість інформації в ньому становитиме: Ii = - pi log2 pi. (2) Застосування цієї формули показує, що чим менша ймовірність завершення варіанту i певного випробування, тим більше інформації він несе. Кількість інформації у всіх випробуваннях експерименту визначають як арифметичну суму по всіх завершеннях i. Ця математична модель досконало працює для тих випадків, коли мова йде про кодування інформації, тобто при передачі інформації каналами зв’язку чи її зберіганні на носіях інформації. Проте вона зовсім не працює, коли йдеться про визначення кількості інформації в об’єктах, позначених цими кодами. Покажемо це на прикладах. Приклад. Визначаючи кількість інформації в літері Р, ця теорія зовсім не аналізує, що ця літера, по-перше, складається з двох компонентів: прямої лінії та півкола; по-друге, пряма та півколо з’єднані між собою; по-третє, товщина лінії, яка утворює півколо, в різних точках є різною; по-четверте, пряма лінія нахилена під певним кутом тощо. Приклад. Вимірюючи кількість інформації у слові мама, ця теорія визначає лише кількість інформації в літерах цього слова, тобто Iмама = (-pм log pм) + (-pа log pа) + (-pа log pа) + (-pм log pм) проте зовсім не визначає, скільки інформації міститься в значенні цього слова (мама — людина, мама — жінка, мама — має двоє очей, ніг, рук і т. д., а конкретна моя мама має ще й певний вираз обличчя, колір очей, ріст, вагу тощо). Зрозуміло, що семантична інформація (що таке мама), тут повністю проігнорована, так само, як інші види інформації, що є в текстах — синтаксична, стилістична, граматична тощо . Приклад. Візьмемо дві сторінки газети. На першій — всі літери записані в ланцюжки на основі даних генератора випадкових чисел (з врахуванням частот появи літер і впливу на них контексту як це має місце в реальних текстах); в ілюстраціях піксели (з чорним чи білим зображенням) записані на площині в порядку, заданому на основі того самого генератора випадкових чисел. При цьому вказана сторінка нічого спеціально не шифрує, тобто ключа до її розшифрування в принципі немає. На другій сторінці газети — осмислені тексти; ілюстрації є фотографіями об’єктів реального світу. Коли порівняти кількість інформації на цих двох сторінках за Шеннонівською теорією інформації, то виявиться, що вони є практично однаковими, хоча кожна людина з власного досвіду знає, що це не так. Важливими вадами цієї теорії є те, що вона: а) стосується вимірювання кількості інформації лише в технічних пристроях — каналах зв’язку та носіях інформації (наприклад, пам’яті комп’ютерів) тощо ; б) не має методів, які давали б можливість виміряти кількість інформації стосовно тих подій, які вже відбулися, оскільки їх імовірність завжди дорівнює одиниці (в цьому випадку I = 0); в) не має методів, які давали б змогу виміряти кількість семантичної інформації не тільки в словах, реченнях, текстах, а й загалом у будь-яких знаках, що позначають образи (наприклад, географічних картах). Алгоритмічна концепція теорії інформації Кількість інформації за теорією інформації, що базується на алгоритмах перетворення (далі — алгоритмічна ТІ), вимірюється як довжина програми, що дає змогу перетворити об'єкт A в об'єкт B, тобто I = L[G(A,B)], (3) де L – функція отримання довжини програми (в байтах чи бітах), а G – програма перетворення. У поданому вище прикладі алгоритмічна ТІ дасть цілком інший результат. Згідно з її методикою кількість інформації в літері Ф стосовно Р буде рівною, наприклад, кількості байтів програми, яка перетворює літеру Ф в Р. Тут, правда, можливі різні результати залежно від того, що вибрати за елемент перетворення: коли цілі літери, то кількість інформації буде найменшою; коли стандартизовані елементи літер — середньою; коли піксели — максимальною. Виміряти ж кількість інформації в будь-якій літері, взятій окремо, взагалі неможливо, хіба що порівнювати її з пробілом. Розглядати ж можливість перетворення літери на себе саму немає сенсу, оскільки тоді довжина програми перетворення рівна нулю, а, отже, й кількість інформації в ній виявиться також рівною нулю. Спосіб вимірювання кількості інформації в значенні слова мама за цією теорією — невизначений (на нашу думку, неможливий). Вадами цієї теорії є те, що вона: а) в методі вимірювання як параметр використовує довжину алгоритму, який залежить від кількості “будівельних елементів”, що дають змогу перетворити один об’єкт на інший (чим дрібніші “будівельні елементи”, тим довшою виявляється програма перетворення для однієї й тієї ж пари об’єктів); б) не має методу, який дає змогу виміряти кількість інформації в одному об’єкті, оскільки для вимірювання їх завжди потрібно як мінімум два; в) не враховує, що одна й та ж програма може бути призначена для перетворення не одного, а цілого класу об’єктів; при цьому така програма матиме сталу довжину, хоча для різних об’єктів кількість виконаних команд може бути різною. Образна концепція теорії інформації як різновид алгоритмічної концепції теорії інформації. У будь-якому повідомленні M кількість інформації в образі O (Io) будемо вимірювати за напівемпіричною формулою, яка узгоджується з положеннями інформаційних підходів А. Колмогорова: Io = q-1 L[G(O1, O2)], (3-7) де q — ймовірність правильного розпізнавання образу O1 кібернетичною системою; L — функція отримання довжини розгорнутої програми; G — програма розпізнавання образу, біти; O2 — еталонний образ кібернетичної системи. Тут імовірність q визначається апостеріорно, за допомогою багаторазових експериментів. Для простішого оперування у формулі (3-7) величину L[G(O1,O2)] позначимо як Q, тобто приймемо, що L[G(O1,O2)] = Q. Тоді формулу (3-7) можна скорочено записати як Io = q-1 Q. (3-8) Саме в такому вигляді й користуватимемося цією формулою далі. Інтерпретація інформації як розпізнаного образу. Нерозпізнані образи не є інформацією. Такі образи — це лише відображення. Приклад. „Далі в книзі він [Тарзан] знайшов кілька маленьких мавп… Спочатку Тарзан намагався зняти пальцями маленькі фігури зі сторінок, але швидко зрозумів, що вони не справжні… Пароплави, потяги, корови і коні не мали для нього ніякого змісту, вони ковзали повз його увагу і не хвилювали його… Але що особливо зацікавило Тарзана і навіть збивало його з пантелику, це численні чорні позначки внизу і між розфарбованими картинками, — щось наче комашки, подумалося йому, - бо в багатьох з них були ноги, але у жодної з них не було ні рук, ні очей. Це було його перше знайомство з літерами алфавіту” . Семантична концепція теорії інформації Вимірювання кількості інформації в семантичній теорії інформації, що базується на фігурах математичної логіки (логічна ТІ) , можливе лише для тверджень за формулою I = log2 F(S), (4) де F – функція отримання кількості інформації, що залежить від кількості можливих станів у складових (змінних і предикатах) твердження; S – саме твердження. Знову повернемося до нашого прикладу. В цій теорії виміряти кількість інформації в літері Р або в значенні окремого слова мама взагалі неможливо, оскільки літера чи слово подані окремо, поза складом тверджень. Вадами цієї теорії є те, що вона: а) не дає можливості виміряти кількість інформації як у словах (семантичну інформацію ), так і в тексті (тобто інформацію, що є в тексті за межами тверджень); б) не дає можливості виміряти кількість невербальної інформації, що свідчить про її незаперечну обмеженість. Близькою за своєю суттю до семантичної теорії інформації є концепція М. Мазура . 5. Кодування інформації Мета процесу кодування інформації: за одиницю часу передати більше інформації. Конвенціональність кодування (одну й ту ж інформацію можна кодувати різними способами). Імовірність появи різних кодів у повідомленні. Кодування в суспільстві: — знакової інформації (природна мова людини; штучні мови); — аудіальної інформації (звуки музики — нотна грамота); — графічної інформації — площинної і просторової (картини, скульптура — закони перспективи, кольорові гами, масштаб); — графічної динамічної інформації (кіно, телебачення, відео — частота кадрів у кіно, піксельна передача методом горизонтального й вертикального розгортання). 6. Передача інформації Канал зв’язку передає інформацію в просторі (не в часі). Кожен канал передачі інформації характеризується певною пропускною здатністю, тобто кількістю інформації, яку він може передати за одиницю інформації при умові, що приймач інформації зможе її правильно розкодувати. Вимірюють у кількості бітів за секунду (біт/с) — бод. Види каналів зв’язку: а) для людини; б) для технічних пристроїв. Канали для людини. Канали зв’язку для людини: повітря, світлові промені (80%) тощо. Крім того, людина може використовувати й технічні канали зв’язку. Канали для технічних пристроїв. Канали зв’язку: радіохвильові й кабельні. Приклади радіохвильових: канали зв’язку радіо, телебачення, інфрачервоних хвиль для ПК тощо. Приклади кабельних: телефонні, оптиковолоконні тощо. Способи оптимальної передачі інформації: послідовна передача цілого повідомлення, передача порціями (пакетами). Постійна передача: радіо, телебачення. Передача порціями (пакетами): комп’ютерна техніка. Проблема необхідності дотримання найвищої достовірності інформації при її передачі каналами зв’язку. Достовірність інформації вимірюють у кількості помилок на фіксовану порцію інформації, наприклад на 1000 знаків. Для підвищення достовірності разом із кожною порцією інформації передають також контрольні розряди. Приклад перевірки за допомогою контрольного розряду: всі коди порції інформації сумують, результат ділять на 11, а частку від ділення записують у порції як останнє число (це — контрольний розряд) й передають приймачеві. Розкодовуючи, приймач перевіряє, чи контрольний розряд (частка від ділення), який отримав він, дорівнює тому, що надіслав передавач. Якщо не рівний, то це означає, що під час передачі внаслідок шумів десь виникло спотворення повідомлення, а тому цю порцію інформації потрібно передати ще раз (передача повторюється доти, доки не буде отримано збігу контрольних розрядів). Максимальна довжина контрольних розрядів може дорівнювати повторній передачі повідомлення (контроль методом дублювання). Застосування методу дублювання журналістами. Контрольні розряди, що не відновлюють інформацію і самовідновлюють інформацію. Приклад самовідновлення для людини (відновлення при пропущених голосних у словах, спотворення окремої літери тощо). 7. Носії інформації. Текст та інші носії інформації в ЗМК Носій інформації на відміну від каналу зв’язку передає інформацію не тільки в просторі, а ще й у часі. Види носіїв інформації: а) для людини; б) для технічних пристроїв. Носії для людини: папір, фотоплівка, грамплатівки, магнітофонні плівки, полотно для малювання, дисплеї тощо. Носії для технічних пристроїв (для ПК): диск (магнітний, оптичний); магнітні плівки; пристрої постійного запам’ятовування тощо. Носії інформації оцінюють за щільністю інформації, яку можна розмістити в одиниці об’єму, наприклад одному кубічному сантиметрі (біт/см3). Зараз існують такі носій інформації, що дають змогу записати всю інформацію, створену людським суспільством за весь час його існування в 1 м3. Узагалі, коли мова йде про текст, то слід ураховувати, у рамках якої науки він буде розглядатися. Бо поняття тексту, наприклад, у лінгвістиці зовсім не відповідає поняттю його у лінгвосоціопсихології. Для останньої текст — це деяка система комунікативних елементів, функціонально об'єднаних в єдину замкнену ієрархічну семантико-смислову структуру загальною концепцією чи задумом. Кожний з елементів тексту ніс би свою власну інформацію, якщо б не був включений у загальний текст як деяку ієрархію комунікативних програм, тобто в систему зв'язків. Діяльність спілкування актуалізується в породженні та інтерпретації текстів, не просто фіксуючих як деякі відрізки мовного потоку, але являють собою певний спосіб реалізації комунікативно-пізнавальних програм. Текст у цьому значенні — це породження комунікативно-пізнавальної діяльності, яке стає її об'єктом. Текстову діяльність можна розглядати як самостійну діяльність з власним завданням та продуктом. Вивчення особливостей породження та інтерпретації тексту — це один із способів дослідження суспільства та його діяльності. Текст, таким чином, є центральною ланкою в процесі масової комунікації. Варто зазначити, що зміст комунікації дуже впливає на всі інші її складові елементи. Наприклад, на ефективність сприйняття інформації. Якщо спочатку ефективність розвивалася здебільшого екстенсивним шляхом: зростала кількість засобів масової комунікації, ареал їх розповсюдження, виникали новітні засоби комунікації, то зараз вже йде розвиток інтенсивний. Людина не може сприймати мову швидше ніж 180 слів на хвилину, а для телебачення — 103 слова на хвилину, так що простим збільшенням потоку та інтенсивності інформації бажаного ефекту навряд чи можна досягти. І тут треба переходити від кількісного до якісного підходу до інформації. Тут велику роль відіграє взаємозв'язок комунікатора й аудиторії, форми такого взаємозв'язку. Як зауважував А. Хараш, "повідомлення — це не просто імпульс, який впливає на свідомість реципієнта: це . ще канал, через який свідомість реципієнта здійснює зворотний рух, проникаючи у світ комунікатора, у сферу справжніх мотивів його діяльності ." Процес проникнення у "позатекстовий" світ і є кульмінаційною фазою сприйняття повідомлень, що робить його власно "смисловим". Для шифрування та дешифрування повідомлень використовуються різні коди, тобто принципи впорядкування інформації. Комунікатор використовує їх щоб донести чи приховати свої мотиви від аудиторії. Реципієнти у свою чергу розшифровують повідомлення комунікатора. Чим більше шанс досягнення взаєморозуміння між комунікатором і реципієнтом, тим більше ефект комунікації. На перший план поступово виходять образні засоби журналістики, тобто професійні способи оптимальної організації матеріалів. Їх завдання полягає у тому, щоби стимулювати емоційну, розумову та вольову активність аудиторії. При розумінні тексту з філологічної точки зору, він "у всій сукупності своїх внутрішніх аспектів та зовнішніх зв'язків — та основна реальність, яка дана філології і суттєва для неї". Саме дослідження на рівні тексту є однією з головних ланок, які поєднують журналістику та філологію. Однак у журналістиці текст не тільки філологічне, а й соціальне явище, бо створюється він на базі суспільства і для суспільства. Саме текст несе в собі інформацію, яка впливає і перетворює суспільство. Таким чином, треба погодитися з тим, що "наукове дослідження засобів масової інформації через розмаїття останніх, відносної новизни та складності мовних процесів у цих сферах вимагає комплексного підходу". Узагалі, вчені ще не дійшли єдиного висновку щодо загального визначення тексту та створення його моделі. Домінують два основних підходи: пропозиційний (системний, статичний) та комунікативний (динамічний). При системному підході головними є правила граматики. Текст абстрагується від конкретних умов комунікації і визначається як нерозчленована у часі одиниця. За комунікативного підходу текст розглядається як мовний феномен, що перетворюється у принципово нове ціле внаслідок з'єднання окремих членів мовної структури. Фахівці погоджуються з тим, що суто лінгвістичні визначення текстів неправомірні, бо, як уже зазначалось, текст поєднує у собі як мовні, так і соціальні аспекти. Усі тексти (звичайно, маються на увазі тексти, які проходять через засоби масової комунікації) можна об'єднати за метою. Ця мета — передача інформації. Причому треба зняти обмеження на усне мовлення. Воно також є текстом (на телебаченні, радіомовленні) і його треба вивчати разом з газетно-журнальними текстами. Оскільки мета створення тексту досягається мовними засобами, то при його вивченні не обійтись без лінгвістики. Одне з лінгвістичних визначень тексту дав Б. Зільберт: "Текст — це цілісна одиниця мовної комунікації, яка складається з комунікативних елементів (висловлювань), функціонально і тематично об'єднаних у завершену смислову ієрархічну структуру і організованих загальним задумом (комунікативною інтенцією)". При аналізі текстів не можна також забувати про психологічний момент, адже автор тексту завжди людина зі своїми звичками та настановами. Важливим є також історичний аспект, бо, як зазначав Карлейль, ми зараз жодного слова Гомера не розуміємо так, як його розумів сам автор. Історичні обставини, мовні паралелі, цілком зрозумілі сучасникам, можуть загнати у глухий кут дослідника з іншого часу чи місця. При аналізі журналістського тексту важливим є елемент теми, тобто той аспект соціальної дійсності, який знайшов відбиття у конкретному тексті. Крім того, безумовно важливим є те, якими каналами масової комунікації передаються конкретні тексти. Специфіка каналу безпосередньо відбивається на специфіці тексту. Різними також є тексти і в жанровому плані, не кажучи вже про такі моменти, як індивідуальний авторський стиль. Багато в чому ефективність сприймання текстів залежить від особливостей аудиторії: соціального досвіду, рівня освіти, історичних традицій тощо. Для того, щоб актуалізувати увагу читача, у повідомлення включають: "реалії дійсності (факт); постулати ідеології чи норм моралі (постулат); образи культури чи прецеденти історії (прецедент)". Узагалі, при розгляді процесу передачі інформації від комунікатора до реципієнта не обійтися без поняття коду. Філософи вважають, що у замкненій системі існують дві форми відбиття — інформація і шум. Шум — це неупорядковане, а інформація — упорядковане відбиття дійсності. За допомогою коду шум стає інформацією. Тобто код — це визначений принцип упорядкування, який зрозумілий і комунікатору, і реципієнту. Носієм інформації, за М. Смирновою, є не весь текст, а тільки його смисл. Усе інше— код — необхідне для орієнтації реципієнта і організації сприйняття смислу тексту. Тобто тут процес комунікації можна представити такою загальною схемою: комунікатор добирає із дійсності факти, постулати чи образи, кодує їх відповідно до своєї мети та уявлення про реципієнта, а той, сприймаючи повідомлення, декодує його. Таким чином, успіх комунікації багато в чому залежить від того, наскільки вдало підібраний код, тобто чи сприймається інформація, яка закладена в текст комунікатором, адекватно аудиторією. Сприйняття та інтерпретація тексту супроводжуються, як правило, відповідними емоціями. Адекватність інтерпретації тексту визначається тим, наскільки повно сприйняв реципієнт той смисл, який заклав у повідомлення комунікатор. Це визначає і поняття інформативності. "Інформативність характеризує не абсолютну кількість інформації в тексті, не загальну його інформаційну насиченість, але тільки ту інформацію, яка ймовірніше буде адекватно сприйнята реципієнтами". Тексти масової комунікації докорінно відрізняються від усіх інших різновидів текстів. Ця різниця полягає насамперед у тому, що для їх передачі необхідний спеціальний канал комунікації, а аудиторія являє собою велику і розташовану у різних місцях групу людей. А. Хараш виділяє шість рівнів аналізу тексту реципієнтом. На нульовому рівні прийом повідомлення зовсім не відбувається. Реципієнт через якісь перешкоди не зміг з ним ознайомитися. На першому рівні реципієнт ознайомився з текстом, але не сприйняв його як інформацію. Наприклад, коли авангардистський ноктюрн сприймається як настройка рояля. На наступному рівні повідомлення вже сприймається як таке, але його зміст все одно залишається темним (тобто реципієнт вже знає, що це ноктюрн, але все рівно як музику його сприйняти не може). На третьому рівні сприймаються тільки емоції (наприклад, коли передача йде на незнайомій мові). На четвертому сприймається вся інформація, яка була закладена комунікатором. А на останньому реципієнт, проаналізувавши зміст повідомлення, може робити висновки щодо мотивів, якими керувався комунікатор при написанні тексту повідомлення. Таким чином, при аналізі тексту слід сприймати його чи як продукт комунікативної діяльності, тобто аналізувати текст як суспільне явище, чи як певну знакову систему, тобто аналізувати текст з суто філологічних позицій. Цікавим є також підхід, коли текст вивчається не окремо, а разом із зображальними матеріалами. У пресі — це малюнки, фотознімки, карикатури тощо. На телебаченні — відеоряд. На радіо — звукові шуми. Для їхнього створення (за винятком шумів) використовують не природну, а графічну мову, яка має деякі особливості. Тут предметом аналізу можуть стати і особливості такої мови, і зміст, і художнє вираження тощо. Слід зазначити, що жодне видання не обходиться без графічних матеріалів. Справа тут не тільки в тому, що вони допомагають позбавити реципієнта від сприймання великих текстових блоків (хоча і це проблема суттєва). Графічні та інші матеріали теж передають великі обсяги інформації, але передають її своєю особливою мовою. Звичайно, графічні та інші зображення та шуми складають меншу частину потоку комунікації порівняно з текстами, які створені природною мовою. Але мету вони мають ту саму: дати людині інформацію про предмети чи явища. Причому тут використовується той же механізм, що і при звичайних текстових матеріалах. Так само як слово викликає ідеальний образ того, що воно позначає, так і графічне зображення викликає відповідний образ у свідомості людини. В. Міхалкович виділяє тут дві проблеми. Перша — це відсутність у графічній знаковій системі загальноприйнятого набору "слів" (тут вихід полягає в тому, що зображення самі містять у собі те, що вже знайоме людині, у противному разі допомагає текстівка, складена природною мовою). Друга проблема — нерозчленованість зображення. Тобто тут немає морфем та фонем природної мови, однак членувати зображення можна за допомогою виділення місць, які особливо значущі для глядача. Але головне у будь-якому тексті, створеному за допомогою будь-якої знакової системи, — це служити людині, передавати інформацію від комунікатора до аудиторії. 8. Висновок. Всі процеси в природі супроводжуються сигналами. Зареєстровані сигнали утворюють дані. Дані перетворюються, транспортуються та споживаються за допомогою методів. При взаємодії даних та методів утворюється інформація. Інформаційний обмін відбувається у вигляді інформаційного процесу. Інформація – це динамічний об’єкт, що утворюється в ході інформаційного процесу. Він відображає діалектичний зв’язок між об’єктивними даними та суб’єктивними методами. Властивості інформації залежать як від властивостей методів, так і властивостей даних. Дані розрізняються за типами. Це пов’язано відмінностями у фізичній природі сигналів, при реєстрації яких вони утворились. Для збереження та транспортування даних використовуються носії даних. Інформатика займається питаннями систематизації методів створення, збереження, накопичення, опрацювання та передачі інформації. Для уніфікації прийомів та методів опрацювання даних в обчислювальній техніці застосовується двійкова система кодування. Елементарною одиницею подання даних є один двійковий розряд – біт. Групи по 8 біт називаються байтами. Основною одиницею збереження даних є файл. Він являє собою сукупність байт, що мають ім’я . Файли об’єднуються в каталоги. Сукупність всіх каталогів утворює файлову структуру носія. 



СПИСОК ВИКОРИСТАНОЇ ЛІТЕРАТУРИ.  

Автоматизированные информационные технологии в экономике: Учебник/Под. ред. Г.А.Титаренко.-М.: Компъютер. ЮНИТИ, 1998.  
Безпека комп’ютерних систем. Комп`ютерна злочинність та її попередження / М.С.Вертузаєв, В.О.Голубєв, О.І.Котляревський, О.М.Юрченко / Під ред. О.П.Снігерьова. - Запоріжжя: ПВКФ “Павел”, 1998.  Информационные системы в экономике: Учеб./ Под ред. В.В. Дика.-М.: Финансы и статистика, 1996.-272 с.  ДСТУ 3145-95. 
Коди та кодування. Штрихове кодування. Загальнi вимоги.  ДСТУ 3146-95. 
Коди та кодування. Штрихове кодування. 
Маркування об’єктiв iдентифiкацiї. Штрихкодовi позначки EAN. Вимоги до побудови.

Источник: http://5fan.ru/wievjob.php?id=119

Немає коментарів:

Дописати коментар