PRZETWARZANIE INFORMACJI
Wstęp
Jak wiemy z wcześniejszych naszych zajęć, komputer jest urządzeniem do przetwarzania informacji. Zresztą już sama nazwa przedmiotu – Informatyka, sugeruje, że pojęcie informacji ma tu pierwszoplanowe znaczenie. Na dzisiejszych zajęciach postaramy się odpowiedzieć na pytania, co to jest informacja, oraz w jaki sposób jest ona reprezentowana w komputerze.
Pojęcie informacji
Informacja, jest to zbiór danych zgromadzonych w celu ich przetworzenia i uzyskania wyników. Przykładem informacji może być sygnał wysłany latarnię morską – sygnał ten informuje kapitana statku o bliskości lądu. Kapitan, na podstawie informacji z latarni morskiej podejmuje decyzję czy płynąć do brzegu, czy też zmienić kurs i ominąć wybrzeże.
W podanym przykładzie kapitan pełni rolę komputera, który przetwarza uzyskaną informację na wynik. Oczywiście nie byłby on w stanie podjąć decyzji, gdyby nie wiedział wcześniej, którędy i gdzie chce dopłynąć. Kapitan musi więc mieć mapy oraz pewien plan podróży. W komputerze tę rolę pełni programem.
Fizyczna reprezentacja informacji w komputerze
Ponieważ komputer jest urządzeniem elektrycznym, to wszelkie informacje, jakie do niego docierają muszą być reprezentowane również przez sygnały elektryczne. Wszystkie dzisiejsze komputery budowane są w taki sposób, że rozróżniają jedynie dwa stany elektryczne: 1 – gdy sygnał elektryczny dochodzi do komputera, oraz 0 – gdy sygnału brak. Można to porównać do sposobu działania lampki, która zaświeca się, gdy dochodzi do niej prąd elektryczny i gaśnie, gdy ten prąd zanika.
Logiczna reprezentacja informacji w komputerze
Przytoczony przykład z lampką obrazuje sposób przekazywania najprostszej informacji: lampka świeci lub nie świeci. Taka podstawowa informacja nosi nazwę bitu informacji. Za pomocą jednego bitu można zapisać dwa stany informacji: świeci, lub nie, ale już za pomocą dwóch bitów takich stanów można zapisać 4. Mając do dyspozycji dwa bity, to tak, jakbyśmy mieli dwie lampki; możemy w ten sposób dostarczyć następujących informacji: 1. żadna z lampek się nie świeci, 2. świeci się lampka nr 1, 3. świeci się lampka nr 2, 4. świecą się obie lampki.
Podobnie, za pomocą 3 bitów można zapisać już 8 stanów informacji.
bity |
Ilość stanów, jakie da się zapisać |
1 |
2 |
2 |
4 |
3 |
8 |
4 |
16 |
5 |
32 |
6 |
64 |
7 |
128 |
8 |
256 |
9 |
512 |
10 |
1024 |
11 |
2048 |
12 |
4096 |
13 |
8192 |
14 |
16384 |
15 |
32768 |
16 |
65536 |
Systemy liczbowe
W życiu codziennym przyzwyczajeni jesteśmy do wykonywania rachunków w systemie dziesiętnym. Zupełnie nieświadomie korzystamy z tzw. pozycyjnego systemu liczenia. Przykładowo liczbę 118 można zapisać w następującej postaci:
1 x 102 + 1 x 101 + 8 x 100
Liczba 10 w tym zapisie nazywa się podstawą systemu liczenia. W systemie dziesiętnym wykorzystuje się 10 cyfr : 0,1,2,3,4,5,6,7,8,9.
System liczbowy, jakim posługują się komputery wykorzystuje, jak już powiedzieliśmy wcześniej, tylko dwie cyfry: 0 i 1.
Dlatego system ten jest nazywany systemem dwójkowym.
Oprócz systemu dwójkowego, zwanego też binarnym, programiści często używają systemu szesnastkowego (heksadecymalnego), w którym występuje aż 16 cyfr: 0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F
Zajmiemy się teraz zamianą liczb dwójkowych ( binarnych ) na liczby dziesiętne i odwrotnie.
Zadanie: Zamień liczbę binarną 1111 (2) na liczbę dziesiętną:
3 |
2 |
1 |
0 |
23 |
22 |
21 |
20 |
8 |
4 |
2 |
1 |
1 x 8 |
1 x 4 |
1 x 2 |
1 x 1 |
Odp.: 1111 (2) = 8 + 4 + 2 +1 = 15 (10)
Zadanie: Zamień liczbę dziesiętną 15(10) na liczbę binarną:
Dzielenie |
Iloraz |
Reszta z dzielenia |
Cyfra |
15 : 2 |
7 |
1 |
C0 |
7 : 2 |
3 |
1 |
C1 |
3 : 2 |
1 |
1 |
C2 |
1 : 2 |
0 |
1 |
C3 |
Dzielenie wykonujemy aż iloraz osiągnie 0.
Otrzymana liczba wynosi : (1111) 2
Ponieważ za pomocą bitu można przedstawić bardzo małą ilość informacji, dlatego wprowadzono jednostki o większej pojemności czyli: bajty, kilobajty, megabajty, gigabajty, terabajty itd.
1 Bajt = 8 bitów
1 KB = 210 B = 1024 Bajty
1 MB = 210 KB = 1024 KB
1 GB = 210 MB = 1024 MB
Kod ASCII
Proces przetwarzania wymaga uprzedniego wprowadzenia informacji i zapamiętania ich. Informacje są wprowadzane do komputera najczęściej w postaci ciągów znaków którymi są na ogół liczby lub teksty. Zbiór akceptowanych przez komputer znaków można traktować jako szerzej pojęty alfabet. Wprowadzenie do komputera znaków w nie zmienionej postaci graficznej byłoby wygodne dla człowieka, ale wymagało by stosowania bardzo skomplikowanych urządzeń odczytujących, przetwarzających i zapisujących. Dlatego każdy znak jest w komputerze kodowany, czyli otrzymuje jednoznaczną reprezentację liczbową.
W komputerach zgodnych ze standardem IBM używa się kodu ASCII, w którym określono kody 128 znaków Stanowiących uniwersalny alfabet informatyki. Kod ASCII zawiera kody 128 znaków podstawowych (o wartościach od 0 do 127) odpowiadających znakom widocznym na klawiaturze oraz znakom sterującym.
Każdy znak w kodzie ASCII jest zapisany w postaci dwójkowej za pomocą jednego bajta (8 bitów).np.:
Zapis obrazu i dźwięku
Opisany kod ASCII służy do cyfrowego zapisu znaków. W komputerach mamy jednak często, oprócz znaków, do czynienia z obrazem i dźwiękiem. Aby zapisać w postaci cyfrowej obraz, komputer musi go podzielić na drobne punkty (tak, jakbyśmy nałożyli na niego kalkę z papierem milimetrowym). Każdemu z tych punktów jest są przypisane liczby określające jego współrzędne: X (inaczej H-czyli Horizontal tzn. Poziomo) i Y (inaczej V-czyli Vertical tzn. Pionowo), oraz numer koloru. W ten sposób otrzymywany jest zapis cyfrowy obrazu. Otrzymane punkty nazywamy pikselami, a maksymalną ilość punktów na osi X i Y rozdzielczością poziomą i pionową lub w skrócie rozdzielczością (np. 800 x 600).
Podobnie rzecz się ma z dźwiękiem – przetwarzany na postać cyfrową dźwięk jest próbkowany, tzn. dzielony z określoną częstotliwością (np. 44kHz, czyli 44 tysiące razy na sekundę) na króciutkie fragmenty, zwane próbkami, których natężenie wyrażone w postaci napięcia sygnału analogowego (przed zamianą na postać cyfrową) jest przeliczane na postać binarną.
© All Right Reserved 2005 EdU