Napisane przez mediologia dnia . Wysłane Internet.

Krótka historia Internetu

W ciągu ostatnich 20 lat rozwój informatyki naznaczony był  zaostrzającą się w miarę upływu lat konkurencją między dwoma modelami informatyki opartymi na całkowicie odmiennych zasadach prawnych, ekonomicznych i handlowych. Symbolem tego konfliktu są systemy operacyjne: Windows, produkt Microsoft-u i Linux oprogramowanie stworzone przez fińskiego studenta Linus Torvaldsena. Na czym ten konflikt  polega?

Pierwszy model opiera się na zasadzie prawa własności oprogramowania, która zabrania kopiowania, oglądania i modyfikowania (dokładniej uniemożliwia oglądanie a więc i modyfikowanie) jego kodu źródłowego. Według Billa Gatesa odpłatna dystrybucja programów firmy Microsoft jest konieczna aby zamortyzować inwestycje. Drugi model pozwala wszystkim kopiować i modyfikować oprogramowanie, a nawet je rozpowszechniać pod warunkiem udostępnienia poprawionego kodu źródłowego. Dysponując kodem źródłowym oprogramowania możemy zrekonstruować wszystkie zasady i reguły które rządzą  funkcjonowaniem programu.

Linux udostępnia nam kod - czyli dostarcza nam szczegółowej dokumentacji technicznej. Natomiast Windows, nie. Oprogramowania firmy Microsoft sprzedawane są bez dokumentacji technicznej. Ponieważ – z definicji – programy oparte na zasadzie „otwartego kodu źródłowego"  takie jak np. Linux należą do wszystkich ewoluują one dzięki bezpłatnej pracy informatyków z całego świata („wolne oprogramowanie”).

Kooperacja ta – często nazywana ‘’grupową inteligencją’’ – jest możliwa dzięki powstaniu i upowszechnieniu Internetu. Z pojawienia się na rynku informatycznym praktycznie bezpłatnych modyfikowalnych oprogramowań korzystają więc w pierwszym rzędzie użytkownicy komputerów. Jak doszło do powstania zasady ‘’wolnego oprogramowania’’, która - co do tego wszyscy specjaliści są zgodni -, zrewolucjonizowała rozwój informatyki i dlatego ma coraz większy wpływ na rozwój gospodarczy, organizacje pracy czy organizacje systemu edukacyjnego?

Historycy informatyki są w tej sprawie zgodni: to w trakcie prac nad konstrukcją Internetu powstała idea "otwartego kodu źródłowego"

Pierwszą siecią teleinformatyczną obejmująca swoim zasięgiem całe terytorium USA był system kontroli powietrznej SAGE (Semi Automatic Ground Environment), który powstał na początku lat 50-tych w szczytowym okresie tzw. „zimnej wojny”.

Składał się on z sieci radarów rozlokowanych we wszystkich stanach które śledziły ruch samolotów nad Stanami Zjednoczonymi i przekazywały o nich wszystkie informacje do centralnego komputera.

W ten sposób w momencie odkrycia np. samolotu szpiegowskiego informacja o nim docierała  błyskawicznie do komputera centralnego, który w tej samej chwili wydawał rozkaz do zestrzelenia nieprzyjacielskiego obiektu.

Według Pentagonu SAGE – mimo swej technicznej perfekcji – miał jedną, za to punktu widzenia bezpieczeństwa kraju, zasadniczą wadę: unieruchomienie czy awaria centralnego komputera umożliwiała samolotom czy rakietom ZSRR bezkarne zniszczenie dowolnego kawałka terytorium USA.

Kiedy w 1957 roku Rosjanie wysłali pierwszy sputnik  w kosmos amerykańskie elity wojskowe dowiedziały się, że przewaga ZSRR nad USA jest nie tylko teoretyczną spekulacją lecz czymś realnym. Przy czym użyteczność systemu kontroli powietrznej SAGE – po wystrzeleniu przez Rosje – sputnika w kosmos – stała pod wielkim znakiem zapytania, to dlatego już w 1958 roku departament obrony USA powołał do życia  specjalną agencje ARPA (Advanced Research Project Agency) której zadaniem było mobilizowanie i organizowanie naukowych poszukiwań i badań, mających zapewnić Ameryce przewagę wojskową nad ZSRR.

Kierownictwo Pentagonu – rozumiejąc naturę badań naukowych – pozostawili organizatorom ARPA całkowitą wolność w ich poszukiwaniach zarówno teoretycznych jak i empirycznych. Pentagon a także Biały Dom mieli nadzieje, że oddanie ogromnych środków do dyspozycji wybitnych naukowców i specjalistów, prędzej czy później, zaowocuje jakimś  pozytywnym odkryciem zarówno dla armii jak i gospodarki Stanów Zjednoczonych.

Na początku prace ARPA oparte były  raczej na wizjach, a nie realnych projektach. Pamiętajmy, że zasługą kierownictwa Pentagonu było zadanie pytania, które – zdaniem wielu badaczy historii informatyki – w sposób decydujący – wpłynęło na powstanie Internetu: jak stworzyć skuteczny system kontroli powietrznej USA bez istnienia centralnego ośrodka (w domyśle komputera)?

Internet był niewątpliwie dzieckiem „zimnej wojny” ale jednocześnie nie powstałby, bez wiary czołowych polityków USA w realizację technologicznego raju na ziemi. Zarówno kierownictwo Pentagonu jak i kolejni prezydencji byli wychowani w kulcie nauki i techniki, który panował niepodzielnie w Ameryce w pierwszej połowie XX wieku. Nauka zastępowała religię. Uczony stawał się kapłanem: „Naukowcy” rodem z powieści J. Verne byli często doradcami Białego Domu a nawet Pentagonu.

Jeden z nich – Vannevar Bush – już w 1945 roku tworzył prototyp maszyny (jej zasady do  złudzenia przypominały funkcjonowanie komputera) nazwanej Memex będącej czymś w rodzaju zmechanizowanej biblioteki w której każdy dokument zawierał łącza umożliwiające dotarcie do innych ale poruszających ten sam temat dokumentów. Ta metoda wyszukiwania została później zastosowana w tzw. „hipertekście” będącej podstawową zasadą poszukiwania dokumentów w Internecie.

 

Agencja ARPA współpracowała ze wszystkimi wybitniejszymi ośrodkami uniwersyteckimi i instytutami naukowymi prowadzącymi badania nad  psychologią, technikami komunikacji i informatyką. ARPA dysponowała ogromnymi – jak na owe czasy funduszem liczącym setki mln dolarów i - jest to fakt podstawowy dla zrozumienia dalszych losów powstawania Internetu - jej wydatki nie były przez Pentagon kontrolowane.

Agencja nie musiała się rozliczać, składać sprawozdań, posiadała całkowitą autonomie finansową i organizacyjną innymi słowy nie była w niczym zależna wobec swego mecensa.

Kierownicy ARPA rekrutowali swój personel spośród naukowców uniwersyteckich, którym – rozumiejąc naturę badań naukowych – pozostawiano całkowitą wolność w ich poszukiwaniach zarówno teoretycznych jak i empirycznych. Agencja – a także Pentagon – miała nadzieje, że oddanie ogromnych środków do dyspozycji wybitnych naukowców i specjalistów, prędzej czy później, zaowocuje jakimś  pozytywnym odkryciem zarówno dla armii jak i gospodarki Stanów Zjednoczonych.

Źródeł pojawienia się w praktyce zawodowej zasady swobodnego dostępu do kodu źródłowego szukać należy w pracach prowadzonych na początku lat 60-tych przez IPTO (Information Processing Techniques Office), departament ministerstwa obrony USA, nad informatyką interaktywną.

Początkowe studia prowadzone przez dyrektora IPTO wybitnego psychologa Joseph Licklidera doprowadziły do redefinicji celów do jakich - na początku ery automatyzacji - służył komputer. Przypomnijmy, że był on – zgodnie z założeniami swoich twórców – narzędziem przeznaczonym do wykonywania skomplikowanych obliczeń matematyczno-fizycznych. Poszerzał możliwości ludzkiego mózgu, na wzór którego był zbudowany.

W latach 50-tych komputer mógł wykonywać tylko jedno zadanie naraz. Aby zwiększyć jego moc obliczeniową twórcy systemów informatycznych zmienili zasady jego działania w taki sposób by komputer mógł wykonywać kilka zadań jednocześnie (ang – time sharing).

J. Licklider obserwując nową organizacje pracy informatyków doszedł do wniosku, że relacje między człowiekiem i maszyną nabrały nowego charakteru. Time-sharing czyli jednoczesne wykonywanie kilku zadań przez komputer umożliwiało kooperacje naukowców, którzy w trakcie rozwiązywania konkretnych problemów badawczych tworzyli „grupową wiedzę i umiejętności” wykorzystywane później, w zależności od potrzeb, przez innych.

Powstała nowa metoda pracy intelektualnej zrywała radykalnie z dotychczasową wizją informatyki jako młodszej siostry matematyki. J. Licklider sformułował to zwięźle:

komputery powinny służyć zarówno do komunikacji jak i rachunków

 

Komunikacja, ponieważ właśnie na dialogu z komputerem polegało korzystanie z „grupowej wiedzy”. W dwa lata po opublikowaniu swoich refleksji J Licklider został mianowany dyrektorem departamentu badań informatycznych IPTO (Information Processing Techniques Office) wchodzącego w skład ARPA. Niedługo potem Licklider wspólnie z naukowcami z  MIT (Massachusetts Institute of Technology) rozpoczyna realizację projektu MAC (Multiple Access Computer), którego głównym celem było umożliwienie wielu użytkownikom z jednoczesnego korzystania z tego samego komputera.

 

Przełomowy charakter projektu MAC polegał na tym, że po raz pierwszy w historii rozwoju technologii informatycznej, programiści byli stale konfrontowani z pracami swoich kolegów, oglądali ich programy (czyli ich „kody źródłowe”) mogli sugerować ich ulepszenie, dyskutowali o alternatywnych rozwiązaniach różnorakich problemów.

 Powstawała wspólnota naukowa, której funkcjonowanie w następujący sposób opisywał Robert Fano:

Zasada „czasu podzielonego” umożliwiła wspólną pracę grupie uczonych, którzy kooperując ze sobą rozwiązywali zadany problem informatyczny tworząc jednocześnie wiedzę i umiejętności mogące być wykorzystane w przyszłości przez każdego z nich.

 

W tym momencie kierownicy ARPA, współpracujący z wieloma uniwersyteckimi i naukowymi ośrodkami w kraju, zdali sobie sprawę, że badania  posuną  się szybko do przodu jeżeli naukowcy biorący udział w projekcie – rozrzuceni przecież po całym kraju - będą mogli się porozumiewać i wymieniać wiedzę i umiejętności przy pomocy komputerów.

Idea „sieci” czyli komunikacji między komputerami została właśnie wtedy sformułowana po raz pierwszy. Zwracam przy tym uwagę – o czym się często zapomina szczególnie w książkach wydawanych w Polsce -, że pomysł nie miał nic wspólnego z głównym celem do którego realizacji została powołana ARPA.

Pomysł „sieci komputerowej związany był z odpowiedzią na pytanie: co zrobić by ulepszyć wymianę myśli między naukowcami biorącymi udział w pracach ARPA? Jakie narzędzie informatyczne stworzyć by gromadzić i rozprowadzić wspólne doświadczenia informatyków? Odpowiedzią była idea sieci międzykomputerowej. Podsumujmy dotychczasowe rozważania:

 a) komputer - zgodnie z założeniami swoich twórców – był narzędziem przeznaczonym do wykonywania skomplikowanych obliczeń matematyczno-fizycznych. Nikt nie przewidywał, że mógłby on kiedykolwiek posłużyć do komunikacji między ludźmi. Komputer był „elektronicznym liczydłem

 b) Zastosowanie – pod koniec lat 50-tych - nowej metody pracy nazywanej „czas podzielony” związanej z zwiększeniem  mocy obliczeniowej komputera umożliwia sformułowanie rewolucyjnej idei, że człowiek może komunikować się z maszyną

 c) Projekt MAC (Multiple Access Computer), uświadamia kierownictwu ARPA, że jest możliwa jednoczesna komunikacja wielu osób z jednym komputerem

 d) Idea komunikacji między komputerami (sieć) powstaje w trakcie refleksji metodologicznej i próbach odpowiedzi na pytanie: co zrobić by ulepszyć wymianę myśli (a przede wszystkim wymianę „kodów źródłowych” i algorytmów) między naukowcami biorącymi udział w pracach ARPA?

Tak więc zasada „otwartego kodu źródłowego” legła u podstaw powstania Internetu. Bez niej  prawdopodobnie nigdy nie zrealizowałoby idealistycznego marzenia uczonych amerykańskich pragnących zmienić świat przy pomocy komunikacji komputerowej.

ARPA współpracowała z 17 centrami naukowymi (uniwersytety), które postanowiono połączyć między sobą. Specjaliści realizujący  ten projekt wpadli na pomysł stworzenia zdecentralizowanej sieci komputerów, które mogłyby działać nawet w razie awarii niektórych jej węzłów, w ten sposób powstała – sieć komputerowa bezośrodkowa, czyli w taki sposób rozgałęziona, że nie posiadała ona żadnego centrum.

I właśnie tego oczekiwał Pentagon. Co więcej system ten cechował się redundancja, czyli zawierał wiele alternatywnych ścieżek przekazywania danych, co w razie awarii części sieci umożliwiało kierowanie danych inną drogą.

 

Piotr Piętak


Literatura na temat Internetu jest już przebogata i wyliczenie książek i artykułów na ten temat zajęłoby najprawdopodobniej kilkaset stron. W języku polskim najlepsze (z których korzystałem) opracowanie tematu znajduje się w:

- Manuel Castells "Galaktyka Internetu" Dom Wydawniczy Rebis; Poznań 2003

- Allan Afuah Christopher L. Tucci "biznes internetowy strategie i modele" str 32-39 Oficyna Ekonomiczna Kraków 2003

 

W języku angielskim zwięzły i klasyczny artykuł zbiorowego autorstwa:

- "Brief History of the Internet" (Leiner, Cerf, Clark, Kahn, Kleinrock, Lynch, Postel, Roberts, Wolff) dostępny pod adresem:
http://www.isoc.org/internet-history/brief.html

 

W języku francuskim :

- Patrice Flichy "L'imaginaire d'Internet" Edition la Decouvert Paryż 2001

- Jean-Paul Smets-Solans, Benoit Faucon ;Logiciels libres; Wydawnictwo edispher Paryż 1999