Artykuły

Autorytatywność wiedzy w społeczeństwie zinformatyzowanym

Czas czytania: 6 min

Podobnie jak miało to miejsce w społeczeństwie agrarnym, które kolejno przekształciło się w społeczeństwo industrialne, rozwój internetu jest kolejnym krokiem w ewolucji cywilizacji.  Nie mniej w przypadku ery industrialnej określono jasną granicę i ustalono ją za wynalezienie maszyny parowej przez Jamesa Watta w 1769 roku.

Dziś świat znajduje się w erze informacyjnej, społeczeństwie wysoce zinformatyzowanym. Nie istnieje jednak punkt na osi czasu, który wskazywałby dokładnie kiedy nastąpiła zmiana. W literaturze można znaleźć wiele propozycji: wynalezienie pierwszego komputera,  zdominowanie gospodarki przez sektor usług – po raz pierwszy przekroczyły one magiczną granicę 50% PKB w Stanach Zjednoczonych czy stworzenie sieci Internet. Jako punkt wyjścia potraktuję trzecią możliwość. 

Internet początkiem ery informacji

Początek historii sieci Internet miał miejsce w okresie zimnej wojny w roku 1957 w dniu wystrzelenia przez Rosjan satelity Sputnik. USA powołał ARPA  (Advanced Research Projects Agency), której zadaniem było stworzenie sieci komunikacyjnej dla celów wojskowych.

Pierwsze połączenie sieciowe zostało nawiązane dopiero w roku 1973, pomiędzy Ameryką i Europą. Był to moment powstania koncepcji internetu. Jednak przełomem w historii komunikacji typu peer to peer okazał się być rok 1992, w którym rząd USA zniósł zakaz wykorzystywania sieci w celach niekomercyjnych, co stało się solidnym fundamentem do budowy wirtualnej, globalnej wioski.

W 1994 roku David Filo i Jerry Yang tworzą Yahoo! jako spis interesujących ich miejsc w Internecie; z czasem serwis ten rozwija się w najsłynniejszy katalog zasobów internetowych na świecie. Cztery lata później Larry Page i Sergiej Brin tworzą projekt, który zrewolucjonizował sieć – wyszukiwarkę Google.

Wyszukiwarki, algorytmy

Dziś wyszukiwarki stanowią narzędzia wykorzystywane przez zdecydowaną większość społeczeństwa posiadającego dostęp do internetu. Azja wykorzystuje Baidu, Rosja Yandex, reszta świata natomiast w większości używa do celu odnalezienia interesujących ich informacji wyszukiwarki Google.

Zasada działania funkcjonowania algorytmów jest w nich niemal identyczna. Kiedy użytkownik przesyła zapytanie, wyszukiwarki przeszukują internet analizując zawartość stron. Otrzyma on w odpowiedzi listę stron, które algorytm uzna za najbardziej odpowiednie.  Algorytmy te polegają na informacjach podanych w kodach stron, np. na podanych tytułach, nagłówkach i słowach kluczowych. Są zatem bardzo podatne na nadużycia.

Nieświadomy użytkownik otrzymuje linki stron nie mających nic wspólnego z jego zapytaniem. Aby przeciwdziałać temu, wyszukiwarki zaczęły stosować analizę topologii sieci. Najważniejszymi algorytmami stosowanymi w wyszukiwarkach są algorytmy oceny relewancji dokumentu względem szukanej frazy oraz algorytmy oceny zawartości strony.

Takie działanie determinuje jednak społeczną wartość otrzymanej treści, ponieważ im większe zainteresowanie daną treścią, tym większa jest jego ocena oraz ranking. Jest to jednak dopiero wierzchołek góry lodowej. Rozwój nowych technologii umożliwia wyszukiwarkom wyświetlanie danych na podstawie danych pobieranych z plików cookies, czyli zachowań użytkownika, danych demograficznych, wieku, płci, zainteresowań czy lokalizacji.

Magdalena Szpunar w publikacji Wyszukiwarka google jako współczesny gatekeeper zaznacza iż celem Larrego Page’a nie było stworzenie narzędzia wyszukiwarki, a przede wszystkim porządkującego światowe zasoby informacyjne. Nie jest to tajemnicą, iż główne źródło dochodu Google pochodzi z reklam. Jeśli zatem zysk generują płatne wyniki wyszukiwania, firmy wyszukujące nie mają interesu w tym, by rzetelnie uporządkować zawartość sieci.

Thomas Friedman,  amerykański dziennikarz i publicysta w ostatniej kolumnie New York Times stawia tezę, czy Google to Bóg i bada rolę wyszukiwarki w umożliwianiu użytkownikom sieci na całym świecie dostęp do informacji w każdej chwili, w dowolnym miejscu o niczym (Friedman 2003). Wyszukiwanie treści o wątpliwej jakości ‘o niczym’ staje się generatorem zjawiska przeciążenia informacyjnego.

Informacyjne przeciążenie

Eric Schmidt, prezes wykonawczy Google oświadczył iż  „Od początków cywilizacji do roku 2003 ludzkość wygenerowała 5 eksabajtów danych. Teraz produkujemy 5 eksabajtów co 2 dni i to tempo stale rośnie”. Jeden eksabajt w przeliczeniu na gigabajty wynosi 1 073 741 824 GB. Dla zobrazowania wielkości tej liczby posłużę się przykładem.

Przeciętny film trwający ok. 120 minut nagrany w rozdzielczości 4k zawiera w sobie ok. 330 gb danych. Jeden eksabajt danych zawiera ponad 3 miliony filmów. Poddając tę liczbę iloczynowi o wartości 5, otrzymujemy sumę danych, którą generuje ludzkość w ciągu 2 dni! „Codziennie człowiek pochłania ok. 100 500 słów, co (…) stanowi wzrost o ponad 350 proc. od 1980 roku”. Oznacza to, iż przeciętna jednostka każdego miesiąca otrzymuje taką ilość informacji, jaką dostawał jego dziadek przez całe swoje życie.

Mowa tu oczywiście o krajach wysoce rozwiniętych. Szacowano iż w roku 2011 w świecie powstanie 20 milionów razy więcej informacji niż wszystko, co napisano do tej pory w historii ludzkości. Trudno się temu dziwić, jeśli – jak podaje Eryk Mistewicz – autor „Marketingu narracyjnego” – „każdej minuty wysyłamy 12 mln SMS-ów, każdego dnia 294 mld e-maili. Jedną z konsekwencji przeładowania informacjami jest spadek trafności efektywności podejmowania decyzji oraz skupienia. Bardziej niż ilość niepewna jest jakość generowanych danych.

Według danych Internet Word Stats z dnia 30 czerwca 2016 roku, globalna populacja ludzi wynosi 7,340,159,492, z czego 3,675,824,813 to użytkownicy sieci Internet. Niekwestionowanym liderem użytkowników internetowych jest Azja, posiadając 1,846,212,654 mieszkańców podłączonych do sieci, co stanowi ponad 50% globalnego dostępu, co jak pokazuje historia zachęca do nadużyć. Google w roku 2006 wprowadziła na terenie Chin ocenzurowaną wersję wyszukiwarki blokującej dostęp do haseł: Tajwan, Tybet, Dalajlama, prawa człowieka.

Chińska wersja www.google.cn udostępnia tylko strony internetowe zaakceptowane przez chińskie Biuro Bezpieczeństwa Publicznego. Protesty wobec polityki firmy Google zorganizowała organizacja Students for Free Tybet pod hasłem „No luv 4 Google”. Organizacja zachęca do zaprzestania korzystania z usług tej firmy. Należy jednak zauważyć, że wszystkie wyszukiwarki działające wcześniej w Chinach (Baidu, Yahoo!, MSN) również musiały zastosować się do wymagań władz chińskich. Użytkownik zatem na drodze do uzyskania treści napotyka algorytmy prezentujące treści na podstawie jego zachowań, zainteresowań, lokalizacji, a także innych, takich jak cenzurę państwa jak w powyższym przykładzie.

Web 2.0 – Wikiworld

Główną ideą Web 2.0 jest przejście z biernej postawy użytkownika, występującej w pierwszej fazie rozwoju WWW (Web 1.0), do postawy czynnej, dającej możliwość tworzenie treści (user generated content) oraz interakcji z nimi. Wraz z powiększającą się społecznością internetową, pracującą nad powiększeniem zasobów internetowych, pojawiło się pojęcie Social Networking. W sieci Web 2.0, użytkownik jest kreatorem informacji. Użytkownik jest zatem jednocześnie konsumentem treści oraz jego producentem. Jednym z przykładów modelu Web 2.0 są portale typu Wiki.

Wiki – według słownika polsko – angielskiego słowo to wywodzi się z języka hawajskiego i oznacza ‘szybko’. Samo słowo oznacza kategorię stron internetowych, które można edytować bezpośrednio za pomocą przeglądarki internetowej. Przykładami są AboutUs.com, WikiMapia, czy najpopularniejsza Wikipedia.

Niewątpliwym plusem rozwiązań przystosowanych do możliwości edycji przez użytkowników są aspekty biznesowe, mianowicie praktycznie zerowy koszt tworzenia nowych treści oraz dystrybucji, co w przypadku Wikipedii okazało się być przewagą nad encyklopedią Brytannica, która zaprzestałą drukowania egzemplarzy encyklopedii po roku 2010 w wyniku problemów finansowych. Jednak jakość prezentowanych treści w wirtualnym gigancie na tle liczącej sobie blisko 250 lat od pierwszego wydania Britannici pozostawia wiele do życzenia. Do jej tworzenia encyklopedii zapraszani byli wyłącznie renomowani eksperci poszczególnych branży, podczas gdy Wikipedię tworzą Internauci.

“(…) Wiedza, której symbolem jest encyklopedia, to domena ekspertów. Stopnie naukowe, tytuły honorowe i członkostwo w towarzystwach naukowych oraz akademiach mają gwarantwać, że legitymujący się nimi ekspert jest godny zaufania – może przygotować artykuł w encyklopedii lub czasopiśmie naukowym.” W przypadku Wikipedii każdy może przyczynić się do tworzenia poszczególnych haseł. Ludzie ufają inteligencji zbiorowej. Jak zauważa Anna Maj “wiedza eksperta ulega zrównaniu z wiedzą laika, amatora”

Pozyskiwanie rzetelnych informacji z sieci przez użytkownika w XXI w okazuje się zatem nie być prostą czynnością.  Napotyka on bowiem wiele tzw. ‘gatekeeperów’, począwszy od skomplikowanych algorytmów wyszukiwarki, o których szerzej mowa była w pierwszej części niniejszej publikacji, skończywszy na portalach funkcjonujących w modelu Web 2.0. Jak zatem mieć pewność, czy odnalezione informacje są rzetelne, czy też nie?

Jakość modeli Wiki

Dla zobrazowania faktycznego stanu rzeczy postanowiłem zbadać losowy termin, wpisując go w Wikipedii oraz weryfikując go w różnych wersjach językowych, a także innych źródłach. Uxeau to miejscowość i gmina we Francji, w regionie Burgundia-Franche-Comté, w departamencie Saona i Loara. Według polskiej wersji Wikipedii, posiada ona powierzchnię 32,67 km² oraz 686 ludności, według danych z 1990.

Zmienieniając język na angielski, powierzchnia posiada już 32.75 km2 , ludność wynosi 552 według danych z 2006. Francuska wikipedia mówi o powierzchni identycznej jak anglojęzyczna, czyli 32,75 km2, natomiast różni się wartość liczbowa ludności, bowiem w roku 2014 wynosiła ona 539 osób.

Wietnamska wikipedia mówi o ludności 574 osób, nie podając roku w którym był prowadzony spis ludności. Jest to przykład znaleziony poprzez opcję oferowaną przez twórców największej encyklopedii online ‘losuj artykuł” który został wybrany jako jeden z pierwszych wyselekcjonowanych tekstów. Takich przykładów zatem z pewnością istnieje znacznie więcej. Jednak nieznaczne różnice wynikające z korzystania z innych źródeł wikipedystów nie jest zjawiskiem powodującym ferment, choć stawiając użytkownika w roli prosumenta, czyli osoby, która skonsumowaną wiedzę ma na celu redystrybuować, w błąd wprowadzonych zostanie cały szereg jej interlokutorów, podając różne dane liczebności populacji, nie weryfikując uprzednio daty z którego one pochodzą.

Marcin K. Zwierżdżyński  w publikacji Konstruktywizm a konstrukcjonizm wskazuje na paronim słów konstruktywizm i konstrukcjonizm. “W pewnym sensie konsekwencją (…) rozróżnia konstrukt – konstrukcja.” dalej wskazuje na odwołanie się do źródeł leksykalnych, w których według słownika PWN “konstrukt to logiczna struktura powstała w czyimś umyśle”, natomiast konstrukcja to “sposób, w jaki połączone są elementy tworzące jakąś całość.” Jako drugi argument wskazuje niejako aspekt historyczny, w którym zaznacza, iż konstruktywizm zasłynął, obok matematyki oraz sztuki jako perspektywa teoretyczna i metodologiczna na gruncie nauk społecznych, konstrukcjonizm natomiast pojawił się w nurcie nauk społecznych.

Niniejsza publikacja nie ma jednak na celu asocjowania tych dwóch terminów, a jedynie wykazanie ich błędnego katalogowania przez społeczność Web 2.0. Semantyka terminów konstruktywizmu oraz konstrukcjonizmu według polskiej wikipedii jest analogiczna, zatem niezależnie od zapytania wysłanego do wyszukiwarki google, użytkownik otrzyma błędnie przekierowanie do definicji konstrukcjonizmu społecznego. Wersja anglojęzyczna natomiast poprawnie wskazuje na dwie różne definicję metodologii konstrukcjonizmu społecznego (social construcjonism) oraz konstruktywizmu epistemologicznego (Constructivist epistemology).

Konkludując chciałbym jedynie zaznaczyć, iż w dobie ery big data, społeczeństwa wysoce zinformatyzowanego wykorzystywanie narzędzi typu Wiki lub innych rozwiązań Web 2.0 jest wątpliwe i prowadzi do zjawisk przeciążenia informacyjnego oraz smogu informacyjnego, o czym pisze Tadeusiewicz.

 

Źródła:

J. Papińska-Kacperek – Wyszukiwanie informacji w internecie  www.ki.uni.lodz.pl/~jpapkac/podstawy/wyszukiwanie.pdf

M. Tomaszewski – Rozwój globalnej sieci komputerowej w kierunku Web 3.0 www.ptzp.org.pl/files/konferencje/kzz/artyk_pdf_2011/102.pdf

M. Szynkiewicz – Metafora smogu informacyjnego a procesy informacyjne repozytorium.amu.edu.pl/bitstream/10593/13777/1/Studia_metod_32_2014_Mariusz_Szynkiewicz.pdf

M.K. Zwierżdżyński – Konstruktywizm a konstrukcjonizm www.ejournals.eu/sj/index.php/principia/article/view/4148

M. Szpunar – współczesne modele oznaczania i klasyfikowania wiedzy: folksonomia i tagowanie jako mechanizmy społecznościowego indeksowania informacj

M. Szpunar – Wyszukiwarka google jako współczesny gatekeeper

S. K. Moskal, M. Wiktorowski – Zarządzanie wiedzą i informacją w społeczeństwach sieciowych – intellipedia – studium przypadku

Augustyniak Sz., Polski e-handel B2C według I-Metrii, Internet Standard, 25 marca 2002

Eryk Mistewicz – Marketing narracyjny. Jak budować historie, które sprzedają, 2011

E.Benedyk, Wiek Wiki, “Polityka” 2006, nr 44, s74,

A. Maj, Wikifikacja wiedzy, Travel 2.0 i globalhood, [w:] Kody McLuhana. Topografia nowych mediów, red. A. Maj i M. Derda-Nowakowski, ExMachina, Katowice 2009, s. 151 – 153,

Dodaj komentarz