Poznawczy skąpiec – dlaczego nasz umysł wybiera łatwą drogę
Czy zdarzyło Ci się kiedyś udostępnić artykuł w mediach społecznościowych, nawet go nie czytając? Albo bezrefleksyjnie zaakceptować wszystkie warunki podczas instalacji aplikacji, byle szybciej z niej skorzystać? W słynnym filmie Matrix postać Cyphera wybiera iluzoryczną wygodę „niebieskiej pigułki” zamiast trudnej prawdy, w pewnym sensie odzwierciedla to uniwersalną skłonność ludzkiego umysłu. Psychologowie nazywają to zjawisko poznawczym skąpcem: nasz umysł z natury dąży do minimalizacji wysiłku poznawczego, wybierając łatwą drogę na skróty [1]. Innymi słowy, podobnie jak finansowy skąpiec niechętnie wydaje pieniądze, tak poznawczy skąpiec niechętnie „wydatkuje” ograniczone zasoby uwagi i energii umysłowej.
W XXI wieku, w dobie natłoku informacji, wszechobecnych smartfonów, projektowania UX skupionego na wygodzie oraz sztucznej inteligencji podejmującej za nas decyzje, mechanizmy te ujawniają się szczególnie wyraźnie. W artykule przyjrzymy się temu zjawisku z perspektywy społeczno-technologicznej. Omówimy, czym jest poznawczy skąpiec i jakie strategie umysłowe stosujemy, by radzić sobie z nadmiarem bodźców. Przytoczymy przykłady z życia codziennego i popkultury (filmowej i literackiej), zawsze jednak osadzone w kontekście badań naukowych. Zobaczymy, jak nasze upraszczające strategie myślenia wpływają na projektowanie technologii i interfejsów (UX), na algorytmy sztucznej inteligencji, a także na zachowania użytkowników w cyfrowym społeczeństwie.
Umysł jako poznawczy skąpiec to ograniczone zasoby i szybkie skróty
Termin poznawczy skąpiec wprowadzili do psychologii społecznej Susan Fiske i Shelley Taylor w latach 80. XX w. Zauważyli oni, że ludzie mają ograniczoną zdolność przetwarzania informacji, dlatego kiedy tylko mogą, uciekają się do poznawczych skrótów [1]. Nasz mózg działa niczym wysoko wydajny system oszczędzania energii, zamiast każdorazowo analizować wszystkie dostępne dane, często zadowalamy się rozwiązaniem „wystarczająco dobrym”. Ta oszczędność poznawcza jest filarem ludzkiej ewolucji: w większości codziennych sytuacji szybkie, intuicyjne decyzje pozwalają działać efektywnie przy minimalnym wysiłku [2].
Psycholog Daniel Kahneman opisuje ludzki umysł jako działający w dwóch trybach: System 1: szybki, automatyczny, heurystyczny, oraz System 2: wolniejszy, analityczny i bardziej wymagający poznawczo [2]. System 1 to właśnie nasze wcielenie poznawczego skąpca, błyskawicznie ocenia sytuacje, opierając się na uproszczonych wskazówkach, schematach i doświadczeniu. System 2 włącza się rzadziej, gdy musimy rozwiązać trudniejszy problem lub napotykamy coś naprawdę zaskakującego. Ponieważ jednak uruchomienie myślenia głębokiego wiąże się z wysiłkiem, często pozostajemy przy rutynowych sądach Systemu 1, o ile dają nam one wystarczająco dobre odpowiedzi.
Takie poznawcze skróty określa się mianem heurystyk. Przykładem może być heurystyka dostępności: jeśli łatwo przypominamy sobie jakieś zdarzenia, uznajemy je za bardziej prawdopodobne. Na przykład po obejrzeniu wiadomości o katastrofach lotniczych możemy przeceniać ryzyko takiego wypadku, ponieważ obrazy te są „świeże” w pamięci, choć obiektywnie latanie jest bezpieczniejsze niż jazda samochodem. Innym mechanizmem jest substytucja atrybutu, w obliczu trudnego pytania umysł często podmienia je na łatwiejsze. Słynny paradoks o piłce i kiju bejsbolowym ilustruje to zjawisko: pytanie „kij i piłka kosztują łącznie 1,10 dolara, przy czym kij jest o 1,00 dolara droższy od piłki; ile kosztuje piłka?” większość ludzi intuicyjnie zastępuje prostszym („ile to 1,10 minus 1,00?”) i udziela błędnej odpowiedzi „0,10$” zamiast poprawnych „0,05$”. Nasz umysł idzie na skróty, wybiera łatwiejsze pytanie, choć prowadzi to do pomyłki. Co ciekawe, badania wskazują, że ludzie często przeczuwają swoje uproszczenie. Mimo to i tak podają szybką, choć błędną odpowiedź, jeśli nie poświęcą chwili na uruchomienie Systemu 2 [2]. Ten przykład unaocznia dylemat: myślenie intuicyjne bywa zawodne, ale jest tak kusząco łatwe, że korzystamy z niego nawet kosztem dokładności.
Strategia poznawczego skąpca jest więc z jednej strony racjonalna (oszczędza czas i energię), z drugiej czyni nas podatnymi na błędy poznawcze. Psychologowie Tversky i Kahneman wykazali w klasycznych badaniach, że posługiwanie się heurystykami prowadzi do systematycznych odchyleń od logicznej normy, takich jak np. błąd konfirmacji (wyszukiwanie głównie informacji potwierdzających nasz pogląd) czy efekt zakotwiczenia (nieproporcjonalny wpływ początkowej informacji na decyzję) [2]. Mimo to w życiu codziennym heurystyki zwykle dobrze się sprawdzają, są „wystarczająco trafne” i pozwalają nam funkcjonować bez ciągłego paraliżu decyzyjnego. Problem narasta jednak, gdy środowisko staje się bardziej złożone i bombarduje nas nadmiarem bodźców, a tak właśnie wygląda współczesny świat cyfrowy.
Życie w świecie cyfrowym – informacyjny nadmiar a lenistwo poznawcze
Era informacji przyniosła nieograniczony dostęp do danych, lecz także zjawisko ciągłego przeciążenia poznawczego. Przeciętny użytkownik Internetu jest dziś zalewany wiadomościami, powiadomieniami, e-mailami, postami – ilością treści, której nie sposób w pełni świadomie przetworzyć. Więcej na ten temat pisałem w Czym jest „Brain rot”? Wpływ nadmiernego korzystania z mediów cyfrowych na funkcje poznawcze. W rezultacie naturalną reakcją jest jeszcze większe poleganie na mentalnych skrótach. Nasz wewnętrzny poznawczy skąpiec ma prawdziwe pole do popisu: by przetrwać w infosferze, musimy filtrować i upraszczać. Badania potwierdzają, że w warunkach przeładowania informacyjnego ludzie multitaskują i dzielą uwagę, co obniża jakość przetwarzania informacji, np. średnio sprawdzamy smartfon dziesiątki razy dziennie, często odruchowo, co utrudnia skupienie [3]. W takim trybie działania skupienie uwagi na jednym zadaniu przez dłuższy czas staje się trudne, a umysł szuka sposobów na automatyzację i odciążenie.
Jednym z takich sposobów jest poznawcze odciążanie (offloading), delegowanie części zadań poznawczych technologii. W dobie cyfrowej robimy to nagminnie. Po co pamiętać numer telefonu lub urodziny przyjaciela, skoro smartphone zrobi to za nas? Po co uczyć się drogi na pamięć, skoro GPS poprowadzi lepiej? Klasyczne badanie Sparrow i współpracowników pokazało, że możliwość łatwego wyszukania informacji online sprawia, iż gorzej zapamiętujemy same informacje, za to lepiej pamiętamy gdzie można je znaleźć [4]. Innymi słowy, świadomość istnienia Google w kieszeni zmienia sposób działania naszej pamięci: umysł wybiera łatwą drogę polegając na zewnętrznym „magazynie wiedzy” zamiast angażować własny. Nawet sama obecność telefonu potrafi obciążać zasoby poznawcze eksperymenty dowiodły, że osoby wykonujące testy uwagi i pamięci wypadały gorzej, gdy ich smartfon leżał w zasięgu wzroku (nawet nieużywany!), niż gdy był schowany w innym pomieszczeniu [5]. Część naszej uwagi pozostaje więc podświadomie „zarezerwowana” dla urządzenia, gotowa na dopływ bodźców, co redukuje zdolność do głębokiego, skupionego myślenia.
W reakcji na zalew informacji stosujemy również uproszczone strategie selekcji i oceny treści. Kilka przykładów z codziennej praktyki cyfrowej:
- Szybkie skanowanie i nagłówki: Badania eye-trackingowe pokazują, że internauci rzadko czytają tekst słowo w słowo – raczej skanują strony w poszukiwaniu wyróżników, nagłówków, słów kluczowych. Decyzję “czytać dalej czy nie” podejmujemy w ciągu sekund na podstawie powierzchownych przesłanek. Nic dziwnego zatem, że clickbaitowe tytuły, wielkie liczby w tytułach czy emocjonalne obrazki są tak skuteczne, odwołują się do szybkiej oceny Systemu 1.
- Heurystyka społecznego dowodu: Liczba polubień, udostępnień czy pozytywnych recenzji działa jak skrót myślowy informujący nas „to jest popularne, więc pewnie wartościowe”. Zamiast samodzielnie ocenić wiarygodność artykułu, często kierujemy się tym, ile osób już go pochwaliło. Psychologowie społeczni nazywają to zjawisko wpływem społecznego dowodu słuszności, w sieci występuje ono masowo, od sklepów internetowych (gwiazdki i opinie innych kupujących) po media społecznościowe. Użytkownik-czytelnik jako poznawczy skąpiec chętnie zda się na ocenę większości, by oszczędzić sobie trudu krytycznej analizy treści.
- Filtrowanie przez dopasowanie do oczekiwań: W gąszczu informacji szczególną uwagę zwracamy na te przekazy, które już pasują do naszych przekonań lub potrzeb, resztę ignorujemy. To klasyczny błąd konfirmacji, wzmocniony algorytmicznie w Internecie. Serwisy społecznościowe i platformy newsowe podsuwają nam treści podobne do tych, z którymi wcześniej wchodziliśmy w interakcje. Tworzą się bańki informacyjne, w których użytkownik otrzymuje głównie wygodne dla siebie, niekonfrontacyjne treści. Z perspektywy poznawczego skąpca brzmi to idealnie, nie musi trudzić się konfrontowaniem sprzecznych informacji ani zmieniać swoich schematów myślowych. Jednak długofalowo takie zamknięcie poznawcze może prowadzić do polaryzacji poglądów i podatności na dezinformację.
Właśnie dezinformacja i fake news to obszar, w którym lenistwo poznawcze umysłu w świecie cyfrowym ma poważne skutki. Rozprzestrzenianie fałszywych wiadomości bywa tłumaczone tzw. epidemią dezinformacji, ale badania sugerują, że problem tkwi w dużej mierze w nas samych: wielu z nas po prostu nie zadaje sobie trudu weryfikacji informacji przed kliknięciem „Udostępnij”. Co interesujące, najnowsze prace wskazują, że podatność na fake newsy wynika bardziej z braku refleksji niż z potwierdzania własnych przekonań politycznych. W eksperymentach osoby o wyższej skłonności do analitycznego myślenia (mierzonej np. testem CRT) znacznie lepiej odróżniały prawdziwe nagłówki od fałszywych i to niezależnie od zgodności tych treści z ich ideologią [6]. Innymi słowy, głównym czynnikiem było tu poznawcze lenistwo: ci, którzy „przystanęli” na moment i pomyśleli krytycznie, rzadziej dawali się nabrać na zmyślone informacje, w przeciwieństwie do tych działających impulsywnie [6]. Niestety, architektura mediów społecznościowych nie sprzyja namysłowi liczy się szybkość reakcji, ciągłe przewijanie treści i emocjonalne bodźce. To środowisko idealne dla poznawczego skąpca, który polega na pierwszym wrażeniu i utartych sądach.
Trzeba przy tym podkreślić, że bycie poznawczym skąpcem nie czyni z ludzi „głupich” odbiorców, to raczej przystosowanie do środowiska przeładowanego danymi. Po prostu nasz mózg, ukształtowany w warunkach niedoboru informacji, w świecie nadmiaru radzi sobie jak potrafi: tnie zakręty. Pytanie brzmi, jak fakt ten wpływa na projektantów technologii i czy można tę wiedzę wykorzystać, by tworzyć lepsze lub niestety czasem bardziej manipulacyjne, doświadczenia użytkowników.
Projektowanie UX a skąpstwo poznawcze
Dziedzina projektowania doświadczeń od podstaw opiera się na zrozumieniu ograniczeń i przyzwyczajeń ludzkiej percepcji oraz myślenia. Dobre projektowanie interfejsów i produktów cyfrowych niemal zawsze sprowadza się do zasady: maksimum efektu przy minimum wysiłku użytkownika. Słynny slogan projektantów brzmi wręcz: „Nie każ mi myśleć!” – taki tytuł nosi książka Steve’a Kruga, klasyka użyteczności. Choć publikacja ma charakter poradnikowy, stoi za nią solidna psychologiczna prawda: jeśli interfejs zmusza użytkownika do intensywnego zastanawiania się, kombinowania „co teraz zrobić?”, to znaczy, że jest źle zaprojektowany. Użytkownicy wolą rozwiązania intuicyjne, które prowadzą ich niemal za rękę. Dlaczego? Bo wszyscy jesteśmy poznawczymi skąpcami i w środowisku cyfrowym przenosimy nasze nawyki upraszczania na korzystanie z technologii.
Projektanci starają się więc tworzyć produkty proste w obsłudze, przewidywalne i zgodne z pewnymi konwencjami (np. ikona kosza oznaczająca usunięcie, lupka – szukanie). Dzięki temu użytkownik może działać na „autopilocie” wyuczonych skojarzeń, nie angażując każdorazowo pełnej uwagi. Heurystyki projektowania, jak heurystyki użyteczności Jakoba Nielsena zakładają m.in. minimalizację obciążenia pamięci (system powinien prezentować opcje, zamiast zmuszać do przypominania sobie), czy też dawanie jasnych punktów orientacyjnych. To w gruncie rzeczy odpowiedź na fakt, że przeciętny człowiek nie będzie analizował instrukcji obsługi ani czytał wszystkich komunikatów. Jak ujął to żartobliwie jeden z guru użyteczności: „Jeśli musisz coś tłumaczyć w wyskakującym okienku, to już przegrałeś bitwę o uwagę użytkownika”.
Nasz skąpiec poznawczy przejawia się choćby w tym, że nie czytamy uważnie treści interfejsu. Badania w zakresie bezpieczeństwa komputerowego wykazały, że użytkownicy notorycznie ignorują komunikaty bezpieczeństwa, ostrzeżenia i regulaminy, nie dlatego, że są lekkomyślni, ale dlatego, że ich motywacja do poświęcania na to czasu jest znikoma [3]. Ryan West, badacz psychologii bezpieczeństwa, zauważa: użytkownicy nie są głupi, są niemotywowani, działają w myśl zasady najmniejszego wysiłku [3]. Każde okienko dialogowe, każdy dodatkowy krok to dla nich „mentalny koszt”, który muszą sobie skalkulować. Skoro ryzyko naruszenia bezpieczeństwa wydaje się abstrakcyjne i mało prawdopodobne, a natychmiastowa korzyść (np. obejrzenie treści po kliknięciu „Zgadzam się”) jest konkretna, większość wybierze drogę na skróty [3]. Użytkownik szybko nauczy się, że nic złego się nie dzieje, gdy ignoruje te zawiłe ostrzeżenia, więc następnym razem kliknie bez namysłu jeszcze szybciej. Ten brak natychmiastowych konsekwencji utrwala jego heurystykę „będzie dobrze, po co czytać”. Z perspektywy projektanta to ogromne wyzwanie: jak przekazać ważną informację (np. o ryzyku) w świecie, gdzie uwaga jest tak cenna, a użytkownik tak łatwo ją traci?
W praktyce wielu twórców oprogramowania czy serwisów decyduje się pogodzić z faktem, że użytkownicy nie chcą myśleć zbyt dużo, i projektuje ścieżki interakcji tak, by prowadzić użytkownika „za rączkę”. Powszechne stały się np. samouczki kontekstowe, podświetlające kolejno elementy, które należy kliknąć. Formularze online korzystają z podpowiedzi i automatycznego uzupełniania, by ograniczyć liczbę decyzji i działań po stronie człowieka. Funkcje takie jak autoodtwarzanie (np. kolejny odcinek serialu odtwarza się automatycznie) czy scrollowanie nieskończone w mediach społecznościowych (kolejne posty ładują się bez końca) wykorzystują naszą tendencję do bezwładu poznawczego użytkownik często ogląda kolejne treści tylko dlatego, że są podane bez żadnego wysiłku z jego strony. Z punktu widzenia zaangażowania (np. czasu spędzonego na platformie) to sprytne zastosowanie wiedzy o poznawczym skąpstwie: im mniej barier i momentów, w których użytkownik musi podjąć świadomą decyzję, tym większa szansa, że zostanie.
Jednak takie praktyki projektowe rodzą także etyczne pytania. Skoro wiemy, że użytkownicy czytają wybiórczo i kierują się heurystykami, można to wykorzystać w niechlubny sposób, projektując ciemne wzorce (dark patterns) interfejsy, które wabią lub wymuszają określone zachowania, żerując na naszych mentalnych skrótach. Przykładem są ukryte opcje rezygnacji (projektant liczy, że użytkownik z rozpędu zaakceptuje warunki, bo przycisk „OK” jest jaskrawy i na pierwszym planie, a przycisk „Anuluj” schowany). Innym przykładem jest odliczanie czasu przy ofertach („Zostało 5 minut na skorzystanie!”), co wywołuje presję i skłania do impulsywnego kliknięcia zamiast przemyślenia sprawy. Projektanci UX znają te mechanizmy doskonale i odpowiedzialni z nich starają się raczej chronić użytkownika przed negatywnymi skutkami własnego skąpstwa poznawczego (np. poprzez czytelne informowanie, ustawienie bezpiecznych domyślnych opcji, które obowiązują, jeśli użytkownik nic nie zmieni). Niestety, biznesowo bywa to mniej opłacalne, więc walka pomiędzy dobrym UX a wykorzystywaniem słabości użytkownika ciągle trwa.
Z perspektywy społecznej ważne jest, że nasze lenistwo umysłowe wpływa na to, jakie technologie się przyjmują. Wygrają te, które maksymalnie uproszczą nam życie, czasem aż do przesady. W skrajnej postaci grozi to zjawiskiem tzw. cyfrowej atrofii umiejętności: jeśli zawsze polegamy na GPS, zatracamy orientację w terenie; jeśli ciągle wspieramy się kalkulatorem, pogarsza się nasza zdolność szacowania i rachowania w pamięci.
Sztuczna inteligencja i algorytmy
Rozwój sztucznej inteligencji (SI) i algorytmów uczenia maszynowego dodaje do tego obrazu nowy wymiar. Z jednej strony AI bywa projektowana właśnie po to, by odciążyć nas poznawczo ma analizować za nas duże zbiory danych, rekomendować decyzje, upraszczać wybory. Z drugiej strony, AI sama uczy się na podstawie danych często pochodzących od ludzi i może nieświadomie przejmować (a nawet wzmacniać) nasze błędy poznawcze.
Przykładem jest działanie systemów rekomendacyjnych: algorytm YouTube’a czy Netfliksa podsuwa nam kolejne treści oparte na naszych wcześniejszych preferencjach, tworząc swoistą pętlę nawyków. Jeśli jako poznawczy skąpiec oglądamy głównie lekkie, rozrywkowe treści, algorytm wyciągnie wniosek, że takie lubimy i zaserwuje nam ich więcej, jeszcze bardziej ograniczając kontakt z czymś odmiennym czy wymagającym. To algorytmiczne odbicie heurystyki potwierdzania: użytkownik dostaje to, co łatwo akceptuje, unika zaś tego, co wymagałoby przełamania schematu. Badania nad mediami społecznościowymi wykazały, że algorytmy mogą nieświadomie sprzyjać tworzeniu informacyjnych baniek, na przykład analiza aktywności 10 milionów użytkowników Facebooka pokazała, że większość z nich widzi głównie treści zgodne z własnymi poglądami, co jest skutkiem zarówno ich personalnych wyborów, jak i algorytmicznego filtrowania [7]. W efekcie nasze skróty myślowe (np. ufanie temu, co znajome i zgodne z przekonaniami) zostają wbudowane w architekturę informacji dostarczanej przez SI.
Co więcej, sztuczna inteligencja może sama stać się „skąpcem”, jeśli optymalizuje decyzje pod kątem najłatwiejszych rozróżnień w danych. Systemy uczące się próbują maksymalizować trafność swoich przewidywań przy minimalizacji „wysiłku” (rozumianego np. jako niepożądana złożoność modelu). Jeśli dane treningowe zawierają uproszczające korelacje, model może nauczyć się decyzji na skróty, np. system rekrutacyjny AI odkryje, że kandydaci o pewnych imionach częściej byli zatrudniani, i wykorzysta tę prostacką zależność zamiast faktycznie analizować kompetencje (taki przypadek rzeczywiście miał miejsce, gdy jeden z algorytmów rekrutacyjnych faworyzował mężczyzn, bo uczył się na historycznych danych, w których było ich więcej). W ten sposób algorytmiczny „skąpiec” może powielać stereotypy i biasy, które istniały w danych, analogicznie jak ludzki umysł używa stereotypów, by szybko kategoryzować ludzi [1]. Jest to obszar intensywnych badań akademickich i etycznych dyskusji – jak wykryć i ograniczyć upraszczające strategie AI, które mogą prowadzić do dyskryminacji czy błędnych decyzji.
Jednak na potrzeby niniejszego tekstu skupmy się na relacji człowiek – AI z perspektywy poznawczego skąpca po stronie człowieka. Pojawia się mianowicie zjawisko nadmiernego zaufania do automatyzacji, znane też jako automation bias. Gdy systemy AI wydają się kompetentne, ludzie mają tendencję polegać na nich bardziej, niż to uzasadnione, rezygnując z własnej oceny. Mosier i Skitka zaproponowali hipotezę „kognitywnego skąpca” w wyjaśnianiu automation bias: uznali, że ludzie przejawiają skłonność do przyjmowania decyzji podsuniętych przez automat właśnie dlatego, że to najmniej wymagająca poznawczo ścieżka, zamiast przechodzić przez mozół analizy, wolimy zaufać gotowej odpowiedzi [8]. Jeśli np. nawigacja GPS mówi nam, by skręcić, zazwyczaj skręcimy bez własnych dociekań (nawet jeśli czasem prowadzi to dosłownie na manowce, jak anegdotyczne przypadki wjechania autem do rzeki, bo „GPS kazał”). W środowiskach krytycznych, takich jak lotnictwo czy medycyna, automation bias jest dobrze udokumentowanym problemem: piloci czy operatorzy dronów potrafią przegapić oczywiste sygnały awarii, bo nadmiernie ufają, że automatyczny system ich o wszystkim ostrzeże; lekarze mogą przyjąć sugestię systemu wspomagania diagnozy bez dostatecznej weryfikacji. Również asystenci AI w codziennym życiu, od filtrów antyspamowych po systemy korekty tekstu sprawiają, że użytkownik czuwa mniej uważnie, bo zakłada, że „maszyna pilnuje”. To kolejny przejaw oszczędności umysłowej: odpuszczamy czujność, skoro ktoś (choćby wirtualny) myśli za nas.
Ten mechanizm ma niepokojące implikacje. Jeżeli ludzie staną się zbyt skłonni, by bezrefleksyjnie przyjmować decyzje AI, może dojść do sytuacji, w której błędne lub stronnicze rekomendacje pozostaną niewychwycone. Badacze wskazują, że antidotum może być zwiększanie przejrzystości i wytłumaczalności algorytmów. Gdy system pokaże uzasadnienie swojego wniosku, użytkownik jest zmuszony choć trochę pomyśleć nad jego logiką, zamiast traktować go jak magiczną czarną skrzynkę. Psychologicznie oznacza to aktywację bardziej analitycznego myślenia u człowieka, a więc wyjście poza tryb skąpca. W literaturze z zakresu AI rośnie nacisk na interakcję człowiek-sztuczna inteligencja, w której model AI staje się partnerem wymagającym od nas pewnego wysiłku (choćby oceny wyjaśnień), zamiast bezapelacyjnego orakulum. Można to odczytać jako próbę przeciwwagi dla naszego lenistwa – technologia może w paradoksalny sposób skłonić nas do myślenia, jeśli zostanie tak zaprojektowana, by nie dawać zbyt „gotowych” odpowiedzi.
Warto zauważyć też pozytywny aspekt: AI, która przejmuje rutynowe i żmudne zadania, może uwolnić zasoby poznawcze człowieka do spraw bardziej kreatywnych i wymagających. Kluczem jest, by nie zatracić tej uwolnionej uwagi na zupełnie bezmyślne konsumowanie treści. To już jednak zależy od nas samych oraz od ram, jakie ustali społeczeństwo dla korzystania z nowych technologii. Pewne inicjatywy idą w dobrym kierunku – np. serwisy społecznościowe eksperymentują z komunikatami typu „Czy na pewno chcesz udostępnić, nie przeczytawszy całego artykułu?”, by subtelnie szturchnąć użytkownika w stronę Systemu 2. Takie „architektury wyboru” związane z nurtem nudgingu (szturchania) pokazują, że mając świadomość działania poznawczego skąpca, można próbować zaprojektować cyfrowe otoczenie, które wspiera również myślenie refleksyjne, kiedy jest to ważne.
Podsumowanie
We współczesnym świecie cyfrowym nasz umysł niczym tytułowy skąpiec woli iść ścieżką najmniejszego oporu i zazwyczaj wychodzi nam to na dobre, pozwalając radzić sobie z ogromem bodźców i decyzji. Ta wrodzona oszczędność poznawcza jest fundamentem wielu intuicyjnych zachowań użytkowników, stanowi więc ważny punkt wyjścia dla projektantów technologii i badaczy społeczeństwa cyfrowego. Dzięki niej powstały interfejsy proste w obsłudze, algorytmy dopasowujące się do naszych upodobań oraz narzędzia automatyzujące rutynowe zadania. Jednak poznawczy skąpiec ma też swoją ciemniejszą stronę: czyni nas podatnymi na manipulacje, błędy i intelektualną stagnację.
Wyzwania XXI wieku od dezinformacji po etykę sztucznej inteligencji, wymagają od nas czasem wyjścia poza tryb automatycznego pilota i zaangażowania pełni świadomego myślenia. Dla specjalistów branży technologicznej i projektantów UX oznacza to odpowiedzialność za tworzenie środowisk cyfrowych, które nie tylko wykorzystują nasze heurystyki, ale też edukują i chronią użytkownika przed skutkami jego własnych uproszczeń. Z kolei badacze społeczeństwa cyfrowego zwracają uwagę, że musimy rozwijać kompetencje poznawcze i nawyki krytyczne już od najmłodszych lat, tak by w kluczowych momentach umieć powiedzieć naszemu wewnętrznemu skąpcowi: „stop, teraz pora pomyśleć głębiej”.
Na końcu dnia, by nie utknąć na zawsze w matrixie łatwych złudzeń, warto świadomie kształtować zarówno technologie, jak i własne przyzwyczajenia. Poznawczy skąpiec nigdy nas nie opuści, jest częścią ludzkiej natury, ale świadomość jego istnienia daje nam szansę, aby mądrze gospodarować naszym najcenniejszym zasobem: uwagą i namysłem. Jak uczy nas nauka i kultura, prawdziwa wolność wyboru wymaga czasem wysiłku.
Bibliografia
[1] Fiske, S. T., & Taylor, S. E. (1991) Social Cognition
[2] Kahneman, D. (2011) Thinking, Fast and Slow. Farrar, Straus and Giroux, New York.
[3] West, R. (2008) “The Psychology of Security.” Communications of the ACM, 51(4), 34-40
[4] Sparrow, B., Liu, J., & Wegner, D. M. (2011). “Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips.” Science, 333(6043), 776-778
[5] Ward, A. F., Duke, K., Gneezy, A., & Bos, M. W. (2017). “Brain Drain: The Mere Presence of One’s Own Smartphone Reduces Available Cognitive Capacity.” Journal of the Association for Consumer Research, 2(2), 140-154
[6] Pennycook, G., & Rand, D. G. (2019). “Lazy, Not Biased: Susceptibility to Partisan Fake News Is Better Explained by Lack of Reasoning Than by Motivated Reasoning.” Cognition, 188, 39-50
[7] Bakshy, E., Messing, S., & Adamic, L. A. (2015). “Exposure to Ideologically Diverse News and Opinion on Facebook.” Science, 348(6239), 1130-1132.
[8] Mosier, K. L., & Skitka, L. J. (1996). “Human Decision Makers and Automated Decision Aids: Made for Each Other?” w: Automation and Human Performance: Theory and Applications, red. R. Parasuraman & M. Mouloua, Mahwah NJ: Lawrence Erlbaum Associates, s. 201-220.